Em formação

A ciência da computação tem algum papel a desempenhar na ciência cognitiva?

A ciência da computação tem algum papel a desempenhar na ciência cognitiva?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

A ciência da computação (ou computacionalismo) tem algum papel a desempenhar na ciência cognitiva ou nos estudos de criatividade?


sim. A ciência da computação é uma das disciplinas centrais das ciências cognitivas. Na verdade, o dogma central e dominante da ciência cognitiva moderna (ou seja, nos últimos 50 anos) é que a cognição é computação. Este artigo do SEP desenvolve esta tese:

http://plato.stanford.edu/entries/computational-mind/

Mesmo que você não pense que cognição é computação, provavelmente ainda pensaria que a ciência da computação é relevante para a ciência cognitiva na medida em que o CompSci é necessário para a modelagem computacional de qualquer fenômeno. Por exemplo, alguns teóricos de sistemas dinâmicos usariam modelos computacionais dinâmicos de processos cognitivos, mesmo que não afirmem que a mente é Informática equações diferenciais ou de diferença. (Assim como podemos usar equações diferenciais para modelar furacões, mesmo que talvez não pensemos que o próprio furacão está computando as equações.)

Tenho menos certeza do que se considera exatamente "estudos da criatividade", mas posso imaginar que a ciência da computação seja relevante. Por exemplo, CS - e lingüística - está definitivamente interessado em questões como "Como um número infinito de expressões é criado a partir de meios finitos?" Diferentes tipos de gramáticas - como gramáticas regulares vs gramáticas livres de contexto - têm diferentes poderes "criativos". A criatividade aqui é mais definida em termos puramente formais, em oposição talvez aos termos semânticos / artísticos que você possa ter em mente. Mas, eu e muitos outros argumentaríamos, a criatividade formal e a criatividade semântica / artística estão intimamente relacionadas.


Desenvolvimento da informática

A ciência da computação surgiu como uma disciplina independente no início dos anos 1960, embora o computador digital eletrônico que é o objeto de seu estudo tenha sido inventado cerca de duas décadas antes. As raízes da ciência da computação estão principalmente nos campos relacionados da matemática, engenharia elétrica, física e sistemas de informação gerencial.

A matemática é a fonte de dois conceitos-chave no desenvolvimento do computador - a ideia de que todas as informações podem ser representadas como sequências de zeros e uns e a noção abstrata de um "programa armazenado". No sistema numérico binário, os números são representados por uma sequência de dígitos binários 0 e 1 da mesma forma que os números no sistema decimal familiar são representados usando os dígitos 0 a 9. A facilidade relativa com que dois estados (por exemplo, alto e baixa tensão) pode ser realizada em dispositivos elétricos e eletrônicos levados naturalmente ao dígito binário, ou bit, tornando-se a unidade básica de armazenamento e transmissão de dados em um sistema de computador.

A engenharia elétrica fornece os fundamentos do projeto de circuitos - a saber, a ideia de que os impulsos elétricos que entram em um circuito podem ser combinados usando a álgebra booleana para produzir saídas arbitrárias. (A álgebra booleana desenvolvida no século 19 forneceu um formalismo para projetar um circuito com valores de entrada binários de zeros e uns [falso ou verdadeiro, respectivamente, na terminologia da lógica] para produzir qualquer combinação desejada de zeros e uns como saída.) A invenção do transistor e a miniaturização dos circuitos, juntamente com a invenção dos meios eletrônicos, magnéticos e ópticos para o armazenamento e transmissão de informações, resultaram dos avanços da engenharia elétrica e da física.

Os sistemas de informação gerencial, originalmente chamados de sistemas de processamento de dados, forneceram as primeiras idéias a partir das quais vários conceitos da ciência da computação, como classificação, pesquisa, bancos de dados, recuperação de informações e interfaces gráficas de usuário, evoluíram. Grandes corporações alojavam computadores que armazenavam informações essenciais para as atividades de administração de uma empresa - folha de pagamento, contabilidade, gerenciamento de estoque, controle de produção, remessa e recebimento.

O trabalho teórico sobre computabilidade, iniciado na década de 1930, proporcionou a extensão necessária desses avanços para o projeto de máquinas inteiras. Um marco foi a especificação de 1936 da máquina de Turing (um modelo computacional teórico que executa instruções representadas como uma série de zeros e uns) pelo matemático britânico Alan Turing e sua prova do poder computacional do modelo. Outro avanço foi o conceito de computador com programa armazenado, geralmente creditado ao matemático húngaro-americano John von Neumann. Essas são as origens do campo da ciência da computação que mais tarde ficou conhecido como arquitetura e organização.

Na década de 1950, a maioria dos usuários de computador trabalhava em laboratórios de pesquisa científica ou em grandes corporações. O primeiro grupo usou computadores para ajudá-los a fazer cálculos matemáticos complexos (por exemplo, trajetórias de mísseis), enquanto o último grupo usou computadores para gerenciar grandes quantidades de dados corporativos (por exemplo, folhas de pagamento e estoques). Ambos os grupos aprenderam rapidamente que escrever programas na linguagem de máquina de zeros e uns não era prático ou confiável. Esta descoberta levou ao desenvolvimento da linguagem assembly no início dos anos 1950, que permite aos programadores usar símbolos para instruções (por exemplo, ADD para adição) e variáveis ​​(por exemplo, X) Outro programa, conhecido como assembler, traduziu esses programas simbólicos em um programa binário equivalente cujas etapas o computador poderia realizar, ou "executar".

Outros elementos de software de sistema, conhecidos como carregadores de link, foram desenvolvidos para combinar pedaços de código montado e carregá-los na memória do computador, onde poderiam ser executados. O conceito de vincular partes separadas de código era importante, uma vez que permitia que “bibliotecas” de programas para realizar tarefas comuns fossem reutilizadas. Este foi o primeiro passo no desenvolvimento do campo da ciência da computação denominado engenharia de software.

Mais tarde, na década de 1950, a linguagem assembly foi considerada tão complicada que o desenvolvimento de linguagens de alto nível (mais próximas das linguagens naturais) começou a oferecer suporte a uma programação mais fácil e rápida. FORTRAN surgiu como a principal linguagem de alto nível para programação científica, enquanto COBOL se tornou a principal linguagem de programação de negócios. Essas linguagens traziam consigo a necessidade de diferentes softwares, chamados compiladores, que traduziam programas de linguagem de alto nível em código de máquina. À medida que as linguagens de programação se tornaram mais poderosas e abstratas, construir compiladores que criam código de máquina de alta qualidade e que são eficientes em termos de velocidade de execução e consumo de armazenamento tornou-se um problema desafiador de ciência da computação. O projeto e a implementação de linguagens de alto nível estão no centro do campo da ciência da computação, chamado de linguagens de programação.

O uso crescente de computadores no início da década de 1960 forneceu o ímpeto para o desenvolvimento dos primeiros sistemas operacionais, que consistiam em software residente no sistema que gerenciava automaticamente a entrada e a saída e a execução de programas chamados de "trabalhos". A demanda por melhores técnicas computacionais levou ao ressurgimento do interesse pelos métodos numéricos e sua análise, uma atividade que se expandiu tanto que se tornou conhecida como ciência da computação.

As décadas de 1970 e 80 viram o surgimento de poderosos dispositivos de computação gráfica, tanto para modelagem científica quanto para outras atividades visuais. (Dispositivos gráficos computadorizados foram introduzidos no início dos anos 1950 com a exibição de imagens brutas em gráficos de papel e telas de tubo de raios catódicos [CRT].) Hardware caro e a disponibilidade limitada de software impediram o crescimento do campo até o início dos anos 1980, quando o a memória do computador necessária para gráficos de bitmap (em que uma imagem é composta de pequenos pixels retangulares) tornou-se mais acessível. A tecnologia de bitmap, junto com telas de exibição de alta resolução e o desenvolvimento de padrões gráficos que tornam o software menos dependente da máquina, levou ao crescimento explosivo do campo. O suporte para todas essas atividades evoluiu para o campo da ciência da computação conhecido como computação gráfica e visual.

Intimamente relacionado a este campo está o projeto e a análise de sistemas que interagem diretamente com usuários que estão realizando várias tarefas computacionais. Esses sistemas passaram a ser amplamente utilizados durante as décadas de 1980 e 1990, quando as interações editadas em linha com os usuários foram substituídas por interfaces gráficas de usuário (GUIs). O design da GUI, que foi pioneiro pela Xerox e mais tarde adotado pela Apple (Macintosh) e finalmente pela Microsoft (Windows), é importante porque constitui o que as pessoas veem e fazem quando interagem com um dispositivo de computação. O design de interfaces de usuário apropriadas para todos os tipos de usuários evoluiu para o campo da ciência da computação conhecido como interação homem-computador (HCI).

O campo da arquitetura e organização de computadores também evoluiu dramaticamente desde que os primeiros computadores com programas armazenados foram desenvolvidos na década de 1950. Os chamados sistemas de compartilhamento de tempo surgiram na década de 1960 para permitir que vários usuários executassem programas ao mesmo tempo em diferentes terminais conectados ao computador. A década de 1970 viu o desenvolvimento das primeiras redes de computadores de longa distância (WANs) e protocolos para a transferência de informações em alta velocidade entre computadores separados por grandes distâncias. À medida que essas atividades evoluíram, elas se fundiram no campo da ciência da computação, chamado de redes e comunicações. Uma grande conquista nesse campo foi o desenvolvimento da Internet.

A ideia de que instruções, bem como dados, poderiam ser armazenados na memória de um computador foi crítica para descobertas fundamentais sobre o comportamento teórico dos algoritmos. Ou seja, perguntas como "O que pode / não pode ser calculado?" foram tratados formalmente usando essas idéias abstratas. Essas descobertas deram origem ao campo da ciência da computação conhecido como algoritmos e complexidade. Uma parte fundamental deste campo é o estudo e aplicação de estruturas de dados adequadas a diferentes aplicações. Estruturas de dados, juntamente com o desenvolvimento de algoritmos ideais para inserir, excluir e localizar dados em tais estruturas, são uma grande preocupação dos cientistas da computação porque são muito usados ​​em software de computador, principalmente em compiladores, sistemas operacionais, sistemas de arquivos, e mecanismos de pesquisa.

Na década de 1960, a invenção do armazenamento em disco magnético proporcionou acesso rápido aos dados localizados em um local arbitrário no disco. Essa invenção levou não apenas a sistemas de arquivos projetados de maneira mais inteligente, mas também ao desenvolvimento de bancos de dados e sistemas de recuperação de informações, que mais tarde se tornaram essenciais para armazenar, recuperar e transmitir grandes quantidades e grandes variedades de dados pela Internet. Este campo da ciência da computação é conhecido como gerenciamento de informações.

Outro objetivo de longo prazo da pesquisa em ciência da computação é a criação de máquinas de computação e dispositivos robóticos que podem realizar tarefas que normalmente são consideradas como requerendo inteligência humana. Essas tarefas incluem mover, ver, ouvir, falar, compreender a linguagem natural, pensar e até exibir emoções humanas. O campo da ciência da computação de sistemas inteligentes, originalmente conhecido como inteligência artificial (IA), na verdade antecede os primeiros computadores eletrônicos na década de 1940, embora o termo inteligência artificial não foi cunhado até 1956.

Três desenvolvimentos em computação no início do século 21 - computação móvel, computação cliente-servidor e hacking de computador - contribuíram para o surgimento de três novos campos na ciência da computação: desenvolvimento baseado em plataforma, computação paralela e distribuída e segurança e Garantia de Informação. O desenvolvimento baseado em plataforma é o estudo das necessidades especiais de dispositivos móveis, seus sistemas operacionais e seus aplicativos. A computação paralela e distribuída diz respeito ao desenvolvimento de arquiteturas e linguagens de programação que suportam o desenvolvimento de algoritmos cujos componentes podem ser executados simultaneamente e de forma assíncrona (ao invés de sequencial), a fim de fazer melhor uso do tempo e do espaço. A segurança e a garantia da informação tratam do projeto de sistemas de computação e software que protegem a integridade e a segurança dos dados, bem como a privacidade das pessoas que são caracterizadas por esses dados.

Finalmente, uma preocupação particular da ciência da computação ao longo de sua história é o impacto social único que acompanha a pesquisa em ciência da computação e os avanços tecnológicos. Com o surgimento da Internet na década de 1980, por exemplo, os desenvolvedores de software precisaram abordar questões importantes relacionadas à segurança da informação, privacidade pessoal e confiabilidade do sistema. Além disso, a questão de saber se o software de computador constitui propriedade intelectual e a questão relacionada "Quem o possui?" deu origem a toda uma nova área jurídica de licenciamento e padrões de licenciamento que se aplicavam a software e artefatos relacionados. Essas e outras preocupações formam a base das questões sociais e profissionais da ciência da computação e aparecem em quase todos os outros campos identificados acima.

Portanto, para resumir, a disciplina de ciência da computação evoluiu para os seguintes 15 campos distintos:


Na inteligência humana & # 8230 uma perspectiva da ciência da computação

Sempre que leio cientistas sociais, frequentemente há, implícito no fundo, o conceito de & # 8220inteligência & # 8221 como uma quantidade bem definida. Eu tenho alguma inteligência. Talvez você tenha um pouco mais.

Mas o que a ciência da computação tem a dizer sobre tudo isso? Ou seja, do que é essa & # 8220inteligência & # 8221 de que estamos falando?

  • Exceto para recursos de armazenamento (memória) e velocidade, todo o hardware é equivalente. Embora eu não saiba muito sobre biologia, duvido que qualquer cérebro funcione com o dobro da velocidade de outro cérebro. Ficamos com a memória como uma restrição. No entanto, o que a ciência da computação nos diz é que você sempre pode estender sua memória com suporte externo (neste caso, use uma caneta e papel, ou apenas o Google) e tudo o que isso pode fazer é atrasar você. Assim, parece que a principal diferença entre os indivíduos deve ser a velocidade: algumas pessoas podem aprender mais rápido do que outras, ou executar algumas tarefas mais rápido.
  • Pode haver grandes diferenças no software, mas o software pode ser atualizado.

Se um ser humano pode fazer algo intelectualmente, a maioria dos outros seres humanos também pode fazer, embora de forma mais lenta. Eles podem precisar de mais ferramentas e de mais tempo & # 8230, mas isso é tudo. No entanto, dado que temos ferramentas mais sofisticadas a cada ano que passa, eu esperaria que a diferença na & # 8220inteligência humana & # 8221, seja ela qual for, deva diminuir em importância com o tempo.

Espero que o que diferencia as pessoas não seja essa inteligência mal definida, mas sim a coragem pura. Se você deseja fazer algo, mas aparentemente não tem a & # 8220inteligência & # 8221 para fazê-lo, então pode ser simplesmente uma questão de encontrar ou construir as ferramentas certas.

Em certo sentido, é disso que se trata o software: estender nossa inteligência.

A ideia de que alguém pudesse medir minha & # 8220inteligência & # 8221 me trancando em uma sala e me fazendo escrever um teste com caneta e papel é ridícula. Enquanto escrevia esta postagem no blog, usei uma dúzia de softwares sofisticados, incluindo Wikipedia e Google Scholar. Onde termina a inteligência & # 8220my & # 8221 e onde começam as ferramentas? Não há linha. O que você percebe como o resultado de & # 8220minha & # 8221 inteligência é o resultado de um agregado de hardware e software onde a genética do meu cérebro é apenas um dos muitos ingredientes.

Alguém com uma memória gigantesca em 1900 certamente poderia ser um estudioso muito melhor. No entanto, na época do Google Scholar, memorizar milhares de citações e referências era muito menos uma vantagem. Você pode trabalhar mais rápido se não precisar procurar informações on-line constantemente. No entanto, à medida que o Google e seus concorrentes melhoram, o acadêmico com uma memória gigantesca acaba perdendo para alguém que confia mais nos computadores & # 8230 da mesma forma que os jogadores de xadrez perdem para os computadores.

Para ser um acadêmico no ano 1500, você precisa ter um cérebro excelente e uma educação excelente. Em 2014, quase qualquer pessoa pode se tornar um estudioso & # 8230 se envolver em profundos debates intelectuais, escrever ensaios convincentes & # 8230

Classificar as crianças como talentosas ou não talentosas é uma gigantesca falta de imaginação. A tecnologia de software tem o potencial de transformar a criança que não conseguia descobrir as frações em alguém que pode fazer ciência avançada.


Galaxy Zoo

Galaxy Zoo: 'uma autêntica experiência da ciência'.

Classifique galáxias para entender o universo

Projeto carro-chefe do Zooniverse. Peneire fotos de milhões de galáxias e ajude a classificar suas formas para desvendar sua história. A forma de uma galáxia diz se ela colidiu com outra galáxia, se formou estrelas e como ela interagiu com o ambiente. Como todos os projetos Zooniverse, Galaxy Zoo oferece uma experiência autêntica da ciência, então você não ganhará pontos. No entanto, se ver cantos longínquos do universo antes de qualquer outro olho humano não é suficiente para você, fique atento a objetos estranhos e maravilhosos e eles podem ter o seu nome, como Hanny's Voorwerp, um gás do tamanho de uma galáxia nuvem com o nome de um jogador.


Como a ciência da computação afeta os filmes?

A ciência da computação realmente afeta os filmes de várias maneiras. Os computadores são a espinha dorsal da produção cinematográfica moderna e, portanto, o conhecimento e a compreensão dos sistemas de computador são importantes para toda a indústria. A seguir estão algumas das maneiras pelas quais os computadores e a ciência da computação estão envolvidos na criação de filmes.

Os filmes são editados em computadores

Na época em que os filmes eram filmados em filme físico, o processo de edição envolvia literalmente cortar o filme e amarrá-lo da maneira que o diretor queria para criar um filme completo. Agora, a gravação de vídeo digital assumiu o controle, com quase todos os filmes sendo editados em um computador. Os editores de filmes usam programas de edição de nível profissional, como Vegas Pro, Avid Media Composer, Final Cut Pro e Adobe Premiere Pro para juntar todas as cenas de um filme em uma narrativa abrangente. Isso ocorre principalmente porque os filmes são, em sua maioria, filmados fora da sequência por vários motivos, como a disponibilidade do ator e do local. Os profissionais da ciência da computação são as pessoas que projetam esses programas de edição e os fazem funcionar com os computadores que os utilizam.

Os filmes são animados em computadores

A animação existe há tanto tempo quanto o cinema e, assim como a indústria cinematográfica como um todo, a animação passou quase que completamente para ser feita em computadores. A maioria dos filmes modernos é feita em animação 3D gerada por computador. Todo o processo, incluindo storyboard, modelagem, animação, texturização, iluminação e renderização, é feito em computadores. Isso torna os computadores e a ciência da computação absolutamente essenciais para o trabalho que os animadores modernos fazem. Os poucos filmes feitos em um estilo 2D mais tradicional ainda são amplamente animados em computadores, mesmo que parte do processo seja feito à mão. Dado o sucesso dos filmes de animação, especialmente para crianças, mas também para adultos, a popularidade da animação 3D por computador não mostra sinais de cair em desgraça tão cedo.

Efeitos especiais para filmes são produzidos em computadores

Mesmo os filmes de ação ao vivo usam efeitos especiais animados, como ao descrever uma explosão, uma nave voando pelo espaço, um super-herói pulando de um prédio e muito mais. Muitos filmes de ação ao vivo também incluem personagens gerados por computador, que os artistas de efeitos especiais devem adicionar durante a pós-produção. Esses efeitos especiais precisam não apenas parecer reais, mas se misturar ao cenário e funcionar perfeitamente junto com as performances dos atores de ação ao vivo. Alguns efeitos especiais ainda são práticos, visto que são feitos na vida real por dublês ou pirotécnicos. No entanto, outros são feitos inteiramente em computadores depois que as filmagens de ação ao vivo são filmadas, especialmente se a criação desses efeitos for praticamente impossível ou altamente perigosa. Usar efeitos gerados por computador agora também é muito mais barato.

Solução de problemas de Aids de Conhecimento de Codificação

Graduados em ciência da computação ensinam sobre computadores, sistemas de computador, código de computador e como tudo funciona junto. Os profissionais da ciência da computação trabalham diretamente para a indústria cinematográfica e para os fabricantes de software, que tomam notas e usam feedback para desenvolver produtos melhores. Quando algo está errado tecnicamente com os computadores usados ​​para a produção de filmes, os profissionais da ciência da computação são as pessoas que vêm para examinar e consertar o problema. O jornal New York Times até relatou como a necessidade de profissionais de computação em Hollywood criou uma demanda maior por diplomas de ciência da computação.

A ciência da computação é a espinha dorsal de qualquer filme moderno. A ciência da computação cria, codifica e soluciona problemas de máquinas e programas usados ​​para fazer qualquer filme. O impacto da ciência da computação nos filmes não pode ser exagerado.


Como a ciência da computação ajuda o mundo?

A pergunta: “Como a ciência da computação ajuda o mundo?” pode parecer uma pergunta simples, mas pode se tornar complexa muito rapidamente quando você pensa nos muitos benefícios que a ciência da computação traz para nós em nossas vidas pessoais e profissionais. A ciência da computação lida com o processo de resolução de problemas, e cada parte do nosso mundo tem algum tipo de problema que precisa ser resolvido. É também um campo que oferece várias oportunidades de carreira. Aqui estão algumas maneiras pelas quais a ciência da computação ajuda o mundo.

Melhora a Saúde

Quando consideramos maneiras de melhorar a vida das pessoas, a saúde parece estar no topo da lista. Médicos, hospitais e unidades de saúde em todos os lugares estão se esforçando pela mesma coisa: fornecer melhores cuidados de saúde às pessoas em todos os lugares. A ciência da computação tem o poder de melhorar a saúde por meio da Internet. Os avanços tecnológicos, como registros médicos eletrônicos ou registros eletrônicos de saúde, são o resultado da ciência da computação. Informática em saúde, que é o processo de combinar saúde com tecnologia da informação, é um dos maiores campos do setor de saúde. A ciência da computação permite que as instituições de saúde trabalhem em rede e trabalhem juntas para fornecer o melhor atendimento médico possível aos pacientes.

Avanços na Educação

Anos atrás, os alunos das séries iniciais, como o jardim de infância ou a primeira série, estavam aprendendo o ABC e a contar. Hoje, essas mesmas séries estão trabalhando com computadores, aprendendo a teclado e acessando a internet para muitos de seus materiais de aprendizagem. Os aplicativos e plataformas de e-learning estão fornecendo aos alunos novas ferramentas para estudar e resolver problemas, o que está trazendo mudanças positivas para o mundo acadêmico. Não vamos esquecer a educação à distância e como ela permite que as pessoas se formem online. Mesmo em nossa vida doméstica, podemos pesquisar coisas no Google e obter ainda mais educação. A frase “Google it” se tornou uma palavra familiar e que não seria possível se não fosse pela ciência da computação. A ciência da computação avança a educação de mais maneiras do que podemos contar.

Constrói Carreiras

A ciência da computação tem o potencial de construir muitas carreiras porque oferece muitas oportunidades de carreira. De acordo com a Association for Computing Machinery, empregos de computação não são apenas alguns dos empregos mais bem pagos, mas também têm a maior satisfação no trabalho. Os alunos interessados ​​em ciência da computação podem buscar diplomas em várias áreas, incluindo ciência da computação, programação de computadores, analista de sistemas, engenheiro de software e engenharia, entre muitas outras. Graduados em programas de ciência da computação aceitaram empregos em empresas como Microsoft, JP Morgan Chase, Google, Price Waterhouse e Eli Lilly, para citar apenas alguns.

Podem prever e evitar desastres

Sempre que vemos um meteorologista prever uma tempestade forte, estamos vivenciando a ciência da computação em ação. Cada uma das ferramentas usadas para monitorar o clima por meio de satélites e radar vem devido a algum tipo de ciência da computação. Usando essas ferramentas, a ciência da computação nos permite prever furacões, tornados ou até mesmo a eclosão de uma doença potencialmente fatal. Pode até ser usado para prever o comportamento humano, o que pode ajudar a prevenir crimes. A ciência da computação pode nos fornecer algumas ferramentas e trabalhos que salvam vidas.


3. De Recursos Locais a Estruturas Globais

    Essência vs. acidentes. Platão e Aristóteles reconheceram que alguns critérios são mais fundamentais do que outros. Por exemplo, os termos animal racional e bípede sem penas ambos distinguem o conjunto dos seres humanos. O primeiro, eles afirmavam, especifica a essência do que significa ser humano, mas o segundo depende de propriedades acidentais. Para distinguir a essência do acidente na biologia, Aristóteles propôs diretrizes compatíveis com as classificações definidas pelo DNA. Hoje, entretanto, a engenharia genética pode inserir genes de espécies remotas no DNA e confundir a distinção entre essência e acidente. Em algumas teorias, a essência é representada por operadores na lógica modal, mas os axiomas ou suposições por trás desses operadores determinam os critérios que distinguem essência e acidente.

Como mostra esta lista, os critérios para reconhecer, classificar e interpretar coisas e eventos são complexos e variados. Um classificador baseado em características pode ser útil como o primeiro estágio da percepção, mas o contexto e o propósito são essenciais para focar a atenção no que observar, determinar sua relevância e relacioná-lo com o conhecimento prévio. Na frase, "Yojo bateu com uma borracha na mesa", as palavras Toque e brinquedo não ocorrem. Com o conhecimento prévio de que Yojo é um gato, gatos são criaturas brincalhonas e uma borracha é um objeto semelhante a um rato, pode-se interpretar a ação como uma brincadeira e a borracha como um brinquedo. Essa questão não se limita ao entendimento da linguagem natural, pois interpretar um filme ou uma fotografia exigiria o mesmo tipo de análise. Essas interpretações são necessárias para relatar e classificar quaisquer observações. Luria (1968) escreveu um livro sobre Shereshevskii, um homem com uma memória fenomenal para as palavras e imagens exatas que observou. Por causa de sua memória, Shereshevskii conseguiu um emprego como repórter de jornal, mas era totalmente inadequado. Sua memória para detalhes era perfeita, mas ele não conseguia interpretar os detalhes, determinar sua relevância ou produzir um resumo significativo. Na verdade, Shereshevskii se comportou como um observador baseado em recursos anexado a um vasto banco de dados: ele armazenava tudo que via ou ouvia, mas não conseguia interpretar a relevância de nada.

Todo classificador, lógico ou fuzzy, baseado em recursos ou estrutural, depende de algum modelo para relacionar instâncias a categorias. A Figura 1, por exemplo, ilustra o modelo subjacente para a maioria das redes neurais e a Figura 2 ilustra o modelo para a maioria dos sistemas baseados em lógica. Modelos de dados incorporar suposições gerais sobre padrões tipicamente encontrados em dados bem comportados - a popular curva em forma de sino, por exemplo, é chamada de "normal". Modelos algorítmicos, como as redes neurais, são baseadas em suposições sobre os mecanismos que ocorrem em alguns processos naturais. Breiman (2001), um estatístico que projetou e utilizou uma ampla gama de modelos, enfatizou a necessidade de modelos que reflitam com precisão a natureza do assunto:

Os recursos representam informações locais, que podem ser tratadas como variáveis ​​independentes, ou podem ser organizadas em um padrão global por um esquema ou Gestalt. Em seus artigos originais sobre pedaços e quadros, Newell, Simon e Minsky tentaram incorporar toda a riqueza dos modelos psicológicos. Em implementações posteriores, no entanto, a palavra quadro foi aplicado a estruturas de dados que fazem pouco mais do que empacotar alguns ponteiros. Esses pacotes são úteis, mas não modelam a antecipação esquemática de Selz, as organizações ativas de Bartlett ou as leis estruturais de Wertheimer. Minsky (1987) continuou a defender uma forma mais globalmente organizada sociedade de mente, e Newell (1990) propôs um teoria unificada da cognição chamado SOAR. Os pioneiros em IA perceberam desde o início que a inteligência humana depende de mecanismos globais, mas o desafio de preencher a lacuna entre as características locais e a estrutura global não foi cumprido.

O jogo de xadrez ilustra a importância dos efeitos da Gestalt. Ao aplicar os métodos de Selz ao xadrez, De Groot (1965) fez com que os enxadristas estudassem as posições e selecionassem um movimento enquanto dizia o que vinha à mente, quais movimentos ou linhas de jogo estavam considerando. Ele não encontrou nenhuma diferença significativa entre mestres e especialistas no número de movimentos considerados, na profundidade da análise ou no tempo gasto. A única diferença significativa era que os mestres geralmente se concentrariam no melhor movimento à primeira vista, enquanto os não mestres eram distraídos por movimentos que dissipariam sua vantagem. O ex-campeão mundial Emanuel Lasker disse que o xadrez é um jogo altamente estereotipado. Em vez de analisar exaustivamente todas as opções, o mestre simplesmente olha para o tabuleiro e "vê" quais movimentos valem a pena considerar.

Após 40 anos de programação de xadrez, um computador foi finalmente capaz de derrotar o campeão mundial, mas apenas por uma busca de força bruta. Para descobrir o que o humano podia ver de relance, o computador teve que analisar os detalhes de bilhões de posições de xadrez. O efeito Gestalt, que é significativo em um tabuleiro de xadrez 8 & times8 com um máximo de 32 peças, torna-se ainda mais pronunciado no jogo oriental de Go, que pode ter mais de 300 pedras espalhadas ao redor de um tabuleiro 19 & times19. O número de padrões possíveis no Go é muitas ordens de magnitude maior do que no xadrez, e uma busca de força bruta não pode superar a vantagem humana de "ver" os padrões. Como resultado, nenhum programa hoje pode jogar Vá além de um nível de novato.

O esquema ou teorias da Gestalt aparecem em duas formas diferentes que às vezes são usadas em combinação: versões discretas usam padrões de gráficos e versões contínuas são baseadas em modelos geométricos. Os psicólogos da Gestalt enfatizaram padrões geométricos semelhantes a imagens, mas os padrões gráficos de Selz foram mais fáceis de implementar. O termo esquema de imagem (Lakoff & Johnson 1980 Oakley 2004) foi usado para modelos geométricos mapeados para padrões de palavras discretas expressas em línguas naturais. A evidência psicológica e linguística para tais padrões é forte, e espaços conceituais (G & aumlrdenfors 2000) são um modelo geométrico promissor que foi projetado para representar conceitos abstratos, bem como imagens físicas.


Arcavi, A .: 1994, ‘Symbol sense: Informal sense-making in formal mathematics’, Para a aprendizagem da matemática 14(3), 24–35.

Clement, J., Lockhead, J. e Monk, G .: 1981, ‘Translation diffic in Learning Mathematics’, American Mathematical Monthly 88, 286–290.

Dawkins, R .: 1976/1990, O Gene Egoísta, Oxford University Press, Oxford.

Fischbein, E .: 1987, Intuição em Ciências e Matemática: Uma Abordagem Educacional, Reidel.

Gallian, J.A .: 1990, Álgebra Abstrata Contemporânea, 2ª ed., Heath, Boston.

Geary, D .: 2002, ‘Princípios de psicologia educacional evolucionária’, Aprendizagem e diferenças individuais 12, 317–345.

Gigerenzer, G. e Todd, P.M .: 1999, Heurísticas simples que nos tornam mais inteligentes, OxfordUniversity Press, New York.

Gilovich, T., Griffin, D. e Kahneman, D. (Eds.): 2002, Heurísticas e preconceitos: a psicologia do julgamento intuitivo, Cambridge University Press.

Hazzan, O. and Leron, U.: 1996, ‘Students' use and misuse of mathematical theorems: The case of Lagrange's theorem’, For the Learning of Mathematics 16(1),23–26.

Kahneman, D. (Nobel Prize Lecture, December 8): 2002, ‘Maps of bounded rationality: A perspective on intuitive judgment and choice’, in T. Frangsmyr (ed.), Les Prix Nobel, pp. 416–499. Also accessible at http://www.nobel.se/economics/laureates/2002/kahnemann-lecture.pdf.

Kahneman, D., Slovic, T. and Tversky, A.: 1982, Judgment Under Uncertainty: Heuristics and Biases, Cambridge University Press.

Leron, U. and Hazzan, O.: 1997, ‘The world according to Johnny: A coping perspective in mathematics education’, Educational Studies in Mathematics 32, 265–292.

Pinker, S.: 2002, The Blank Slate: The Modern Denial of Human Nature, Viking.

Polya, G.: 1973, Como resolver? Princeton University Press, Princeton, New-Jersey.

Ridley, M.: 2003, Nature via Nurture: Genes, Experience, and What Makes Us Human, Harper Collins.

Samuels, R., Stich, S. and Tremoulet, P.D.: 1999, ‘Rethinking rationality: From bleak implications to darwinian modules’, in E. LePore and Z. Pylyshyn (eds.), What Is Cognitive Science?, Blackwell.

Schoenfeld, A.H.: 1985, Mathematical Problem Solving, New York: Academic Press.

Schoenfeld, A.H.: 1987, ‘What is all the fuss about metacognition?’, in A.H. Schoenfeld (ed.), Cognitive Science and Mathematics Education, Lawrence Erlbaum Associates, pp. 189–215.

Schön, D.A.: 1983, The Reflective Practitioner, Basic Books.

Schön, D.A.: 1987, Educating the Reflective Practitioner: Towards a New Design for Teaching and Learning in The Profession, San Francisco, Jossey-Bass.

Simon, H.A.: 1982, Models of Bounded Rationality, MIT Press.

Soloway, E., Lochhead, J. and Clement, J.: 1982, ‘Does computer programming enhance problem solving ability? Some positive evidence on algebra word problems’, in R.J. Seidel, R.E. Anderson and B. Hunter (eds.), Literacia Informática, Academic Press, pp. 171–185.

Stanovich, K.E. and West, R.F.: 2000, ‘Individual differences in reasoning: Implications for the rationality debate’, Ciências Comportamentais e do Cérebro 23, 645–726.

Stanovich, K.E. and West, R.F.: 2003, ‘Evolutionary versus instrumental goals: How evolutionary psychology misconceives human rationality’, in D.E. Over (ed.), Evolution and the Psychology of Thinking: The Debate, Psychology Press, pp. 171–230.

Stavy, R. and Tirosh, D.: 2000, How Students (Mis-)Understand Science and Mathematics: Intuitive Rules, Teachers College Press.

Todd, P.M. and Gigerenzer, G.: 2000, ‘Precis of simple heuristic that make us smart’, Ciências Comportamentais e do Cérebro 23, 727–780.

Vinner, S.: 1997, ‘The pseudo-conceptual and the pseudo-analytical thought processes in mathematics learning’, Educational Studies in Mathematics 34, 97–129.


Advances in Computers

Ravi I. Singh , James Miller , in Advances in Computers , 2010

1. Introdução

Computer Science is a young discipline [1,2] and is therefore yet to establish norms in a number of philosophical areas. One such area is with regard to the limits of objectification or quantification and their impact on the limits of producing generalized knowledge from such observations. As a young discipline, it is normal to fill these gaps in the norms by “borrowing” ideas from other disciplines. However, it is common to “borrow” ideas without necessarily considering all the options and without explicitly stating the requirements that the idea must achieve. This paper argues that quantification has serious limitations in Computer Science, especially when human subjects are part of the endeavor. This, in turn, requires us to look for frameworks that embrace these limitations when seeking to generate empirically derived facts or factoids.

Keep in mind that there is no silver bullet on the path to the uncovering of knowledge [3] . It is not expected that Computer Science be made as regimented as electrical or mechanical engineering [4] . That being said, it would be easy to adopt an attitude of pessimism when reviewing the literature on empirical knowledge research in Computer Science. The findings of this paper, however, lead one to believe that a healthy skepticism is in order instead [3] .

So what are some of these limitations and how have other disciplines gotten around them? One is that Computer Science in general seems more in line with Simon's [5] “sciences of the artificial” than “sciences of the natural” in that it is knowledge about artificial objects and phenomena [5,6] .

Simon also considers Cognitive Science to be a science of the artificial [7] . Yet, in a literature review, there are numerous examples where mixed quantitative and qualitative methods have been used in cognitive science research to investigate new ideas [8] . Since Cognitive Science also contains artificial objects and phenomena, why cannot similar methods be used in Computer Science?

The topic is design centric and practitioners spend a considerable amount of time, exploring different avenues for a solution. Many of these avenues will prove fruitless others will yield a solution. However, this highly nonlinear, opportunistic behavior [9] clearly causes significant performance variations within and between practitioners. The simplistic top-down design approach of Computer Science works well only in special case well-structured problems where “the designer already knows the correct decomposition” [6,9] .

Take note that Guindon is a cognitive psychologist. While at first glance, it may be natural to consider design as a cognitive activity, there are a number of situational, organizational, and social interactions to be considered as well. The authors proceed to make a case for “cognitive ethnography” stating that “it is especially well suited to addressing applied questions of the type which dominate research on human factors, since it maintains levels of objectivity that enable replication by other observers, as well as the validation of its findings through a process of methodological triangulation involving experimental methods” [10,11,64] .

Most entities have no physical form instead Computer Science deals with a large number of virtual concepts (performance, complexity, etc.) that today have imprecise definitions and can often be measured only by secondary or even tertiary proxies [6] .

Other disciplines deal with virtual entities as well. Consider a study that collects data on how a virtual learning environment alleviates isolation in long-distance learning and provides a means of building contact and support among geographically disconnected students. Such virtual concepts were indeed measured and done in such a way that repeated studies could add rigor to the conclusions drawn [2, 64] .

These are some of the limitations in Computer Science empirical research and how other sciences have gotten around the same barriers to knowledge discovery. Section 2 provides two brief case studies where we attempt to illustrate the limitations to objectification in Computer Science. It is believed that these limitations place significant limitations on what is achievable via empirical exploration in Computer Science.


THE CONTRIBUTIONS OF APPLIED COGNITIVE PSYCHOLOGY TO THE STUDY OF HUMAN-COMPUTER INTERACTION

This chapter describes the contributions of applied cognitive psychology to the study of human-computer interaction. Since its rapid evolution in the 1960s, cognitive psychology has sought to improve scientific understanding of the fundamental properties of the human information processing mechanism. Its primary emphases have been upon developing and testing theories concerning the ways in which that mechanism constructs, manipulates, and acts upon mental representations. Individual theories cover perception, language understanding and production, memory, problem solving, consciousness, intention and the control of action and many more. These areas of concern are all potentially relevant to the ways in which users will behave in the course of interacting with a computer. Applied cognitive psychology attempts to bridge the gap between the properties of cognition as studied in the more abstract laboratory tasks and those phenomena that are characteristic of cognition in the tasks of everyday life.


Assista o vídeo: Projetos - Ciência da Computação (Julho 2022).


Comentários:

  1. Baram

    Desculpe por estar interrompendo você, mas proponho seguir um caminho diferente.

  2. Cornelius

    Desculpa para isso eu interfiro ... em mim uma situação semelhante. Vamos discutir. Escreva aqui ou em PM.

  3. Maccus

    Há algo nisso. Obrigado pela explicação, também acho que quanto mais simples melhor...

  4. Wudoweard

    É tudo uma questão de condicionalidade

  5. Leocadie

    Acho que você não está certo. Tenho certeza. Eu posso provar. Escreva em PM, discutiremos.

  6. Kadin

    É uma pena que eu não possa me expressar agora - estou atrasado para a reunião. Voltarei - vou absolutamente expressar a opinião.



Escreve uma mensagem