Em formação

Qual é o algoritmo pathfinding que o cérebro humano usa?

Qual é o algoritmo pathfinding que o cérebro humano usa?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Eu estava tentando construir um software de simulação de pessoas usando diferentes caminhos em uma cidade para ir do ponto A ao ponto B. Eu conheço o algoritmo de Dijkstra e o algoritmo A *, mas o que eles fazem é encontrar o caminho mais curto entre dois nós . Esses algoritmos podem ser usados ​​para fazer isso, mas o problema é que eles só fazem isso, eles apenas encontram o caminho mais curto perfeito. E quando vejo movimentos populacionais realistas em uma cidade, vejo diferentes pessoas escolherem caminhos diferentes para ir do ponto A ao ponto B, mesmo a mesma pessoa às vezes escolhe um caminho diferente em dois momentos diferentes.

Sei que parte disso depende de fatores emocionais que seriam impossíveis de prever. Mas meu ponto é que, quando você olha para um mapa e decide o caminho que vai usar para ir de sua localização a um destino desejado, você não parece executar um algoritmo Dijkstra ou A * em seu cérebro. Na verdade, não é possível saber o comprimento de cada estrada, o que é necessário para executar um algoritmo Dijkstra ou A *. Que algoritmo o cérebro usa para escolher um caminho? Claramente, nem sempre é o caminho mais curto. Não estou falando apenas sobre a aparente aleatoriedade que outros fatores, como a segurança na estrada, podem adicionar ao resultado, ou outros fatores emocionais. Porque mesmo que meu único objetivo seja escolher o caminho mais curto entre dois pontos, provavelmente vou escolher um caminho diferente do que outra pessoa escolheria, mesmo com o mesmo objetivo. Eu até vi que homens e mulheres tendem a ter cérebros adaptados para isso de uma maneira diferente; neste episódio de Brain Games da National Geographic, eles mencionam brevemente, não sei o quão cientificamente preciso é, mas bem, é por isso que estou perguntando.

Em palavras mais curtas, estou curioso sobre o verdadeiro algoritmo de descoberta de caminhos que o cérebro humano usa. Se houver algum. Existe algum artigo ou fonte que eu possa ler sobre isso?


Recentemente em Medical Examiner

Descobertas como essas nos dão pistas sobre o mecanismo neural da autorreflexão. Mas ainda estamos irritantemente longe de um entendimento completo de como esse mecanismo trabalho. A autoconsciência é um continuum, e não um fenômeno de tudo ou nada. Muitos dos blocos de construção psicológicos para a autoconsciência - como rastrear incertezas e monitorar nossas ações - podem operar inconscientemente, fornecendo um conjunto de pilotos automáticos neurais amplamente compartilhados no reino animal e presentes no início da infância humana. A autoconsciência continua a se cristalizar em crianças, tornando-se totalmente formada entre as idades de 3 e 4 anos. Ainda não entendemos como isso acontece. Mas uma ideia promissora é que a autoconsciência se baseia em algoritmos para modelar mentes em geral - a capacidade do cérebro de imaginar não apenas seu próprio funcionamento, mas também o de outras pessoas. E, graças às ferramentas e à engenhosidade científica que nos permite espiar dentro do crânio, estamos agora em uma posição melhor do que nunca para começar a entender como aqueles cérebros em potes de museu sabiam que estavam vivos.


E se o filtro estiver à nossa frente?

Essas possibilidades pressupõem que o Grande Filtro está para trás - que a humanidade é uma espécie de sorte que superou um obstáculo que quase todas as outras formas de vida não conseguem superar. Pode não ser o caso, entretanto a vida pode evoluir para o nosso nível o tempo todo, mas ser exterminada por alguma catástrofe desconhecida. A descoberta da energia nuclear é um evento provável para qualquer sociedade avançada, mas também tem o potencial de destruir tal sociedade. Utilizar os recursos de um planeta para construir uma civilização avançada também destrói o planeta: o atual processo de mudança climática serve de exemplo. Ou pode ser algo totalmente desconhecido, uma grande ameaça que não podemos ver e não veremos até que seja tarde demais.

A sugestão sombria e contra-intuitiva do Grande Filtro é que seria um mau sinal para a humanidade encontrar vida alienígena, especialmente vida alienígena com um grau de avanço tecnológico semelhante ao nosso. Se nossa galáxia estiver realmente vazia e morta, é mais provável que já tenhamos passado pelo Grande Filtro. A galáxia pode estar vazia porque todas as outras formas de vida falharam em algum desafio que a humanidade superou.

Se encontrarmos outra civilização alienígena, mas não um cosmos repleto de uma variedade de civilizações alienígenas, a implicação é que o Grande Filtro está à nossa frente. A galáxia deveria estar cheia de vida, mas nenhum outro exemplo de vida poderia sugerir que as muitas outras civilizações que deveriam estar lá foram dizimadas por alguma catástrofe que nós e nossas contrapartes alienígenas ainda temos que enfrentar.

Felizmente, não encontramos nenhuma vida. Embora possa ser solitário, isso significa que as chances da humanidade de sobrevivência a longo prazo são um pouco maiores do que antes.


O que a IA pode aprender com a inteligência humana?

A conferência de outono da HAI explorou oportunidades em uma interseção crítica de três vias de inteligência artificial, neurociência e psicologia.

Instituto Nacional de Saúde Mental, National Institutes of Health

Na conferência de outono da HAI, estudiosos discutiram novas maneiras como a IA pode aprender com a inteligência humana - e vice-versa.

Podemos ensinar robôs a generalizar seu aprendizado? Como os algoritmos podem se tornar mais sensatos? O estilo de aprendizagem de uma criança pode influenciar a IA?

A conferência de outono do Stanford Institute for Human-Centered Artificial Intelligence considerou essas e outras questões para entender como melhorar mutuamente e compreender melhor a inteligência artificial e humana. O evento teve como tema “triangulação da inteligência” entre as áreas de IA, neurociência e psicologia para desenvolver pesquisas e aplicações de impacto em larga escala.

Os diretores associados do corpo docente da HAI, Christopher Manning, professor de aprendizado de máquina, linguística e ciência da computação de Stanford, e Surya Ganguli, professora associada de neurobiologia de Stanford, atuaram como anfitriões e moderadores do painel da conferência, que foi co-patrocinada pelo Wu- de Stanford Instituto de Neurociências Tsai, Departamento de Psicologia e programa de Sistemas Simbólicos.

Os palestrantes descreveram abordagens de ponta - algumas estabelecidas, outras novas - para criar um fluxo bidirecional de percepções entre a pesquisa em inteligência humana e mecânica, para uma aplicação poderosa. Aqui estão algumas das principais lições.

O poder do reforço profundo

Matthew Botvinick, diretor de pesquisa em neurociência da DeepMind, forneceu uma ampla visão geral do avanço de aplicações de IA impulsionado por pesquisas da empresa de IA usando aprendizado por reforço profundo (treinamento usando recompensas) e outros conceitos de neurociência / psicologia.

Em 2015, por exemplo, a DeepMind treinou máquinas para jogar jogos clássicos do Atari em níveis sobre-humanos e, em seguida, estendeu essa abordagem para jogos mais complicados como StarCraft e Go e, mais recentemente, para jogos com vários agentes, como Capture the Flag.

Isso levou a ideias e práticas inovadoras usando conceitos de tudo, desde a psicologia do desenvolvimento até o comportamento animal. Por exemplo, a DeepMind está atualmente treinando redes neurais de IA usando o conhecimento de ponta do aprendizado por reforço baseado em dopamina em humanos. “Estamos ajudando os sistemas de IA a fazer melhores previsões com base no que aprendemos sobre o cérebro”, diz Botvinick.

Por exemplo, a equipe descobriu que o cérebro entende as recompensas potenciais como existentes em uma distribuição - em vez de apenas “recompensa” ou “nenhuma recompensa” - o que nos ajuda a tomar decisões sobre as ações. Os sistemas de IA podem ser treinados para usar abordagens semelhantes de tomada de decisão, inspirados por esse insight.

Uma abordagem de modelagem bidirecional

“Podemos usar sistemas de IA para entender melhor o cérebro e a cognição e vice-versa”, diz Dan Yamins, professor assistente de psicologia e ciência da computação de Stanford.

Uma maneira de sua equipe fazer isso é modelar o sistema visual humano usando IA e, em seguida, comparar modelos otimizados com o funcionamento real do cérebro para tarefas como reconhecimento de rosto. Em termos gerais, a pesquisa usa quatro princípios - classe de arquitetura, tarefa, conjunto de dados e regra de aprendizagem - para que essa modelagem pense nos sistemas visuais, auditivos e motores. A abordagem ajudou a gerar insights, por exemplo, sobre como os bebês usam dados visuais “não rotulados” para aprender representações de objetos (usando dados SAYCam co-gerados por pesquisadores de Stanford).

Da mesma forma, a equipe se move na outra direção, da ciência cognitiva para a IA, onde as observações do aprendizado infantil levaram ao uso da incorporação de gráficos 3-D para modelar a física intuitiva e outros processos em IA. Agora, Yamins está trabalhando para incorporar a curiosidade em sistemas de IA, com base principalmente em como os bebês interagem com seus ambientes.

Melhorando a generalização com o treinamento geral

Apesar desse progresso, ampliar as descobertas do laboratório de IA para aplicativos do mundo real pode ser desafiador, conforme apontado pelo professor assistente de ciência da computação e engenharia elétrica de Stanford, Chelsea Finn, que estuda inteligência por meio da interação robótica. “Os robôs geralmente aprendem a usar apenas um objeto específico em um ambiente específico”, diz ela.

Sua equipe está ajudando os aplicativos de IA a aprender a generalizar como os humanos fazem, fornecendo aos robôs experiências mais amplas e diversificadas. Por exemplo, eles descobriram que oferecer demonstrações visuais de robôs resultou em um aprendizado mais rápido e generalizado relacionado a tarefas como colocar objetos em gavetas ou usar ferramentas de maneiras novas e estabelecidas. “Um pouco de orientação humana ajuda muito”, diz Finn.

Em geral, a exposição a dados mais amplos leva a uma melhor generalização. Agora, a equipe de Finn está desenvolvendo em conjunto o banco de dados RoboNet para compartilhar vídeos relacionados à aprendizagem - 15 milhões de quadros e contando - entre instituições para ajudar os robôs a "aprender a aprender". Ela torna seu trabalho e ensino amplamente disponíveis.

Rumo à inteligência de senso comum escalável

“Inteligência de senso comum” reflete uma lacuna contínua entre a compreensão humana e da máquina, que vários palestrantes e suas equipes estão tentando preencher.

“Precisamos modelar como a inteligência humana realmente funciona”, diz o professor associado de ciência da computação e engenharia da Universidade de Washington, Yejin Choi.

Por exemplo, os sistemas de IA lutam para lidar com exemplos desconhecidos e "fora do domínio" e carecem de nossa intuição para compreender os "porquês" dos elementos visuais, conforme ilustrado pelo exercício "Monstros em um túnel" de Roger Shepard (vemos a cena representada como uma perseguição, um sistema de IA não pode).

Para ajudar as máquinas a desenvolver inteligência de senso comum, a equipe de Choi criou o sistema Visual Comet usando descrições em linguagem natural para 60.000 imagens (acidente de carro, gritos de ajuda, etc.). O objetivo é permitir que os modelos passem da linguagem ao conhecimento, “para raciocinar sobre a vida cotidiana”, como diz Choi. Nos testes, o sistema ajudou a promover a compreensão baseada em IA de cenários como por que alguém escreveria um tweet controverso e o que acontece antes e depois.

“Estamos ensinando conceitos de máquinas de forma mais direta”, diz Choi, “em vez de por meio de conjuntos de dados de múltipla escolha”.

A co-diretora do MIT-IBM Watson AI Lab, Aude Oliva, também está trabalhando em direção a um objetivo relacionado ao senso comum, trazendo a ciência cognitiva para os modelos de IA. “Há muito 'ouro' no conhecimento básico da neurociência para aplicar aos modelos de IA”, diz Oliva.

O projeto "Moments in Time" de seu laboratório, por exemplo, usa um grande conjunto de dados de vídeos de três segundos para ajudar as redes neurais a aprender representações visuais de atividades como comer, cantar e perseguir, junto com possíveis associações entre imagens visuais. Os modelos consequentes podem compreender temas abstratos como competição e exercício, por exemplo, inclusive como parte do aprendizado “tiro zero” (relacionado a um número muito limitado de exemplos).

Para entender melhor como os humanos aprendem e, em seguida, aplicam isso aos modelos de IA, a equipe de Oliva está usando imagens cerebrais MEG (magnéticas) e fMRI (fluxo sanguíneo). Em conjunto, os dados iluminam exatamente quais regiões do cérebro são ativadas quando, para processar entradas visuais, auditivas e outras, fornecendo pistas sobre como construir sistemas de IA mais inteligentes e dinâmicos. “Estamos aprendendo os muitos princípios comuns entre a cognição humana e a de IA”, diz Oliva.

O colega de Oliva no MIT, professor de ciência cognitiva computacional Joshua Tenenbaum, busca dimensionar o aprendizado e o impacto da IA ​​usando modelos inspirados em humanos. “E se pudéssemos construir uma inteligência que cresce como nos bebês, em versões mais maduras?” ele pergunta.

Suas equipes fazem engenharia reversa do senso comum básico, usando conceitos inspirados na psicologia do desenvolvimento, como a "criança como cientista ou codificador", aproveitando programas probabilísticos para construir sistemas de IA com arquitetura semelhante à humana. “Queremos simular o‘ mecanismo de jogo ’em sua cabeça”, diz Tenenbaum, descrevendo o processamento rápido do cérebro humano.

Eles descobriram a localização do motor físico do cérebro, juntamente com a criação de uma rede neural que pode imitar melhor o sistema visual humano. A pesquisa informa o desenvolvimento de plataformas de IA mais flexíveis e escaláveis, capazes de inferência e ação sem precedentes, como o DreamCoder, um sistema que pode criar desenhos altamente complexos.

Aprender protegendo a privacidade

Ainda assim, um dos desafios do aprendizado profundo está relacionado à privacidade de dados. “A barganha faustiana de hoje”, diz Sanjeev Arora, um professor de ciência da computação de Princeton, “é que entregamos nossos dados para desfrutar de um mundo totalmente personalizado para nós”, seja relacionado ao varejo, saúde ou trabalho.

Ele estuda como ajudar o aprendizado profundo sem revelar dados de nível individual. Aqui, estratégias estabelecidas, como privacidade diferencial e criptografia, sacrificam a precisão e a eficiência, respectivamente.

InstaHide, o sistema que a Arora co-desenvolveu, criptografa imagens para treinamento / teste de modelos de IA, permitindo alta precisão e eficiência. Especificamente, o sistema mistura imagens privadas com as públicas e muda a cor dos pixels aleatoriamente. Um modelo semelhante aplica a ideia a dados baseados em texto, criptografando ingredientes de texto e gradientes.

“Os sistemas têm quase 100% de precisão e podem ajudar com privacidade de dados para tudo, desde remédios até carros autônomos”, diz Arora.

Triangulando Inteligência em Stanford

Muitos palestrantes de Stanford observaram que a triangulação da inteligência é uma prioridade nos departamentos universitários. Professor de biologia humana de Stanford e diretor do Programa de Sistemas Simbólicos Michael Frank e Bill Newsome, professor de neurobiologia e diretor do Instituto de Neurociências Wu Tsai, descreveram como suas organizações, junto com HAI, lançaram programas nesta intersecção.

Os alunos de graduação de Stanford agora têm a opção de fazer uma nova concentração de IA centrada no ser humano no Programa de Sistemas Simbólicos de graduação, com aulas que abrangem ética digital, política e política de algoritmos e design de IA.

“Symbolic Systems é um programa de graduação exclusivo que oferece educação interdisciplinar em computação, filosofia e ciências cognitivas”, diz Frank. O programa, que começou em 1986 e possui ex-alunos bem conhecidos, incluindo os fundadores do LinkedIn e Instagram, apresenta um curso introdutório chamado Hoffman-Yee grant programme continuará a reunir esses programas e outros pesquisadores interdisciplinares para criar um amplo ecossistema que leva a percepções valiosas e aplicação na interseção de IA, neurociência e psicologia.

A missão da Stanford HAI é promover a pesquisa, educação, política e prática de IA para melhorar a condição humana. Saber mais.


Tendências psicopáticas ligadas a padrões de conectividade do cérebro, de acordo com um novo estudo da neurociência

Novas pesquisas fornecem informações sobre os mecanismos neurobiológicos subjacentes a certas tendências psicopáticas. O estudo, publicado em NeuroImage: Clínico, indica que traços de personalidade psicopática, como insensibilidade, estão associados a diferenças na conectividade entre duas redes cerebrais importantes.

& # 8220Estamos amplamente interessados ​​em compreender a psicopatia, um conjunto prejudicial de traços de personalidade que está associado a agressões graves, criminalidade e reincidência & # 8221, disse o autor do estudo Hailey Dotterer, candidato ao doutorado em psicologia na Universidade de Michigan.

& # 8220É importante investigar as bases neurais da psicopatia porque trabalhos anteriores sugerem que as maneiras pelas quais regiões diferentes do cérebro se comunicam entre si estão relacionadas à emoção e atenção, que são prejudicadas na psicopatia, & # 8221 disse Dotterer.

Dotterer e seus colegas examinaram dados de imagem de ressonância magnética funcional (fMRI) em estado de repouso de 123 homens que completaram uma avaliação de traços de personalidade psicopática. Essas características foram medidas em um continuum e na comunidade, o que significa que mediram a quantidade relativa dessas características em adultos jovens, não naqueles em prisões ou classificados como psicopatas. Ou seja, todos nós temos relativamente mais ou menos de cada uma dessas características e elas podem ser mapeadas para o funcionamento do cérebro.

Os pesquisadores também usaram um algoritmo conhecido como Group Iterative Multiple Model Estimation para criar mapas de conectividade específicos para cada participante.

RelacionadoPostagens

Como o cérebro de uma nova mãe reage às emoções de seu bebê prediz depressão e ansiedade pós-parto

Ouvir música pode estar deixando você mais lento no trabalho ou na escola?

& # 8220A psicopatia e os traços psicopáticos parecem diferentes em pessoas diferentes. Algumas pessoas são mais superficialmente charmosas e manipuladoras, e outras pessoas são mais impulsivamente agressivas. Isso significa que é importante considerar os indivíduos em pesquisas sobre psicopatia para, em última análise, informar as abordagens de intervenção personalizada ”, disse Dotterer ao PsyPost.

& # 8220Tradicionalmente, nos estudos de neuroimagem, todos os participantes de um grupo são essencialmente considerados como tendo redes cerebrais semelhantes, às vezes isso é verdade, mas quando não é, os resultados podem não ser precisos. Nossa abordagem não faz essa suposição & # 8221 ecoou a autora do estudo Adriene Beltz, professora assistente de psicologia na Universidade de Michigan.

Apesar da estrutura cerebral única de cada participante, os pesquisadores encontraram um padrão comum de conectividade entre aqueles com níveis relativamente mais altos de traços psicopáticos. Os participantes com níveis mais elevados de características tendem a ter maior densidade nas conexões entre a rede de modo padrão do cérebro e a rede do executivo central.

A rede de modo padrão está envolvida na cognição social e no raciocínio moral, enquanto a rede executiva central está envolvida no autocontrole e na avaliação de estímulos ameaçadores.

& # 8220 Descobrimos que traços psicopáticos, particularmente traços de falta de remorso e falta de empatia, foram associados ao aumento da comunicação entre duas redes cerebrais que são tipicamente & # 8216 anti-correlacionadas & # 8217, geralmente significando que quando um está ligado, o outro está desligado: o rede de modo padrão e rede executiva central, & # 8221 Dotterer e Beltz explicados.

& # 8220O aumento da comunicação entre essas redes pode interferir nas funções típicas dessas redes, afetando comportamentos como tomada de decisão e tomada de perspectiva, que sabemos estarem prejudicados em indivíduos com traços psicopáticos. & # 8221

“Claro, uma questão a considerar é que essas são características medidas em jovens adultos na comunidade, nenhum dos quais foi testado para níveis clínicos de psicopatia. Assim, os resultados nos falam sobre as correlações cerebrais de níveis mais baixos dessas características que vemos na comunidade. ”

O estudo também destacou as limitações das abordagens tradicionais para analisar dados de fMRI.

& # 8220Estes jovens tinham redes cerebrais únicas & # 8212 tão únicas que não havia nenhuma conexão entre as regiões do cérebro que fosse comum a todos os participantes & # 8221 Beltz disse ao PsyPost. & # 8220 A modelagem precisa das redes cerebrais é essencial para entender como o cérebro está relacionado a coisas como traços de personalidade ou comportamento. & # 8221

Mas, observou Dotterer, ainda não está claro como os padrões observados de conectividade do cérebro se traduzem em comportamento. & # 8220Agora achamos que os padrões estão relacionados a alguns traços psicopáticos, mas eles realmente conduzem os comportamentos que associamos a esses traços, como dificuldades de empatia com outras pessoas? & # 8221

& # 8220 Precisamos de mais pesquisas de desenvolvimento e longitudinais para entender melhor de onde vêm esses traços e padrões cerebrais, ou seja, se o funcionamento da rede cerebral prevê traços psicopáticos ou vice-versa. Também precisamos ver se essas descobertas surgem em populações carcerárias e em pessoas com níveis mais altos dessas características. & # 8221 Dotterer disse.


Nova tecnologia de leitura da mente recria imagens digitais do que você está pensando

As máquinas de leitura da mente podem parecer que pertencem firmemente aos domínios da ficção científica, mas podem estar mais perto da realidade do que você pensa. Os pesquisadores desenvolveram uma técnica que pode produzir uma imagem digital do que uma pessoa está visualizando em sua mente, simplesmente lendo a atividade elétrica de seu cérebro.

Como parte de um novo estudo, aceito para publicação na revista eNeuro, uma equipe da University of Toronto Scarborough (UT) usou um teste não invasivo conhecido como eletroencefalograma & mdash, que geralmente é usado no diagnóstico de tumores cerebrais, epilepsia e outras condições & mdash para registrar esta atividade elétrica em participantes que foram apresentados a estímulos visuais em uma tela de computador .

Os pesquisadores conectaram os voluntários & mdash13 adultos saudáveis ​​com idades entre 18 e 27 & mdash ao EEG por meio de eletrodos colocados em suas cabeças. Eles então mostraram aos participantes os rostos de 140 indivíduos, um por um, na tela do computador, enquanto registravam suas atividades cerebrais.

Finalmente, em um computador instalado com algoritmos especiais de aprendizado de máquina, a equipe recriou as imagens dos rostos que os participantes estavam olhando usando os dados registrados pelo EEG. Essencialmente, o algoritmo buscava sinais cerebrais relacionados à imagem mental que os voluntários tinham em sua mente e a reproduzia como uma imagem digital. (Aprendizado de máquina refere-se a sistemas de computador que podem adaptar sua programação de acordo com os dados que são alimentados a eles, sem serem reprogramados explicitamente.)

O trabalho baseia-se na capacidade natural do cérebro de criar o que é conhecido como percepção mental, ou impressão mental, de tudo o que estamos vendo. "Fomos capazes de capturar essa percepção usando EEG para obter uma ilustração direta do que está acontecendo no cérebro durante esse processo", disse Dan Nemrodov, pós-doutorado no Departamento de Psicologia, que desenvolveu a técnica, em um comunicado.

Embora as imagens digitais reconstruídas não sejam cópias perfeitas dos originais & mdash, elas são um pouco mais baixas em resolução & mdash, os detalhes nelas são impressionantes, dizem os pesquisadores.

"O que é realmente empolgante é que não estamos reconstruindo quadrados e triângulos, mas imagens reais do rosto de uma pessoa, e isso envolve muitos detalhes visuais refinados", acrescentou Adrian Nestor, professor assistente de psicologia na UT.

Este estudo não é a primeira vez que pesquisadores reconstruíram imagens mentais digitalmente. Mas a nova técnica oferece algumas vantagens distintas sobre os métodos existentes.

Anteriormente, os neurocientistas usaram a ressonância magnética funcional (fMRI), que mede a atividade cerebral detectando mudanças no fluxo sanguíneo em vez da atividade elétrica. O EEG, entretanto, é mais prático, porque está mais prontamente disponível, portátil e mais barato.

O EEG também é mais sensível a pequenas mudanças na atividade cerebral, capturando dados na escala de milissegundos. Por outro lado, o fMRI só pode registrar atividades na escala de segundos.

Mas Nemrodov observa que muitos pesquisadores duvidaram do potencial do EEG para esse tipo de reconstrução de imagem, visto que a técnica produz muito ruído e muitos dados sem sentido nas medições que faz. Também não é muito preciso para localizar de onde os sinais cerebrais vêm. Apesar disso, o novo estudo, diz ele, demonstra as vantagens do EEG sobre o fMRI. Os resultados podem ampliar o escopo dessa tecnologia, abrindo as portas para seu uso em uma variedade de aplicações.

"O fato de podermos reconstruir o que alguém experimenta visualmente com base em sua atividade cerebral abre muitas possibilidades", disse Nestor. "Ele revela o conteúdo subjetivo de nossa mente e fornece uma maneira de acessar, explorar e compartilhar o conteúdo de nossa imaginação."

Segundo Nestor, a técnica poderia ser um meio de comunicação para pessoas que não conseguem se comunicar verbalmente, talvez por paralisia. "Não só poderia produzir uma reconstrução baseada em neurais do que uma pessoa está percebendo, mas também do que eles lembram e imaginam, do que eles querem expressar", disse Nestor.

A técnica pode ser útil para a aplicação da lei ao coletar informações sobre possíveis suspeitos de testemunhas oculares, em vez de depender de esboços ou descrições verbais imprecisas.

A próxima etapa, disseram os pesquisadores, é determinar se a técnica funcionaria quando os sujeitos do teste relembrassem uma memória do zero em vez de olhar para uma imagem.


Alguns cientistas acreditam que o universo é consciente

Nas próximas pesquisas, os cientistas tentarão mostrar que o universo tem consciência. Sim com certeza. Não importa o resultado, logo aprenderemos mais sobre o que significa ser consciente e saber quais objetos ao nosso redor podem ter uma mente própria.

& # 10145 Você acha que a ciência é durona. Nós também. Deixe & rsquos nerd sobre isso juntos.

O que isso significará para a forma como tratamos os objetos e o mundo ao nosso redor? Aperte o cinto, porque as coisas estão prestes a ficar estranhas.

O que é consciência?

A definição básica de consciência deixa intencionalmente muitas questões sem resposta. É a condição mental normal do estado de vigília dos humanos, caracterizada pela experiência de percepções, pensamentos, sentimentos, consciência do mundo externo e, frequentemente, autoconsciência em humanos (mas não necessariamente em outros animais), & rdquo de acordo com Oxford Dicionário de Psicologia.

Os cientistas simplesmente não têm uma teoria unificada do que é a consciência. Também não sabemos de onde vem ou do que é feito.

No entanto, uma lacuna dessa lacuna de conhecimento é que podemos dizer exaustivamente outros organismos, e até mesmo objetos inanimados, don & rsquot tem consciência. Os humanos se relacionam com os animais e podem imaginar, digamos, que cães e gatos tenham alguma consciência porque vemos suas expressões faciais e como parecem tomar decisões. Mas só porque não nos correlacionamos com as rochas, o oceano ou o céu noturno, isso não é o mesmo que provar que essas coisas não têm consciência.

É aqui que uma postura filosófica chamada panpsiquismo entra em jogo, escreve Tudo sobre o espaço& rsquos David Crookes:

É também onde a física entra em cena. Alguns cientistas postularam que aquilo que pensamos como consciência é feito de eventos da física quântica em microescala e outras ações & ldquospooky à distância & rdquo, de alguma forma vibrando dentro de nossos cérebros e gerando pensamentos conscientes.

O Enigma do Livre Arbítrio

Uma das principais mentes da física, o ganhador do Nobel de 2020 e pioneiro do buraco negro Roger Penrose, escreveu extensivamente sobre a mecânica quântica como um veículo suspeito de consciência. Em 1989, ele escreveu um livro chamado The Emperor & rsquos New Mind, em que ele reivindicado & ldquothat a consciência humana não é algorítmica e um produto de efeitos quânticos. & rdquo

Deixe & rsquos decifrar rapidamente essa afirmação. O que significa para a consciência humana ser & ldquoalgorítmica & rdquo? Bem, um algoritmo é simplesmente uma série de etapas previsíveis para chegar a um resultado e, no estudo da filosofia, essa ideia desempenha um grande papel nas questões sobre livre arbítrio versus determinismo.

Nossos cérebros estão simplesmente produzindo processos matemáticos que podem ser telescopados com antecedência? Ou algo selvagem está acontecendo que nos permite o verdadeiro livre arbítrio, ou seja, a capacidade de tomar decisões significativamente diferentes que afetam nossas vidas?

Dentro da própria filosofia, o estudo do livre arbítrio remonta pelo menos séculos. Mas a sobreposição com a física é muito mais recente. E o que Penrose reivindicou em The Emperor & rsquos New Mind é que a consciência não é estritamente causal porque, no nível mais ínfimo, ela é um produto de fenômenos quânticos imprevisíveis que não estão de acordo com a física clássica.

Então, onde é que todas essas informações básicas nos deixam? Se você coçar a cabeça ou tiver alguns pensamentos desagradáveis, não estará sozinho. Mas essas perguntas são essenciais para pessoas que estudam filosofia e ciência, porque as respostas podem mudar a forma como entendemos todo o universo ao nosso redor. O fato de os humanos terem ou não livre arbítrio tem enormes implicações morais, por exemplo. Como você pune criminosos que nunca poderiam ter agido de maneira diferente?

A consciência está em toda parte

Na física, os cientistas podem aprender coisas importantes de um estudo da consciência como um efeito quântico. É aqui que nos reunimos hoje aos pesquisadores: Johannes Kleiner, matemático e físico teórico do Centro de Filosofia Matemática de Munique, e Sean Tull, matemático da Universidade de Oxford.

Kleiner e Tull estão seguindo o exemplo de Penrose & rsquos, tanto em seu livro de 1989 quanto em um artigo de 2014, onde ele detalhou sua crença de que nossos microprocessos cerebrais podem ser usados ​​para modelar coisas sobre todo o universo. A teoria resultante é chamada de teoria da informação integrada (IIT) e é uma forma abstrata e "altamente matemática" da filosofia que estamos revisando.

No IIT, a consciência está em toda parte, mas se acumula em lugares onde ela precisava ajudar a unir diferentes sistemas relacionados. Isso significa que o corpo humano está abarrotado de uma tonelada de sistemas que devem se inter-relacionar, então há muita consciência (ou phi, como a quantidade é conhecida no IIT) que pode ser calculada. Pense em todas as partes do cérebro que trabalham juntas para, por exemplo, formar uma imagem e sentir a memória de uma maçã em sua mente e em seus olhos.

A coisa revolucionária no IIT não está relacionada ao cérebro humano & mdashit & rsquos que a consciência não é absolutamente biológica, mas sim simplesmente este valor, phi, que pode ser calculado se você souber muito sobre a complexidade do que está estudando.

Se o seu cérebro tem quase incontáveis ​​sistemas inter-relacionados, o universo inteiro deve ter sistemas virtualmente infinitos. E se esse é o lugar onde a consciência se acumula, então o universo deve ter um monte de phi.

Ei, nós dissemos que isso ia ficar estranho.

&ldquoThe theory consists of a very complicated algorithm that, when applied to a detailed mathematical description of a physical system, provides information about whether the system is conscious or not, and what it is conscious of,&rdquo Kleiner told All About Space. &ldquoIf there is an isolated pair of particles floating around somewhere in space, they will have some rudimentary form of consciousness if they interact in the correct way.&rdquo


6. Ask at the Right Time

So far we&rsquove talked about how to ask your visitor to bite at your call to action, but it&rsquos just as important as when you ask them to do it.

If you&rsquore seeking opt-ins for your course or email list, implement a welcome mat or design your opt-in above-the-fold like marketing leaders Darren Rowse and Brian Dean.

Welcome mats are full-page call to actions and above the fold is the first area you see when you visit a website.

Welcome mats and above-the-fold call to actions provide a less invasive user experience than traditional pop-up boxes. These eliminate the risk of a user leaving your site before seeing your call to action.

However, if your primary goal is to get your users to buy something, it&rsquos best to follow steps 3 and 4 (focus on a benefit and minimize buyer risk) antes asking them to sign up via a welcome mat. Users will rarely agree to buy without having some idea of what they&rsquore getting for their money.


Why Should You Use an Algorithm?

The upside of using an algorithm to solve a problem or make a decision is that yields the best possible answer every time. This is useful in situations when accuracy is critical or where similar problems need to be frequently solved. In many cases, computer programs can be designed to speed up this process. Data then needs to be placed in the system so that the algorithm can be executed to come up with the correct solution.

Such step-by-step approaches can be useful in situations where each decision must be made following the same process and where accuracy is critical. Because the process follows a prescribed procedure, you can be sure that you will reach the correct answer each time.

The downside of using an algorithm to solve the problem is that this process tends to be very time-consuming. So if you face a situation where a decision needs to be made very quickly, you might be better off using a different problem-solving strategy.

For example, a physician making a decision about how to treat a patient could use an algorithm approach, yet this would be very time-consuming and treatment needs to be implemented quickly. In this instance, the doctor would instead rely on their expertise and past experiences to very quickly choose what they feel is the right treatment approach.


Beyond Bananas: CMU Scientists Harness “Mind Reading” Technology to Decode Complex Thoughts

This latest research led by CMU’s Marcel Just builds on the pioneering use of machine learning algorithms with brain imaging technology to "mind read." The findings indicate that the mind’s building blocks for constructing complex thoughts are formed by the brain’s various sub-systems and are not word-based. Published in Human Brain Mapping and funded by the Intelligence Advanced Research Projects Activity (IARPA), the study offers new evidence that the neural dimensions of concept representation are universal across people and languages.

"One of the big advances of the human brain was the ability to combine individual concepts into complex thoughts, to think not just of 'bananas,' but 'I like to eat bananas in evening with my friends,'" said Just, the D.O. Hebb University Professor of Psychology in the Dietrich College of Humanities and Social Sciences. "We have finally developed a way to see thoughts of that complexity in the fMRI signal. The discovery of this correspondence between thoughts and brain activation patterns tells us what the thoughts are built of."

Previous work by Just and his team showed that thoughts of familiar objects, like bananas or hammers, evoke activation patterns that involve the neural systems that we use to deal with those objects. For example, how you interact with a banana involves how you hold it, how you bite it and what it looks like.

The new study demonstrates that the brain’s coding of 240 complex events, sentences like the shouting during the trial scenario uses an alphabet of 42 meaning components, or neurally plausible semantic features, consisting of features, like person, setting, size, social interaction and physical action. Each type of information is processed in a different brain system—which is how the brain also processes the information for objects. By measuring the activation in each brain system, the program can tell what types of thoughts are being contemplated.

For seven adult participants, the researchers used a computational model to assess how the brain activation patterns for 239 sentences corresponded to the neurally plausible semantic features that characterized each sentence. Then the program was able to decode the features of the 240th left-out sentence. They went through leaving out each of the 240 sentences in turn, in what is called cross-validation.

The model was able to predict the features of the left-out sentence, with 87 percent accuracy, despite never being exposed to its activation before. It was also able to work in the other direction, to predict the activation pattern of a previously unseen sentence, knowing only its semantic features.

"Our method overcomes the unfortunate property of fMRI to smear together the signals emanating from brain events that occur close together in time, like the reading of two successive words in a sentence," Just said. "This advance makes it possible for the first time to decode thoughts containing several concepts. That’s what most human thoughts are composed of."

He added, "A next step might be to decode the general type of topic a person is thinking about, such as geology or skateboarding. We are on the way to making a map of all the types of knowledge in the brain."

CMU’s Jing Wang and Vladimir L. Cherkassky also participated in the study.

Discovering how the brain decodes complex thoughts is one of the many brain research breakthroughs to happen at Carnegie Mellon. CMU has created some of the first cognitive tutors, helped to develop the Jeopardy-winning Watson, founded a groundbreaking doctoral program in neural computation, and is the birthplace of artificial intelligence and cognitive psychology. Building on its strengths in biology, computer science, psychology, statistics and engineering, CMU launched BrainHub, an initiative that focuses on how the structure and activity of the brain give rise to complex behaviors.


Assista o vídeo: Porque os humanos não usam 100% do cérebro? (Pode 2022).