IA já consegue ler o que estamos pensando em falar; entenda como

Wait 5 sec.

Desde que, em 1969, o neurocientista americano Eberhard Fetz demonstrou que um macaco podia aprender a mover a agulha de um medidor ao modular intencionalmente a atividade de um único neurônio, a ideia de comunicação direta entre cérebro e máquina saiu do papel e materializou-se em dispositivos conhecidos como interfaces cérebro-computador (BCIs na sigla em inglês).Passados 56 anos desse experimento de laboratório, ainda sem nenhuma pretensão clínica, as modernas BCIs evoluíram do registro isolado de neurônios para a captação de redes distribuídas com centenas de canais simultâneos, integradas a algoritmos de aprendizado profundo capazes de traduzir padrões neurais em palavras e frases. Leia mais Entenda como EUA usam inteligência artificial em guerra com Irã Câmeras com IA: conheça tecnologia que automatiza multas no trânsito Youtuber explica como construiu um motor de verdade usando peças de Lego Em agosto de 2025, pesquisadores da Universidade Stanford (EUA) lideraram um estudo que representou um diferencial decisivo no campo das BCIs. Publicado na revista Cell, o trabalho demonstrou que padrões neurais associados à fala interna — ou seja, palavras apenas pensadas — podiam ser decodificados por modelos de inteligência artificial (IAs) com alta precisão.Os autores registraram sinais de microeletrodos implantados no córtex motor da fala em quatro pacientes com paralisia grave causada por ELA ou AVC de tronco encefálico. Ao solicitar que tentassem falar ou apenas imaginassem palavras, os cientistas descobriram que ambas as tarefas ativavam áreas cerebrais sobrepostas, embora a fala interna produzisse sinais mais fracos.Com base nesses registros, a equipe treinou modelos de IA para interpretar palavras apenas imaginadas. Em demonstração experimental, a BSI decodificou frases de um vocabulário de até 125 mil termos, alcançando 74% de precisão, e identificando inclusive respostas não previamente ensaiadas, como números contados mentalmente.Decodificando linguagem e visão: uma ponte entre cérebro e IATakagi e Nishimoto reconstruíram via IA (abaixo) imagens visualizadas a partir de sinais cerebrais das imagens apresentadas (caixa vermelha) • Yu Takagi, Shinji Nishimoto, arXiv, 2026/DivulgaçãoEmbora empresas de tecnologia, como a Neuralink, já desenvolvam BCIs implantáveis há cerca de 10 anos, a biotech de Elon Musk treina seus sistemas para reconhecer padrões relacionados a intenção de mover partes do corpo ou à intenção de digitar ou selecionar caracteres.Mais difícil do que essa decodificação motora, a pesquisa sobre fala interna mostra que é possível, com IA, identificar elementos de linguagem na atividade cerebral — mesmo quando alguém “pensa em falar” sem movimento físico. Ou seja, desloca o foco das BCIs para conteúdos simbólicos da experiência mental.Enquanto o estudo de Stanford University foca em atividade cerebral relacionada à fala e à linguagem interna, um trabalho liderado por Yu Takagi, do Nagoya Institute of Technology, busca reconstruir imagens percebidas a partir de sinais cerebrais. Publicado dois anos antes, na revista Neural Networks, o estudo combina ressonância magnética funcional com modelos generativos de IA.No experimento, os participantes não passaram por qualquer intervenção cirúrgica: permaneceram deitados em um aparelho de ressonância magnética funcional (fMRI) enquanto observavam milhares de imagens cuidadosamente selecionadas, permitindo que os pesquisadores registrassem padrões de atividade no córtex visual associados a cada estímulo apresentado.Para isso, os pesquisadores recorreram ao Stable Diffusion, um modelo de IA que, em vez de representar as imagens como pixels, as codificam como vetores numéricos compactos. Assim, quando surge um novo padrão de fMRI, o sistema não precisa “ler” imagem no cérebro do paciente, mas consegue prever a qual vetor latente o padrão mais provavelmente corresponde.De músicas a sonhos: os próximos limites da decodificação neuralA equipe da UCDavis conseguiu decodificar aspectos não verbais da fala • Universidade da Califórnia, Davis/DivulgaçãoAlém de decodificar palavras e imagens, a ciência tem avançado também na reconstrução de experiências auditivas complexas. Em 2025, Yu Takagi publicou um estudo inovador que utilizou um modelo generativo de áudio desenvolvido pelo Google para tentar reproduzir com precisão sons a partir de fMRIs captadas enquanto participantes ouviam peças musicais.Enquanto Takagi foca na “entrada” de informações, a neuroengenheira Maitreyee Wairagkar, do laboratório de neuropróteses da Universidade da Califórnia, em Davis (EUA), foca na “saída”. Sua equipe conseguiu decodificar aspectos não verbais da fala, como entonação, velocidade e ritmo. Ou seja, a máquina conseguiu perceber quando o paciente queria dar ênfase a uma palavra, permitindo transmitir expressões autênticas e emoções através de melodias puramente mentais.As potenciais aplicações dessas abordagens são imensas e permitem a abertura de portas até mesmo para entender condições psiquiátricas complexas. Técnicas como as usadas atualmente poderiam, no futuro, recriar alucinações visuais e auditivas de pacientes com esquizofrenia, por exemplo.Além de investigar a percepção dos animais sobre o mundo, “muita gente está perguntando sobre a reconstrução de sonhos”, diz Takagi em uma entrevista à BBC. Mas, para ele, todas essas possibilidades — inclusive a comunicação direta e simultânea entre múltiplos cérebros — levantam questões éticas e dilemas de direitos humanos ainda não adequadamente debatidos.O próximo passo para superar as atuais limitações técnicas demanda novos implantes capazes de amostrar mais neurônios ao mesmo tempo. E, embora aplicações comerciais voltadas para o entretenimento ou à fala perfeita estejam na pauta de diversas empresas, Takagi recomenda cautela e afirma que, apesar de teoricamente possíveis, tais avanços podem levar entre dez e vinte anos para se consolidar.Brasil está entre os países que mais usam inteligência artificial