A inteligência artificial está se destacando como uma ferramenta poderosa na decodificação de pensamentos, permitindo que pessoas com dificuldades de comunicação se expressem através de imagens do cérebro. Pesquisadores em diversas partes do mundo têm se dedicado a desenvolver métodos que possibilitam essa comunicação inovadora.
Em um estudo realizado na Universidade da Califórnia em Davis, uma mulher paralisada devido a um AVC teve a oportunidade de ver suas ideias se transformarem em texto na tela à sua frente. Com 52 anos, ela não conseguia falar claramente, mas um sistema de inteligência artificial, alimentado por sinais neurais, conseguiu traduzir suas intenções em palavras. Essa tecnologia representa um grande passo em direção à leitura de pensamentos.
Inteligência artificial e a decodificação de sinais neurais
O sistema utilizado para decodificar os sinais neurais da mulher envolveu a inserção de eletrodos em seu cérebro. Esses eletrodos detectaram a atividade elétrica associada ao que ela imaginava dizer. A pesquisa, que faz parte de um projeto da Universidade de Stanford, também incluiu outros pacientes com esclerose lateral amiotrófica (ELA), mostrando que a tecnologia pode ser aplicada a diferentes condições que afetam a comunicação.
Os resultados desse estudo foram publicados em agosto de 2025, e logo após, pesquisadores japoneses apresentaram uma técnica que permite gerar descrições detalhadas do que uma pessoa está observando ou imaginando. Essa combinação de ferramentas de inteligência artificial e imagens cerebrais não invasivas abre novas possibilidades para a neurociência.
Avanços nas interfaces cérebro-computador
As interfaces entre o cérebro e computadores (BCIs) têm sido desenvolvidas há décadas. O neurocientista Eberhard Fetz, em 1969, demonstrou que primatas podiam controlar dispositivos com a atividade de um único neurônio. Apesar dos avanços, a decodificação de pensamentos complexos ainda é um desafio. A pesquisa recente, no entanto, tem mostrado progresso significativo, especialmente para pacientes com ELA.
Em 2021, um estudo na Universidade de Stanford permitiu que um homem quadriplégico formasse frases em inglês ao imaginar que estava desenhando letras no ar. Essa técnica possibilitou que ele escrevesse 18 palavras por minuto, um avanço impressionante considerando que a fala natural é de cerca de 150 palavras por minuto.
Desafios e soluções na decodificação da fala
Embora os avanços sejam notáveis, ainda existem desafios. Normalmente, os pacientes precisam tentar verbalizar suas intenções, o que pode ser difícil. Os pesquisadores da Universidade de Stanford exploraram a possibilidade de detectar a fala interior em tempo real, alcançando uma precisão de 74% em algumas tarefas.
O estudo revelou que a atividade neural associada à fala interior é semelhante àquela da tentativa de fala, mas os sinais são mais fracos. Isso sugere que a tecnologia pode um dia permitir que as pessoas comuniquem seus pensamentos sem a necessidade de esforço físico.
O futuro da comunicação com inteligência artificial
O laboratório de Wairagkar na Universidade da Califórnia em Davis fez uma descoberta importante ao decodificar não apenas palavras, mas também elementos não verbais da fala, como entonação e ritmo. Isso é crucial, pois a comunicação humana vai além das palavras escritas; envolve nuances que transmitem significados diferentes em contextos variados.
Os pesquisadores acreditam que, com o aumento do número de microeletrodos implantados, será possível obter informações mais ricas e, assim, desenvolver uma comunicação mais fluida e natural. O potencial dessa tecnologia é vasto e pode transformar a interação humana.
Explorando além do córtex motor
Os cientistas estão interessados em investigar outras áreas do cérebro que podem estar envolvidas na fala interior. O giro temporal superior, uma região relacionada ao processamento auditivo, pode desempenhar um papel importante. Isso é especialmente relevante para pacientes que sofreram lesões cerebrais, pois pode oferecer novas oportunidades de comunicação.
Decodificação de imagens e sons
Além das interfaces cérebro-computador, a pesquisa sobre a decodificação de imagens cerebrais também avança. Utilizando ressonância magnética funcional (fMRI), pesquisadores têm conseguido reproduzir imagens observadas por indivíduos ao analisar sua atividade cerebral. A IA tem sido fundamental nesse processo, permitindo que os cientistas compreendam melhor como o cérebro processa informações visuais.
Um estudo recente demonstrou que a IA pode gerar imagens a partir de dados de fMRI, embora ainda haja desafios a serem superados. O mesmo se aplica à reconstrução de experiências auditivas, onde os pesquisadores buscam entender como a música é percebida no cérebro.
Essas inovações não apenas ajudam a decifrar a atividade cerebral, mas também podem ter aplicações práticas em áreas como saúde mental e reabilitação. A possibilidade de recriar experiências visuais e auditivas pode oferecer novas perspectivas para o tratamento de condições psiquiátricas.
À medida que a pesquisa avança, a combinação de inteligência artificial e neurociência promete revolucionar a forma como nos comunicamos e interagimos com o mundo. Para mais informações sobre esse tema, acesse Em Foco Hoje. Para um entendimento mais profundo sobre a neurociência, consulte a National Institutes of Health.



