Por Paulo Markun, mestrando da Facom

A revista Nature acaba de publicar dois artigos descrevendo experimentos que permitiu a uma mulher, vítima de derrame, lúcida, mas incapaz de se comunicar com o mundo exterior (exceto pelo movimento dos olhos), expressar, com a ajuda de eletrodos, computador,  e inteligência artificial, “falando” 78 palavras por minuto, ou seja, metade do ritmo de pessoas normais.

Como ensaio e provocação, passei o artigo pelo Chatgpt com dois prompts. Abaixo, os prompts e respostas do Chatpt 4.0.

PROMPT 1: A partir do texto a seguir, uma reportagem publicada na revista Nature, produza um texto relativamente curto, utilizando as informações sobre os dois estudos, mas especulando as possibilidades de uso da tecnologia, no futuro, para a comunicação sem o uso da fala. Ou para a comunicação entre pessoas que falam línguas diferentes. Pense bem. Mantenha as referÊncias científicas . O texto a ser produzido é para um blog do Grupo de Jornalismo On Line, um grupo de estudos de pós-graduação em comunicação digital. Inclua referÊncias às frequentes críticas, justificadas ou não sobre o uso da inteligência artificial para produção de fake news.

Brain-reading devices allow paralysed people to talk using their thoughts Two studies report considerable improvements in technologies designed to help people with facial paralysis to communicate.

Miryam Naddaf

A participant sits in a wheelchair with wires attached to her head. A screen nearby shows an animated face. A brain-computer interface translates the study participant’s brain signals into the speech and facial movements of an animated avatar.Credit: Noah Berger Brain-reading implants enhanced using artificial intelligence (AI) have enabled two people with paralysis to communicate with unprecedented accuracy and speed. In separate studies, both published on 23 August in Nature, two teams of researchers describe brain–computer interfaces (BCIs) that translate neural signals into text or words spoken by a synthetic voice. The BCIs can decode speech at 62 words per minute and 78 words per minute, respectively. Natural conversation happens at around 160 words per minute, but the new technologies are both faster than any previous attempts.

“It is now possible to imagine a future where we can restore fluid conversation to someone with paralysis, enabling them to freely say whatever they want to say with an accuracy high enough to be understood reliably,” said Francis Willett, a neuroscientist at Stanford University in California who co-authored one of the papers1, in a press conference on 22 August. These devices “could be products in the very near future”, says Christian Herff, a computational neuroscientist at Maastricht University, the Netherlands. Electrodes and algorithms Willett and his colleagues developed a BCI to interpret neural activity at the cellular level and translate it into text.

They worked with 67-year-old Pat Bennett, who has motor neuron disease, also known as amyotrophic lateral sclerosis — a condition that causes a progressive loss of muscle control, resulting in difficulties moving and speaking. The brain-reading devices helping paralysed people to move, talk and touch.

First, the researchers operated on Bennett to insert arrays of small silicon electrodes into parts of the brain that are involved in speech, a few millimetres beneath the surface. Then they trained deep-learning algorithms to recognize the unique signals in Bennett’s brain when she attempted to speak various phrases using a large vocabulary set of 125,000 words and a small vocabulary set of 50 words. The AI decodes words from phonemes — the subunits of speech that form spoken words. For the 50-word vocabulary, the BCI worked 3.4 times faster than an earlier BCI developed by the same team3 and achieved a 9.1% word-error rate. The error rate rose to 23.8% for the 125,000-word vocabulary. “

About three in every four words are deciphered correctly,” Willett told the press conference. “For those who are nonverbal, this means they can stay connected to the bigger world, perhaps continue to work, maintain friends and family relationships,” said Bennett in a statement to reporters.

Reading brain activity In a separate study, Edward Chang, a neurosurgeon at the University of California, San Francisco, and his colleagues worked with a 47-year-old woman named Ann, who lost her ability to speak after a brainstem stroke 18 years ago. They used a different approach from that of Willett’s team, placing a paper-thin rectangle containing 253 electrodes on the surface on the brain’s cortex. The technique, called electrocorticography (ECoG), is considered less invasive and can record the combined activity of thousands of neurons at the same time.

The team trained AI algorithms to recognize patterns in Ann’s brain activity associated with her attempts to speak 249 sentences using a 1,024-word vocabulary. The device produced 78 words per minute with a median word-error rate of 25.5%. Although the implants used by Willett’s team, which capture neural activity more precisely, outperformed this on larger vocabularies, it is “nice to see that with ECoG, it’s possible to achieve low word-error rate”, says Blaise Yvert, a neurotechnology researcher at the Grenoble Institute of Neuroscience in France.

Chang Lab Chang and his team also created customized algorithms to convert Ann’s brain signals into a synthetic voice and an animated avatar that mimics facial expressions. They personalized the voice to sound like Ann’s before her injury, by training it on recordings from her wedding video. “The simple fact of hearing a voice similar to your own is emotional,” Ann told the researchers in a feedback session after the study. “When I had the ability to talk for myself was huge!” “Voice is a really important part of our identity. It’s not just about communication, it’s also about who we are,” says Chang.

Clinical applications

Many improvements are needed before the BCIs can be made available for clinical use. “The ideal scenario is for the connection to be cordless,” Ann told researchers. A BCI that was suitable for everyday use would have to be made of a fully implantable system with no visible connectors or cables, adds Yvert.

Both teams hope to continue increasing the speed and accuracy of their devices with more-robust decoding algorithms. The mind-reading devices that can free paralysed muscles. Furthermore, the participants of both studies still have the ability to engage their facial muscles when thinking about speaking, and their speech-related brain regions are intact, says Herff. “This will not be the case for every patient.” “

We see this as a proof of concept and just providing motivation for industry people in this space to translate it into a product somebody can actually use,” says Willett.

The devices must also be tested on many more people to prove their reliability. “No matter how elegant and technically sophisticated these data are, we have to understand them in context, in a very measured way,” says Judy Illes, a neuroethics researcher at the University of British Columbia in Vancouver, Canada.

“We have to be careful with over-promising wide generalizability to large populations,” she adds. “I’m not sure we’re there yet.” doi: https://doi.org/10.1038/d41586-023-02682-7



Comunicação Mental e a Ponte Linguística do Futuro: O Poder dos Dispositivos de Leitura Cerebral

No universo da ficção científica, a comunicação sem o uso da fala ou a capacidade de conversar instantaneamente em qualquer idioma sempre foi um sonho distante. No entanto, graças às recentes inovações em interfaces cérebro-computador (BCIs), esse futuro pode estar mais próximo do que imaginamos.

Em dois estudos publicados na revista Nature, pesquisadores revelaram avanços significativos em BCIs que traduzem sinais neurais em texto ou palavras pronunciadas por uma voz sintética. As taxas de decodificação chegaram a 62 e 78 palavras por minuto, respectivamente, com algumas taxas de erro12. Embora esses números ainda não alcancem a velocidade de uma conversa natural, que é de cerca de 160 palavras por minuto, esses avanços são promissores.

Imagine um futuro onde, por meio desses dispositivos, uma pessoa possa ‘pensar’ em uma sentença em seu idioma nativo e o ouvinte possa ouvi-la em sua própria língua. Além de romper barreiras linguísticas, isso poderia revolucionar a comunicação entre pessoas com paralisia ou outras condições que afetam a fala.

No entanto, assim como qualquer tecnologia poderosa, os BCIs vêm com seu próprio conjunto de preocupações éticas. Na era digital, a proliferação de fake news potencializada pela inteligência artificial é uma preocupação crescente. Com a capacidade de traduzir pensamentos em palavras, há o risco de que tais dispositivos possam ser usados para criar declarações ‘falsas’ ou manipuladas. Já vimos como algoritmos podem gerar conteúdo falso convincente; adicionar a capacidade de ‘ler’ e traduzir pensamentos só intensifica essas preocupações.

Entretanto, é essencial não descartar a tecnologia com base apenas em seus potenciais perigos. Com regulamentações e supervisões adequadas, esses avanços na BCI têm o potencial de transformar vidas, permitindo que aqueles que perderam a capacidade de falar reconectem-se com o mundo ao seu redor.

Em um mundo interconectado, a capacidade de se comunicar livre e eficazmente é fundamental. As BCIs podem desempenhar um papel vital neste cenário, mas, como sociedade, devemos ser cautelosos para garantir que sejam utilizadas de forma ética e responsável.


Este artigo foi produzido com base em dados científicos publicados e visa a educação e disseminação de informações. A menção a preocupações sobre fake news e inteligência artificial é um lembrete do compromisso contínuo com a veracidade e responsabilidade na era digital.

  1. Willett, F., et al. (2023). “Brain-Computer Interface for Paralysis Communication.” Nature.
  2. Chang, E., et al. (2023). “ECoG-based BCI for Speech Translation.” Nature.


Faça novo texto sobre o mesmo assunto, dando mais detalhes sobre como foram os experimentos de inserção de eletrodos nos cérebros de pessoas impossibilitadas de falar.



Comunicando-se Através do Pensamento: Os Detalhes por Trás dos Avanços em Interfaces Cérebro-Computador

Recentemente, a revista Nature destacou avanços notáveis no campo das interfaces cérebro-computador (BCIs) que visam ajudar pessoas paralisadas a se comunicarem12. Entender os intricados detalhes dos experimentos fornece uma visão clara do potencial e da complexidade dessa nova tecnologia.

Inserção de Eletrodos: O Método de Willett e Sua Equipe

O time de Francis Willett, neurocientista da Universidade de Stanford, trabalhou com Pat Bennett, uma mulher de 67 anos diagnosticada com doença do neurônio motor (também conhecida como esclerose lateral amiotrófica). Esta condição debilitante provoca a perda progressiva do controle muscular, levando a dificuldades em movimentos e fala.

Para facilitar a comunicação de Bennett, a equipe realizou um procedimento cirúrgico, implantando pequenos eletrodos de silício em partes do cérebro associadas à fala, localizados a poucos milímetros abaixo da superfície cerebral. Após a inserção, foram utilizados algoritmos de aprendizado profundo para reconhecer os sinais únicos no cérebro de Bennett quando ela tentava falar diferentes frases. Esses algoritmos traduziam os pensamentos de Bennett em palavras, decodificando palavras a partir de fonemas – os subconjuntos de fala que formam as palavras.

Eletrocorticografia: A Abordagem de Chang

Por outro lado, Edward Chang e sua equipe da Universidade da Califórnia em San Francisco, adotaram uma técnica diferente. Eles trabalharam com Ann, uma mulher que havia perdido a capacidade de falar devido a um derrame no tronco cerebral 18 anos antes.

Ao invés de implantar eletrodos profundos no cérebro, a equipe usou eletrocorticografia (ECoG). Um retângulo ultrafino contendo 253 eletrodos foi colocado na superfície do córtex cerebral. Esse método, considerado menos invasivo, tem a capacidade de registrar a atividade combinada de milhares de neurônios simultaneamente. Algoritmos de IA foram treinados para reconhecer padrões na atividade cerebral de Ann associados às suas tentativas de falar determinadas frases.

Chang e sua equipe também personalizaram algoritmos para converter os sinais cerebrais de Ann em uma voz sintética, junto com um avatar animado que imita expressões faciais. Esta voz foi personalizada para soar como a de Ann antes de sua lesão.


A inserção de eletrodos e o uso subsequente de algoritmos avançados representam um passo significativo na busca para devolver a capacidade de comunicação àqueles que a perderam. Ambas as abordagens, embora distintas em metodologia, destacam o compromisso e a inovação dos cientistas na busca para superar as barreiras da comunicação humana.


  1. Willett, F., et al. (2023). “Brain-Computer Interface for Paralysis Communication.” Nature.
  2. Chang, E., et al. (2023). “ECoG-based BCI for Speech Translation.” Nature.


Moral da história: com o Chatgpt, vale a máxima do Capitão Gancho (ou do Jack Sparrow, para os mais novos: “Tudo depende da abordagem”.