Você provavelmente já esteve lá: querendo mandar uma mensagem de texto para alguém rapidamente, mas suas mãos estão ocupadas, talvez segurando as compras ou cozinhando.
Siri, Alexa e outros assistentes virtuais forneceram uma nova camada de interação entre nós e nossos dispositivos, mas e se pudéssemos ir além disso? Esta é a premissa de algumas interfaces cérebro-máquina (IMC).
Usando o IMC, as pessoas podem mover máquinas e controlar avatares virtuais sem mover um músculo. Isso geralmente é feito acessando a região do cérebro responsável por um movimento específico e, em seguida, decodificando esse sinal elétrico em algo que um computador possa entender. Uma área que ainda era difícil de decodificar, entretanto, era a própria fala.
Mas agora, cientistas da Universidade da Califórnia em San Francisco relataram uma maneira de traduzir a atividade do cérebro humano diretamente em texto.
Joseph Makin e sua equipe usaram avanços recentes em um tipo de algoritmo que decifra e traduz uma linguagem de computador para outra (que é a base para muitos softwares de tradução de linguagem humana).
Com base nessas melhorias no software, os cientistas desenvolveram um IMC que é capaz de traduzir uma frase completa da atividade cerebral em uma frase escrita real.
Uma das razões pelas quais esse novo IMC é mais eficiente do que as tentativas anteriores é uma mudança de foco.
Quatro participantes, que já tinham implantes cerebrais para o tratamento de convulsões, treinaram esse algoritmo de computador lendo frases em voz alta por cerca de 30 minutos enquanto os implantes registravam sua atividade cerebral.
O algoritmo é composto por um tipo de inteligência artificial que analisa as informações que precisam estar em uma ordem específica para fazer sentido (como a fala) e fazer previsões sobre o que vem a seguir.
Nesse sentido, esta IA está aprendendo frases e, então, é capaz de criar uma representação de quais regiões do cérebro estão sendo ativadas, em que ordem e com que intensidade, para criar essa frase. Esta é a parte do codificador do IMC.
O codificador é seguido por uma IA diferente que é capaz de entender aquela representação gerada por computador e traduzi-la em texto – o decodificador.
Essa dupla codificador-decodificador está fazendo através da fala o que outros IMC fazem pelo movimento: emparelhar um conjunto específico de sinais cerebrais e transformá-lo em algo que os computadores entendam e possam agir.
Os IMC de fala disponíveis antes deste estudo eram capazes de distinguir apenas pequenos trechos da fala, como vogais e consoantes individuais – e mesmo assim com uma precisão de apenas 40%.
Essa interface era capaz de traduzir de 30 a 50 frases na época, com uma taxa de erro semelhante à da transcrição de fala em nível profissional.
A equipe também fez outro teste em que treinou o IMC na fala de uma pessoa antes de treinar em outro participante. Isso aumentou a precisão da tradução geral, mostrando que todo o algoritmo pode ser usado e melhorado por várias pessoas.
Por último, com base nas informações coletadas pelos implantes cerebrais, o estudo também foi capaz de expandir nosso conhecimento de como áreas muito específicas do cérebro são ativadas quando falamos.
Linhas de código de computador
No reino dos IMC, o ideal é sempre conseguir obter um único sinal do cérebro e traduzir diretamente para o código do computador, reduzindo quaisquer etapas intermediárias.
No entanto, para a maioria dos IMC, incluindo a fala, esse é um grande desafio. Os IMC de fala disponíveis antes deste estudo eram capazes de distinguir apenas pequenos trechos da fala, como vogais e consoantes individuais – e mesmo assim com uma precisão de apenas 40%.
Uma das razões pelas quais esse novo IMC é mais eficiente do que as tentativas anteriores é uma mudança de foco. Em vez de pequenos trechos de fala, eles se concentraram em palavras inteiras. Portanto, ao ivés de ter que distinguir entre sons específicos – como “Hell”, “o”, Th ”,“ i ”,“ a ”e“ go ”, a máquina usa palavras completas -“ Hello ”e“ Thiago ” para entender a diferença entre eles.
Embora o melhor cenário seja treinar o algoritmo com todo o escopo da língua inglesa, para este estudo os autores restringem o vocabulário disponível a 250 palavras diferentes.
Talvez não o suficiente para cobrir as obras completas de Shakespeare, mas definitivamente uma melhoria em relação à maioria dos IMCs.
A maioria dos BMIs atualmente usa alguma forma de teclado virtual, com a pessoa movendo um cursor virtual com suas mentes e “digitando” neste teclado, um dígito de cada vez.
Há uma diferença muito gritante entre ler a atividade cerebral de um implante cerebral e qualquer coisa que possamos fazer em uma escala maior. No entanto, este estudo abre novas direções fascinantes.
Esses implantes foram treinados em cerca de 30 minutos de fala, mas os implantes ainda estarão lá. Ao examinar continuamente os dados, os cientistas podem ser capazes de criar uma biblioteca de conjuntos de treinamento para IMCs, que, como mostrado, podem ser traduzidos para outra pessoa.
Existe também a possibilidade de expandir este estudo para diferentes idiomas, o que nos ensinaria mais como a fala e suas representações no cérebro podem variar entre os idiomas.
Muito mais pesquisas serão necessárias para transformar essa tecnologia em algo que todos possamos usar. É provável que esta tecnologia seja usada primeiro para melhorar a vida de pacientes paralisados e para outras aplicações clínicas. Lá, os benefícios são imensos, possibilitando a comunicação com velocidade e precisão que ainda não conseguimos alcançar.
Se isso se torna outra função de Siri ou Alexa, dependerá principalmente dos avanços que vemos na captura da atividade cerebral, especialmente se formos capazes de fazer isso sem implantes cerebrais.
Leia também: Robôs autônomos são usados para ajudar idosos a lidar com o estado de solidão
Traduzido e editado por equipe Isto é Interessante
Fonte: Massive Science