Estudo identifica dois mecanismos cerebrais para escolher o discurso de uma multidão
Pesquisadores liderados pelo Dr. Nima Mesgarani na Universidade de Columbia, EUA, relatam que o cérebro trata a fala em uma sala lotada de maneira diferente, dependendo de quão fácil é ouvir e se estamos nos concentrando nisso.
Exemplo de ouvir alguém falando em um ambiente barulhento. Crédito: Zuckerman Institute, Columbia University (2023) (CC-BY 4.0, creativecommons.org/licenses/by/4.0/)
Pesquisadores liderados pelo Dr. Nima Mesgarani na Universidade de Columbia, EUA, relatam que o cérebro trata a fala em uma sala lotada de maneira diferente, dependendo de quão fácil é ouvir e se estamos nos concentrando nisso.
Publicado em 6 de junho na revista de acesso aberto PLOS Biology , o estudo usa uma combinação de gravações neurais e modelagem de computador para mostrar que, quando seguimos a fala que está sendo abafada por vozes mais altas, a informação fonética é codificada de maneira diferente da situação oposta. As descobertas podem ajudar a melhorar os aparelhos auditivos que funcionam isolando a fala assistida.
Concentrar-se na fala em uma sala lotada pode ser difícil, especialmente quando outras vozes são mais altas. No entanto, amplificar todos os sons igualmente faz pouco para melhorar a capacidade de isolar essas vozes difíceis de ouvir, e os aparelhos auditivos que tentam apenas amplificar a fala assistida ainda são muito imprecisos para uso prático.
Para entender melhor como a fala é processada nessas situações, os pesquisadores da Universidade de Columbia registraram a atividade neural de eletrodos implantados no cérebro de pessoas com epilepsia durante cirurgias cerebrais . Os pacientes foram solicitados a atender a uma única voz, ora mais alta que outra voz ("vislumbrada"), ora mais baixa ("mascarada").
Os pesquisadores usaram as gravações neurais para gerar modelos preditivos de atividade cerebral . Os modelos mostraram que a informação fonética da fala "vislumbrada" foi codificada no córtex auditivo primário e secundário do cérebro, e que a codificação da fala assistida foi aprimorada no córtex secundário.
Em contrapartida, a informação fonética da fala "mascarada" só era codificada se fosse a voz atendida . Por fim, a codificação da fala ocorreu mais tarde para a fala "mascarada" do que para a fala "vislumbrada". Como as informações fonéticas "vislumbradas" e "mascaradas" parecem ser codificadas separadamente, o foco em decifrar apenas a parte "mascarada" da fala assistida pode levar a melhorias sistemas de decodificação de atenção auditiva para aparelhos auditivos controlados pelo cérebro.
Vinay Raghavan, o principal autor do estudo, diz: "Ao ouvir alguém em um lugar barulhento, seu cérebro recupera o que você perdeu quando o ruído de fundo é muito alto. Seu cérebro também pode captar trechos de fala nos quais você não está focado. , mas apenas quando a pessoa que você está ouvindo está quieta em comparação."
Mais informações: Raghavan VS, O'Sullivan J, Bickel S, Mehta AD, Mesgarani N. Codificação neural distinta de fala vislumbrada e mascarada em situações multitalker, PLoS Biology (2023). DOI: 10.1371/journal.pbio.3002128
Informações da revista: PLoS Biology