26 / julio / 2024

Entérate por qué Meta está trabajando en una inteligencia artificial capaz de leer mentes

A

Escrito por: AS News7/10/2022

Una nueva investigación exploratoria en Meta busca maneras de entender lo que pasa en la mente de las personas utilizando IA. Los científicos de Meta expresaron que su modelo de IA era capaz de decodificar a fragmentos de voz de tres segundos de actividad cerebral.

Al hablar, las personas piensan la manera en que van a formar las palabras que dirán con la boca e incluso, no se necesita hablar para que el cerebro forme actividad relacionada con el habla. Esto ocurre porque las partes del cerebro que tienen control sobre la boca y las partes involucradas en la comprensión y formación de palabras se encuentran separadas.

¿Cuál es el objetivo?

Los científicos de Meta, han trabajado esto junto con Inteligencia Artificial con la finalidad de saber cómo ayudar a personas que han tenido una lesión neurológica traumática, por lo que no son capaces de comunicarse por medio del habla, la escritura o los gestos.

Jean Remi King, científica investigadora de FAIR Labs dijo que han desarrollado un modelo de IA capaz de decodificar el habla de las personas partiendo de grabaciones no invasivas de la actividad cerebral. También agregó que el descifrado del habla partiendo de actividad cerebral ha sido objetivo de una gran cantidad de médicos y neurocientíficos, pero los avances obtenidos se consiguieron prácticamente con técnicas invasivas del registro cerebral.

¿Cómo se puede evaluar la actividad cerebral?

En general, las personas tienen algún conocimiento sobre los tipos comunes de escáneres cerebrales, como con la resonancia magnética o MRI, y la tomografía computarizada o CT, donde es posible obtener imágenes en detalle del cerebro. No obstante, más que actividad cerebral con este tipo de escáneres se pueden ver estructuras del cerebro. Hasta el momento, las mejores maneras de conseguir registro de la actividad cerebral continua son invasivas, es decir, es necesario abrir el cráneo y poner electrodos directamente en el cerebro.

Mientras que las técnicas que no son invasivas, como es el caso de los electroencefalogramas, EEG y magnetoencefalografía, MEG, permiten escanear el cerebro sin necesidad de abrir el cráneo, sin ningún tipo de cirugía permiten observar la actividad cerebral. Sin embargo, las técnicas no invasivas como los electroencefalogramas, EEG y magnetoencefalografía, MEG, pueden escanear el cerebro desde el exterior y observar la actividad sin necesidad de cirugía.

Tanto con el EEG como con el MEG es posible capturar instantáneas en milisegundos de la actividad cerebral, lo que hace que sean ideales para un análisis continuo de lo que pasa en el cerebro de un individuo cuando escucha.

El problema está en que no es posible conseguir una imagen muy clara de lo que pasa, ya que las grabaciones de las sesiones de EEG y MEG suelen ser muy ruidosas. A pesar de que son de gran utilidad para diagnosticar lesiones, esto hace que sea un problema al momento de determinar la actividad cerebral específica y matizada, como si la persona piensa en decir una palabra específica.

King dice que las grabaciones no invasivas son muy ruidosas, y pueden tener una grabación entre una sesión y otra, así como en cada individuo por una gran cantidad de motivos, incluyendo que cada persona presenta características individuales en el cerebro y donde son colocados los sensores.

En este sentido, los investigadores apelan por usar algoritmos de aprendizaje automáticos que permitieran limpiar el ruido. El modelo usado lleva por nombre “wave 2 vec 2.0” y consiste en una herramienta de IA de código abierto que desarrolló el equipo de FAIR en el año 2020 y que puede ser utilizada para la identificación del habla adecuada del audio ruidoso.

Posteriormente, cargaron a la herramienta 4 grabaciones de EEG y MEG de código abierto que se basaban en 150 horas dónde 169 individuos sanos escucharon audiolibros y oraciones aisladas en el idioma inglés y en holandés. Dichas grabaciones posteriormente pasaron a ser el conjunto de entrenamiento para el modelo wave 2 vec 2.0, que prontamente podía ser utilizado para mejorar la capacidad de selección de palabras potenciales que oyó una persona.

King dijo que con un fragmento de actividad cerebral, es posible determinar una amplia variedad de nuevos clips de audios que realmente escuchó una persona. Partiendo de eso, el algoritmo tiene cierta interferencia con las palabras que posiblemente la persona haya oído.

Los investigadores consideraron que esto era algo alentador, ya que demuestra que la Inteligencia Artificial puede entrenarse para aprender la decodificación de grabaciones ruidosas y variables de actividad cerebral partiendo del habla que se percibe, el paso siguiente es observar si es posible extender la actividad cerebral sin utilizar el conjunto de clips de audio. Lo que resultaría un decodificador de mucha más versatilidad que no requeriría de un vocabulario preestablecido.

No obstante, esto es solo un primer paso de los investigadores de la empresa, que tiene como objetivo la compresión del cerebro humano.

Compartir:

Noticias relacionadas

¿Le gustaría una asesoría gratuita?

Le ofrecemos asesoría gratuita durante 20 min, para ayudarle con sus problemas contables y fiscales.

¡Recibe información en tu email!

Sólo recibirás información relevante del sector Fiscal, Contable y Fininanciero.

Dirección

Obrero Mundial 644, Col. Atenor Salas, CDMX, 03010 México

Teléfonos

+52 55 5859 4873
+52 55 5840 4611
+52 55 5859 9296
SMS Lationamerica

Estamos en 21 países y estamos cerca

Miembro
SMS Latinoamerica
COPYRIGHT © 2018 AS CONSULTING GROUP - Aviso de privacidad