06/09/2022
717 vistas

Meta revive su proyecto para leer la mente, esta vez, con fines sociales y médicos

Este se enfoca en "dos tecnologías no invasivas: electroencefalografía y magnetoencefalografía, que miden las fluctuaciones de campos eléctricos y magnéticos provocados por la actividad neuronal".

Este se enfoca en «dos tecnologías no invasivas: electroencefalografía y magnetoencefalografía, que miden las fluctuaciones de campos eléctricos y magnéticos provocados por la actividad neuronal«.

Meta, la matriz de Facebook, comunicó que ha relanzado su proyecto para leer la mente, esta vez, con fines sociales y médicos.

La compañía explicó que se encuentra diseñando una nueva forma para poder descifrar nuestros pensamientos, basada en la traducción de los pensamientos al habla.

Meta dijo en un comunicado que este proceso se enfoca en «dos tecnologías no invasivas: electroencefalografía (EEG) y magnetoencefalografía (MEG), que miden las fluctuaciones de campos eléctricos y magnéticos provocados por la actividad neuronal, respectivamente. En la práctica, ambos sistemas pueden tomar aproximadamente 1.000 instantáneas de la actividad cerebral macroscópica cada segundo, utilizando ciertos sensores», publicó Marketing4eCommerce.

Para el proyecto, Meta ha aprovechado cuatro conjuntos de datos EEG y MEG, gracias a más de 150 horas de grabaciones de 169 voluntarios que, para la prueba, escucharon audiolibros y oraciones aisladas en inglés y holandés. Tras esto, como explican, «ingresamos esas grabaciones EEG y MEG en un ‘cerebro’ que consiste en una red convolucional profunda con conexiones residuales. Finalmente, nuestra arquitectura aprende a alinear la salida de este modelo cerebral con las representaciones profundas de los sonidos del habla que se presentaron a los participantes».

De este modo, gracias a la colocación de sensores en la cabeza de un sujeto, podrían recogerse grabaciones de EEG y MEG, que se traducirían en palabras.

En lo relativo a los resultados que Meta ha estado obteniendo con este sistema: «A partir de tres segundos de actividad cerebral, nuestros resultados muestran que nuestro modelo puede decodificar los segmentos de voz correspondientes con una precisión de hasta el 73% entre los 10 principales de un vocabulario de 793 palabras, es decir, una gran parte de las palabras que normalmente usamos en un día».


Descubre más desde TEKIOS

Suscríbete y recibe las últimas entradas en tu correo electrónico.