Desarrollan modelo de IA que detecta trastornos neurológicos por medio de la voz

Publicado el:

Investigadores en China desarrollaron un modelo de voz de inteligencia artificial (IA) que se encarga de detectar trastornos neurológicos, como Parkinson, el Huntington y la enfermedad de Wilson.

En las enfermedades neurológicas, el habla de los pacientes suele cambiar, incluso antes de que se sepa cuál es el diagnóstico. Este síntoma se conoce como disartria, que se caracteriza por la dificultad para articular palabras en algunas enfermedades nerviosas.

De manera tal que las dificultades en el habla pudiesen tomarse como señales de que algo no está bien en el sistema nervioso. Es decir, sirven como biomarcadores no invasivos para la detección temprana de los procesos neurodegenerativos.

¿Cómo funciona el modelo de IA para detectar trastornos neurológicos?

Científicos del Instituto de Salud y Tecnología Médica, los Institutos de Ciencias Físicas de Hefei de la Academia de Ciencias de China crearon un sistema de IA para ayudar a los especialistas en el diagnóstico de enfermedades neurodegenerativas.

El modelo analiza la voz del paciente para identificar si se está al frente de una patología del sistema nervioso en la etapa temprana. “Un ligero cambio en la forma en que hablamos podría ser más que un simple lapsus: podría ser una señal de alerta del cerebro”, dijo el profesor LI Hai, quien dirigió el equipo.

La investigación se publicó recientemente en Neurocomputing, una revista científica arbitrada que abarca la investigación sobre inteligencia artificial. En el informe se destaca que el análisis automatizado del habla ofrece alta eficiencia, bajo costo y no invasividad.

Sin embargo, los investigadores resaltan que los métodos tradicionales presentan algunas limitaciones en cuanto a “modelar interacciones temporales variables y una interpretabilidad deficiente”.

La configuración del nuevo sistema

Para hacer frente a estos retos, los expertos crearon el Transformador Interactivo Transversal y Transversal (CTCAIT, por sus siglas en inglés). También se le conoce como transformador interactivo entre tiempos y ejes.

En este orden de ideas, el sistema utiliza un modelo de audio a gran escala con el que puede extraer características de la dimensión del habla. Entre estas se encuentran el tono y el ritmo.

Seguidamente, el sistema utiliza una red llamada Incepcion Time para identificar patrones dentro de esos datos en forma de voz. De esta manera, es capaz de detectar anomalías en múltiples escalas de tiempo y niveles.

¿Qué tan confiable es?

Los científicos aseguraron que este nuevo modelo de aprendizaje profundo representa un avance en el proceso de detección de las patologías neurodegenerativas, ya que tiene un alto nivel de precisión e interpretabilidad en los patrones de voz.

Al respecto, los investigadores comprobaron que el sistema tuvo una precisión de detección del 92,06 % en datos del habla en idioma chino mandarín. Esto se traduce en al menos 2,17 puntos porcentuales más alto que estudios anteriores.

Entretanto, el porcentaje de precisión en el conjunto de datos en inglés fue de 87,73 %, “lo que demuestra una fuerte generalización interlingüística”, señaló el equipo de investigadores en el informe.

Asimismo, el equipo de investigación no solo se centró en los resultados del modelo de IA en la detección de trastornos, sino que también analizó cómo toma sus decisiones internamente. Esto se hizo con el objetivo de entender mejor su funcionamiento para posibles aplicaciones clínicas.

Información de Neuroscience / redacción Noti AI

No dejes de leer: Nvidia lanzó Jetson Thor, su nuevo ordenador para robots


Sigue nuestras redes sociales y se parte de nuestra comunidad 

Instagram

YouTube

X

TikTok

Recientes