Usan inteligencia artificial para traducir el llanto de los bebés

Estando aún embarazada de su primer hijo comenzó a plantearse las típicas dudas de los padres primerizos. Que cómo iba a entenderle o si sabría lo que querría el pequeño cuando llorase. Ana Laguna Pradas aún no se había enfrentado a la realidad del llanto del bebé y ya le daba vueltas. Sí, que hay trucos de toda la vida y algunos parecen tener un don para ello. Pero a saber cuándo se sabe que si es por sueno, hambre o tiene algún dolor. A esta científica de datos en el BBVA Data y Analytics, su intuición y su experiencia con la inteligencia artificial le decía que todos los llantos de un niño tienen patrones, por lo que es probable que pueda interpretarse ‘entrenando’ algún algoritmo.

Así que si Jane Goodall podía comprender el lenguaje de los chimpancés, ¿por qué no iba ella a poder traducir las necesidades de su recién nacido? Se puso en marcha y lo que comenzó como un ‘hobby’ con su primer hijo, con el que creó una pequeña base de datos individualizada, se ha convertido en la creación de una ONG (sogooddata.org) para hacer trabajos de datos donde hay un formulario para que otros bebés colaboren.

Ahí se juntarán multitud de ejemplos de lloros y se administrarán por etiquetas, que identificarán el tipo de llanto. Si pertenece a dolor, hambre, sueño o mimos. Éstas deberán ponerlas los padres para que el modelo busque los patrones y el algoritmo haga su trabajo. ¿El objetivo? Sacar una aplicación en un futuro no muy lejano que sea capaz de traducir el llanto de un bebé y saber qué necesita, algo que no solo ayudará a los padres primerizos sino también a progenitores con problemas auditivos.

Ana empezó a grabar a su hijo. Cada muestra de llanto debía durar al menos 10 segundos. Así estuvo hasta los cinco meses. “A partir de ahí los sonidos cambian, por lo que la muestra ya no me serviría. El cerebro evoluciona y desarrolla otros sentimientos como el miedo, que hasta entonces no lo percibe”, cuenta la científica por teléfono, a un mes de dar a luz a su segundo hijo. Éste le ayudará a aumentar su base de datos, aunque corre el riesgo de tener que llorar algo más que su hermano. En la primera ocasión reunió cerca de 70 audios, pero un algoritmo necesita de más detalles para encontrar patrones y ser eficaz. “Al principio quería recoger hasta el lloro por la picadura de un mosquito pero no era posible. Terminé por pasar de un algoritmo multiclasificación a uno binario de hambre o no hambre, porque no le molestaba ni el cambio de pañal”, explica.

“Actualmente, estamos recopilando en la ONG una media de siete audios al día. Por suerte hay mamás muy implicadas. Los audios se validan antes de pasárselos al algoritmo, pero aun así la etiqueta de la madre suele ser fiable en un 85 a 90% de las veces. Las mamás y papás, aparte de por instinto y porque conocen bien a su bebé, también ayudan mucho a etiquetar por contexto. Esto se comprueba porque cuando cubres esa necesidad, el bebé deja de llorar”, detalla.

Cuando Ana comenzó con la idea de crear una app que interpretase los llantos solo existía una china. “Por cuestiones de prosodia -una rama de la lingüística que estudia el acento y la entonación de un idioma-, un algoritmo chino quizás no alcance el mismo nivel de precisión en niños españoles”, explica.

En estos últimos dos años, ha aparecido una aplicación similar en Estados Unidos, creada por un equipo californiano de neonatología de California: Chatterbaby. Una app capaz de distinguir entre dolor (con un 90% de éxito), inquietud (con un 85%) y hambre (con un 60%). Aunque tiene sus limitaciones. “El algoritmo está elaborado con datos internacionales, un problema si tenemos en cuenta que cada niño llora de diferente manera según su lengua. Se necesita trabajar con audios específicos de la lengua, en nuestro caso, en español”.