18 dic. 2025

Entrenan una IA para aprender palabras a través de la experiencia de un niño

Los sistemas de inteligencia artificial (IA) aprenden a hablar a partir de enormes cantidades de palabras, pero un nuevo estudio ha demostrado que también pueden hacerlo usando las grabaciones de lo que ve y oye un bebé durante el primer año y medio en que adquiere el lenguaje.

inteligencia artificial.jpg

Las herramientas de la IA pueden aprender un número considerable de palabras y conceptos a partir de fragmentos limitados de la experiencia del niño.

Foto ilustrativa.

Un estudio encabezado por la Universidad de Nueva York y que publica Science demostró que las herramientas de la IA pueden aprender un número considerable de palabras y conceptos a partir de fragmentos limitados de la experiencia del niño.

Los sistemas de IA, como ChatGPT-4, aprenden y utilizan el lenguaje humano a partir billones de datos lingüísticos, mientras que los niños solo reciben millones de palabras al año cuando aprenden a hablar.

El equipo decidió comprobar si un modelo de IA podía aprender palabras y conceptos presentes en la experiencia cotidiana de un niño solo con la información que recibía este desde los seis meses a los dos años.

Para ello, entrenaron un sistema de IA multimodal a través de los ojos y oídos del pequeño, usando más de 60 horas de grabación en primera persona, mediante una cámara ligera montada en la cabeza.

chatgpt.jpg

La conclusión fue que el modelo o red neuronal “podía aprender un número considerable de palabras y conceptos a partir de fragmentos limitados de la experiencia del niño”, señaló la Universidad de Nueva York.

La cámara que llevaba el niño solo captaba alrededor del 1 % de sus horas de vigilia, pero era suficiente para un auténtico aprendizaje del lenguaje.

“Demostramos, por primera vez, que una red neuronal entrenada con esta información realista sobre el desarrollo de un solo niño puede aprender a relacionar las palabras con sus equivalentes visuales”, destacó el primer autor de las investigación, Wai Keen Vong.

Estos resultados, según el investigador, demuestran cómo los recientes avances algorítmicos emparejados con la experiencia naturalista de un solo niño “tienen el potencial de remodelar nuestra comprensión de la adquisición temprana del lenguaje y los conceptos.”

Las grabaciones contenían aproximadamente un cuarto de millón de instancias de palabras, es decir, el número de palabras comunicadas, muchas de ellas repetidas, que están vinculadas con fotogramas de vídeo de lo que el niño veía cuando se pronunciaban.

palabras.jpg

Los investigadores entrenaron una red neuronal multimodal con dos módulos separados: uno que toma fotogramas de vídeo individuales (el codificador de visión) y otro que toma el habla transcrita dirigida por el niño (el codificador de lenguaje). Ambos codificadores se combinaron y entrenaron mediante un algoritmo llamado contrastivo, cuyo objetivo es aprender características de entrada útiles y sus asociaciones intermodales.

Por ejemplo, cuando uno de los padres dice algo a la vista del niño, es probable que algunas de las palabras utilizadas se refieran a una cosa que el pequeño pueda ver, lo que significa que la comprensión se inculca vinculando las señales visuales y lingüísticas, explicó la Universidad de Nueva York en un comunicado.

Esto proporciona al modelo una pista sobre qué palabras deben asociarse con qué objetos y la combinación de estas pistas es lo que permite al aprendizaje contrastivo determinar gradualmente qué palabras pertenecen a qué elementos visuales y captar el aprendizaje de las primeras palabras de un niño.

Los resultados mostraron que el modelo era capaz de aprender un número considerable de palabras y conceptos presentes en la experiencia cotidiana del niño.

Además, podía generalizar algunas de las palabras aprendidas a instancias visuales muy distintas de las observadas en el entrenamiento, lo que refleja un aspecto que también se observa en los niños cuando se les somete a pruebas en el laboratorio.

Fuente: EFE.

Más contenido de esta sección
El enviado especial del Ministerio chino de Exteriores para Asuntos Asiáticos, Deng Xijun, viaja este jueves a Camboya y Tailandia para tratar de acercar las posturas de ambos países tras los enfrentamientos militares fronterizos de los últimos días, que dejan ya más de medio centenar de muertos.
El primer ministro húngaro, Viktor Orbán, dijo este jueves que no apoya el acuerdo comercial entre la Unión Europea (UE) y Mercosur, al considerar que sería “un tiro en las piernas” para los agricultores europeos, en un momento en que los Veintisiete buscan cerrar el pacto pese a las protestas del sector agrario y las divisiones internas.
La oficina meteorológica británica Met Office prevé que la temperatura media del planeta podría superar nuevamente 1,4 °C sobre los niveles preindustriales en 2026, lo que, de confirmarse, sería el cuarto año consecutivo en rebasar ese máximo histórico.
Arancel es la palabra de este año 2025 para la Fundación del Español Urgente (FundéuRAE), promovida por la Agencia EFE y la Real Academia Española (RAE).
El presidente venezolano, Nicolás Maduro, dijo este miércoles que continuará “el comercio para allá y para acá” del petróleo de su país, luego de que el mandatario de EEUU, Donald Trump, anunciara un “bloqueo total y completo de todos los petroleros sancionados que entren y salgan” de la nación sudamericana, y acusó a su homólogo norteamericano de tener una “pretensión guerrerista”.
El Sumo Pontífice denunció este miércoles que “las grandes inversiones financieras” están “hoy más que nunca enloquecidas e injustamente concentradas, idolatradas al precio sangriento de millones de vidas humanas y de la devastación de la creación de Dios”.