14 ene. 2026

Entrenan una IA para aprender palabras a través de la experiencia de un niño

Los sistemas de inteligencia artificial (IA) aprenden a hablar a partir de enormes cantidades de palabras, pero un nuevo estudio ha demostrado que también pueden hacerlo usando las grabaciones de lo que ve y oye un bebé durante el primer año y medio en que adquiere el lenguaje.

inteligencia artificial.jpg

Las herramientas de la IA pueden aprender un número considerable de palabras y conceptos a partir de fragmentos limitados de la experiencia del niño.

Foto ilustrativa.

Un estudio encabezado por la Universidad de Nueva York y que publica Science demostró que las herramientas de la IA pueden aprender un número considerable de palabras y conceptos a partir de fragmentos limitados de la experiencia del niño.

Los sistemas de IA, como ChatGPT-4, aprenden y utilizan el lenguaje humano a partir billones de datos lingüísticos, mientras que los niños solo reciben millones de palabras al año cuando aprenden a hablar.

El equipo decidió comprobar si un modelo de IA podía aprender palabras y conceptos presentes en la experiencia cotidiana de un niño solo con la información que recibía este desde los seis meses a los dos años.

Para ello, entrenaron un sistema de IA multimodal a través de los ojos y oídos del pequeño, usando más de 60 horas de grabación en primera persona, mediante una cámara ligera montada en la cabeza.

chatgpt.jpg

La conclusión fue que el modelo o red neuronal “podía aprender un número considerable de palabras y conceptos a partir de fragmentos limitados de la experiencia del niño”, señaló la Universidad de Nueva York.

La cámara que llevaba el niño solo captaba alrededor del 1 % de sus horas de vigilia, pero era suficiente para un auténtico aprendizaje del lenguaje.

“Demostramos, por primera vez, que una red neuronal entrenada con esta información realista sobre el desarrollo de un solo niño puede aprender a relacionar las palabras con sus equivalentes visuales”, destacó el primer autor de las investigación, Wai Keen Vong.

Estos resultados, según el investigador, demuestran cómo los recientes avances algorítmicos emparejados con la experiencia naturalista de un solo niño “tienen el potencial de remodelar nuestra comprensión de la adquisición temprana del lenguaje y los conceptos.”

Las grabaciones contenían aproximadamente un cuarto de millón de instancias de palabras, es decir, el número de palabras comunicadas, muchas de ellas repetidas, que están vinculadas con fotogramas de vídeo de lo que el niño veía cuando se pronunciaban.

palabras.jpg

Los investigadores entrenaron una red neuronal multimodal con dos módulos separados: uno que toma fotogramas de vídeo individuales (el codificador de visión) y otro que toma el habla transcrita dirigida por el niño (el codificador de lenguaje). Ambos codificadores se combinaron y entrenaron mediante un algoritmo llamado contrastivo, cuyo objetivo es aprender características de entrada útiles y sus asociaciones intermodales.

Por ejemplo, cuando uno de los padres dice algo a la vista del niño, es probable que algunas de las palabras utilizadas se refieran a una cosa que el pequeño pueda ver, lo que significa que la comprensión se inculca vinculando las señales visuales y lingüísticas, explicó la Universidad de Nueva York en un comunicado.

Esto proporciona al modelo una pista sobre qué palabras deben asociarse con qué objetos y la combinación de estas pistas es lo que permite al aprendizaje contrastivo determinar gradualmente qué palabras pertenecen a qué elementos visuales y captar el aprendizaje de las primeras palabras de un niño.

Los resultados mostraron que el modelo era capaz de aprender un número considerable de palabras y conceptos presentes en la experiencia cotidiana del niño.

Además, podía generalizar algunas de las palabras aprendidas a instancias visuales muy distintas de las observadas en el entrenamiento, lo que refleja un aspecto que también se observa en los niños cuando se les somete a pruebas en el laboratorio.

Fuente: EFE.

Más contenido de esta sección
Es falsa una foto que supuestamente muestra a Cilia Flores, esposa del capturado presidente de Venezuela, Nicolás Maduro, con un hematoma alrededor de su ojo izquierdo durante su primera comparecencia ante el tribunal del Distrito Sur de Nueva York tras ser capturada por las fuerzas especiales estadounidenses, a pesar de lo que afirman usuarios en redes sociales.
Google anunció este miércoles que permitirá que su inteligencia artificial (IA), Gemini, se conecte con Gmail, Google Fotos, el historial de búsqueda y el de YouTube del usuario para que pueda dar respuestas “excepcionalmente útiles”.
El secretario general de Naciones Unidas, António Guterres, señaló este miércoles que si bien la ONU no tiene todavía “una cifra propia de muertos” por las protestas en Irán, las cifras que se han reportado hasta ahora, de entre 2.000 y 12.000 fallecidos, son “horribles”.
La Justicia argentina informó este miércoles que el cuadro robado por un oficial nazi a un galerista judío durante la Segunda Guerra Mundial y localizado en agosto en la ciudad costera de Mar del Plata fue valuado en 250.000 euros y atribuido a un artista distinto al que inicialmente se creía.
Estados Unidos anunció el miércoles que suspenderá la tramitación de visados de inmigrante a solicitantes de 75 nacionalidades, una medida más del gobierno de Donald Trump para frenar la entrada de extranjeros que buscan instalarse en el país.
Los “pequeños puntos rojos”, una familia de objetos misteriosos descubiertos por el telescopio espacial James Webb en galaxias distantes, podrían ser en realidad jóvenes agujeros negros supermasivos ocultos tras nubes de gas neutro y electrones.