El papa León XIV advirtió sobre los peligros de la inteligencia artificial. Se une así a expertos que pidieron pausar el entrenamiento de los poderosos sistemas de IA, advirtiendo sobre su potencial amenaza. La preocupación ronda en torno a la falta de transparencia en la creación de los algoritmos y su regulación. También señalan sesgos ideológicos y la poca cantidad de empresas que manejan su desarrollo en el mundo, concentrando para sí un poder invisible que puede afectar la vida, la libertad y la seguridad de millones de personas.
Se estima que unos 1.400 millones de personas usan chatbots en el mundo, acudiendo a diario a estos asistentes virtuales con inteligencia artificial diseñados para interactuar con los usuarios en lenguaje natural y simular conversaciones similares a las de una persona.
Estos chatbots, basados en los modelos de lenguaje de gran tamaño (LLM), como ChatGPT o Gemini, son modelos de aprendizaje automático que manejan gran cantidad de datos y pueden comprender y generar textos en lenguaje humano, lo cual los hace “especialmente eficaces en la persuasión oculta”, según denunció el Papa hace unos días ante los comunicadores sociales.
Varios expertos afirmaron en una carta abierta publicada en 2023 que el desarrollo de la IA es “una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable”, entre ellos el empresario tecnológico Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque.
En cuanto al sesgo en la visión del mundo de los modelos de IA es evidente que están diseñados de acuerdo al parecer de sus creadores y a los intereses de las empresas que los financian.
Pueden imponer modos de pensar, direccionar datos, manipular emociones, reproducir estereotipos y desarrollar prejuicios presentes en los datos que seleccionan, interpretan y comparten.
También causa especial preocupación su uso militar en un ambiente geopolítico global complejo y con fricciones, sobre todo a los jóvenes usuarios se les debe advertir de forma clara y pedagógica de los límites que el mundo digital impone a la IA, ya que ellos se ven seducidos por la supuesta cercanía de sus interlocutores digitales de chatbots, los cuales muchas veces les venden sistemas con probabilidades y aproximaciones estadísticas como si fueran conocimientos o hechos consumados.
No faltan denuncias sobre el uso desalmado de la IA, por ejemplo, en la evaluación judicial de casos en el sistema penal o para la breve y superficial “evaluación psiquiátrica” de suicidas que emplean cápsulas sacro con IA para quitarse la vida. Esto es grave y requiere atención.
El desafío de la inteligencia artificial a esta generación de usuarios no es su carácter innovador, no se trata de incurrir en el miedo y el rechazo total, sino en la capacidad de conducir hacia el bien común y la verdad, sin sesgos, su fuerza intangible y enormes potenciales.
Asimismo debemos concienciar también sobre su carácter ambivalente para lo cual es necesario que nuestro sistema educativo brinde contenido específico sobre el uso racional y éticamente aceptable de la IA.
Se está discutiendo en el mundo el tipo de alfabetización digital que debemos implementar en esta era de revolución digital, ya que no debe bastar con convertir en usuarios pasivos y consumistas a nuestros jóvenes, sino que debemos brindarles herramientas de pensamiento racional y de discernimiento moral para comprender cómo los algoritmos modelan nuestra percepción de la realidad y nos pueden inducir a ciertas conductas. Es necesario fortalecer los vínculos primarios como la familia y de los amigos en la comunidad, la identidad, la empatía y la creatividad.
Además, apostar por la integralidad de la educación, considerando todas las dimensiones de la persona: Biológica, síquica, social y espiritual, para saber sacar provecho de lo bueno de la IA, y superar la dependencia o la alienación que es capaz de establecer en personas o grupos incautos.