13 jun. 2025

Ex empleado de OpenAI alerta del peligro de una IA más inteligente que los humanos

Un exempleado de OpenAI, que firmó esta semana una carta junto con otros empleados de la empresa creadora de ChatGPT para denunciar la opacidad sobre los posibles riesgos de la inteligencia artificial (IA), señala a EFE el peligro de una carrera en el sector por crear una super IA o inteligencia artificial general (IAG), que sea tan o más inteligente que el ser humano.

inteligencia artificial.jpg

A diferencia de la IA generativa, la IAG no solo sería capaz de reproducir las acciones humanas.

Foto: pixabay.com

Carroll Wainwright renunció la semana pasada a su puesto como parte del equipo de alineamiento práctico y superalineamiento, que vigila que los modelos más potentes de OpenAI sean seguros y vayan en consonancia con los valores humanos.

Una IA más inteligente que los humanos

Cuando se lanzó –y con un éxito que sorprendió hasta a la propia empresa– el chatbot ChatGPT, Wainwright empezó a trabajar en un equipo de superalineamiento para investigar, a medida que OpenAI obtenía modelos cada vez más inteligentes, las intervenciones técnicas que se pueden realizar para mantener el control sobre ellos.

A diferencia de la IA generativa, la IAG no solo sería capaz de reproducir las acciones humanas –como escribir o dibujar, cosa que ya hace la IA generativa– sino que también comprendería la complejidad y el contexto de sus acciones.

Esta tecnología aún no existe. Algunos expertos, como Elon Musk, predicen que se creará en unos dos años, mientras que otros como Robin Li, director ejecutivo de Baid, una de las mayores tecnológicas de China, dice que llegará en una década.

Wainwright cree que podría verse en unos cinco años: "¿Seguro que sucederá en cinco años? No, pero creo que es posible. También es posible que lleve mucho más tiempo. Pero si hay algo que potencialmente puede cambiar el mundo, deberíamos tomárnoslo muy, muy en serio”, matiza.

No obstante, el ex trabajador señala que el motivo por el que renunció y luego firmó la carta no se debe a que encontró algo “aterrador”, ya que por ahora OpenAI solo está investigando la posibilidad de crear tecnología.

El cambio de OpenAI

El principal detonante de su renuncia fue el cambio de visión de la compañía, que comenzó como un laboratorio de investigación sin fines de lucro “con la misión de que esta tecnología realmente beneficie a la humanidad”, tras el enorme éxito ChatGPT en 2022.

“Creo que las motivaciones que impulsan a OpenAI en sus acciones cotidianas son casi en su totalidad incentivos para obtener ganancias”, asegura Wainwright.

Los principales riesgos de la IAG

Wainwright subraya tres riesgos de la IAG: que las máquinas sustituyan a los trabajadores –sobre todo de los trabajos cualificados–; el impacto social y mental, ya que la gente podría tener un amigo/asistente personal de IA y, por último, el control de la tecnología.

“El riesgo de alineación a largo plazo se produce si se obtiene un modelo que es más inteligente que los humanos. ¿Cómo se puede estar seguro de que ese modelo realmente está haciendo lo que el humano desea que haga o que la máquina no tenga un objetivo propio? Y si tiene un objetivo propio es preocupante”, explica.

Wainwright piensa que las grandes empresas de la IA respetarán las regulaciones, el problema es que por el momento no se han implantado, es por ello que los empleados de este sector piden en su carta que se cree un sistema en el que los trabajadores puedan alertar a un organismo independiente de los peligros que ven en sus empresas.

Según el ex empleado, el problema de los gigantes de la IA no es la falta de seguridad, sino la rapidez a la que se enfrentan debido a la rivalidad de las empresas, sobre todo entre OpenAI y Google.

“El hecho de que nadie quiera que ocurra un desastre no significa que vayan a tomarse el tiempo para asegurarse de que no suceda. Ya que existe el incentivo de competir y vencer a todos los demás”, resalta.

El Parlamento Europeo ratificó en marzo la Ley de IA de la Unión Europea (UE), la primera que regula esta tecnología en el mundo, aunque no será hasta 2026 cuando entre en vigor y, según anunció este jueves la prensa especializada, los reguladores de Estados Unidos abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para analizar su influencia en el sector.

Fuente: EFE

Más contenido de esta sección
La Autoridad Reguladora de Telecomunicaciones Palestina (ART) informó este jueves que todos los servicios de internet y telefonía fija en la Franja de Gaza han sido interrumpidos, según la agencia de noticias palestina Wafa y confirmado por EFE en el terreno.
La Coalición por los Derechos Humanos de los Inmigrantes (CHIRLA), una organización con más de 35 años de historia en Los Ángeles, se defendió este miércoles de las acusaciones hechas por un senador republicano por supuestamente “financiar los disturbios”.
Brasil registró el año pasado una caída del 6,3% en los homicidios dolosos, con 35.365 casos en 2024 frente a 37.754 en 2023, pero los feminicidios alcanzaron un récord histórico, con 1.459 víctimas, un aumento del 0,69% respecto al año anterior, informó el Ministerio de Justicia este miércoles.
Las autoridades israelíes denegaron la entrada en Gaza a hasta 58 miembros de equipos médicos de emergencia, un 44% del total, desde la ruptura del alto el fuego a mediados de marzo, indicó un informe de la Organización Mundial de la Salud (OMS) que denuncia este y otros obstáculos a sus actividades en la Franja.
El presidente estadounidense, Donald Trump, dijo este miércoles que como parte del pacto comercial con China, aún pendiente de aprobación, EEUU impondrá un 55% de aranceles sobre Pekín, que a su vez mantendrá un 10% de gravámenes a Estados Unidos.
El papa León XIV animó a hacer “todo lo posible” para conseguir lo que se desea, “incluso cuando los demás te reprenden o te humillan”, durante la catequesis de este miércoles de la audiencia general que celebró en la Plaza de San Pedro ante miles de personas.