- AFP
- PARÍS
La carta pública firmada por el magnate Elon Musk y centenares de expertos para que se haga una pausa en el desarrollo de la inteligencia artificial (IA) desató este jueves un debate en las redes entre los académicos.
Los avances vertiginosos de la IA llevaron a Musk, fundador del gigante de los autos eléctricos Tesla y actual patrón de Twitter, a firmar esa carta frente a lo que se califica de “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
A pesar de que la carta, publicada en el sitio futureoflife.org, fue suscrita por pensadores independientes como el historiador Yuval Noah Hariri o el cofundador de Apple, Steve Wozniak, algunos académicos protestan por lo que consideran una malinterpretación de la discusión.
Timnit Gebru, una investigadora especializada en ética de la inteligencia artificial, escribió un artículo académico que fue citado en la carta de Musk y sus correligionarios, y ahora se muestra descontenta.
“Básicamente dicen lo contrario de lo que decimos y citamos en nuestro artículo”, explica.
La otra autora del artículo, Emily Bender, califica por su parte la carta abierta de “embrollo”.
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores pueden entender, predecir o controlar de manera fiable”, afirman Musk y los expertos.
El director de Open AI, que diseñó ChatGPT, Sam Altman ha reconocido tener “un poco de miedo” de que su algoritmo se utilice para “desinformación a gran escala o ciberataques”.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, advierten.
Las académicas Gebru y Bender afirman en cambio que el peligro de la IA es “la concentración de poder en manos de gente, la reproducción de sistemas de opresión, el daño al ecosistema informativo”.
Uno de los firmantes de la carta abierta, Emad Mostaque, fundador de la empresa británica Stability AI, aseguró por su parte que se retractaba de la demanda de una moratoria de seis meses.
“No creo que una pausa de seis meses sea la mejor idea”, dijo en Twitter.
El profesor de Sicología Gary Marcus, firmante de la carta, considera en cambio en una contrarréplica que “los escépticos tienen que emitir una alarma; no hay ninguna contradicción al respecto”.
Aunque los gigantes del sector como Google, Meta y Microsoft ya llevan años investigando en los programas basados en IA para acelerar tareas como la traducción o la publicidad selectiva, son los algoritmos de empresas como OpenAI las que han provocado polémica.
Su robot conversacional ChatGPT, capaz de mantener conversaciones complejas con seres humanos, acaba de ser actualizado con una nueva versión GPT-4, aún más potente.
“¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”, señalan los firmantes de la carta.
ONU y Unesco expresan su preocupación
La ONU expresó su preocupación por los posibles impactos del rápido desarrollo de la inteligencia artificial (IA) y reclamó a las empresas del sector “responsabilidad” para evitar que estas nuevas tecnologías sean utilizadas con malos fines.
“Las tecnologías de inteligencia artificial pueden tener enormes beneficios en educación, ciencia... pero las empresas tienen que ser responsables con cómo esta información se difunde, porque puede generar abusos y ya lo hemos visto muy rápidamente”, señaló el portavoz Stéphane Dujarric.
Dujarric, preguntado sobre este asunto en su conferencia de prensa diaria, puso como ejemplo la modificación de imágenes, voces o textos que pueden derivar en división, violencia o desinformación.
El secretario general de Naciones Unidas, António Guterres, lleva años advirtiendo sobre los peligros de la inteligencia artificial y otras tecnologías y abogando por mecanismos de regulación.
“Uno de los desafíos que vemos con la inteligencia artificial, y con el sector tecnológico en general, es que opera principalmente fuera de un control gubernamental pleno”, explicó el portavoz.
En 2020, Guterres hizo pública una Hoja de Ruta para la Cooperación Digital, una amplia propuesta en la que analizaba cómo la comunidad internacional puede tratar de gestionar las tecnologías digitales para maximizar sus ventajas y combatir los problemas que plantean.
Por su parte, la Unesco pidió a los países que apliquen “sin demora” el Marco Ético Mundial sobre la inteligencia artificial, adoptado en 2021 de forma unánime por los 193 estados miembros de la organización y que busca “garantizar la transparencia y la accesibilidad” de los algoritmos sobre los que se basan estas tecnologías.
La petición llega después del llamamiento de más de un millar de científicos y expertos en tecnología hicieran para que se haga una pausa en el desarrollo de los sistemas de IA. EFE