21 ene. 2025

Superordenadores de Europa estarán a disposición de Inteligencia Artificial

La Unión Europea (UE) considera que la Inteligencia Artificial (IA) mejorará la asistencia sanitaria, impulsará la productividad e incluso abordará el cambio climático. Mientras se debate aún las normas de regulación.

25090839

La Unión Europea (UE) abrirá el uso de sus ordenadores de alto rendimiento a las empresas que desarrollan Inteligencia Artificial, a fin de que esta tecnología con grandes posibilidades, pero también riesgos evolucione dentro de unos límites éticos, según anunció la pasada semana la presidenta de la Comisión Europea (CE), Ursula von der Leyen.

“Puedo anunciar hoy una nueva iniciativa para abrir nuestros ordenadores de alto rendimiento a las nuevas empresas de Inteligencia Artificial (IA) para que entrenen sus modelos”, dijo Von der Leyen durante su discurso sobre el Estado de la Unión en el pleno del Parlamento Europeo en Estrasburgo (Francia), que tuvo lugar el miércoles último.

Mejorar sanidad. La política alemana aseguró que la IA mejorará la asistencia sanitaria, impulsará la productividad o abordará el cambio climático, pero destacó que “tampoco debemos subestimar las amenazas muy reales”.

Recordó que cientos de destacados desarrolladores, académicos y expertos en esa tecnología advirtieron recientemente de que “mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear”.

En ese contexto, Von der Leyen dijo que “tenemos una oportunidad cada vez menor de guiar de forma responsable” esta tecnología, que avanza más rápido de lo imaginado.

Pilares normativos. Por ello, defendió que la UE y sus socios lideren “un nuevo marco mundial para la IA” basado en tres pilares: Guardarraíles, gobernanza y orientación de la innovación.

En el marco del primer pilar, Von der Leyen puso de relieve la “pionera” Ley de Inteligencia Artificial impulsada por la UE para que esa tecnología “se desarrolle de forma transparente, responsable y centrada en el ser humano”. Pidió que esas nuevas normas, que se están negociando actualmente en Bruselas, sean adoptadas “lo antes posible” para que puedan entrar en vigor.

Por lo que respecta a la gobernanza, insistió en la importancia de crear a nivel mundial un panel similar al Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), el cual que proporciona los últimos datos científicos a los responsables políticos.

Ese organismo trabajaría en los riesgos y los beneficios de la IA para la humanidad con las aportaciones de científicos, empresas tecnológicas y expertos independientes.

“Esto nos permitirá desarrollar una respuesta rápida y coordinada a nivel mundial”, comentó.

Por lo que respecta al tercer pilar, sobre cómo orientar la innovación en IA de manera responsable, Von der Leyen recordó que la UE se ha convertido en “líder de la supercomputación” con 3 de los 5 superordenadores más potentes del mundo, algo de lo que “tenemos que sacar partido”.

La apertura de esos superordenadores a las empresas de IA solo será una parte de la estrategia para guiar la innovación, según Von der Leyen, quien abogó a su vez por un “diálogo abierto con quienes desarrollan e implantan” esta tecnología.

“Así ocurre en Estados Unidos, donde siete grandes empresas tecnológicas ya han acordado normas voluntarias sobre seguridad y confianza. Ocurre aquí, donde trabajaremos con las empresas de IA para que se comprometan voluntariamente con los principios de la Ley de IA antes de que entre en vigor”, comentó.

En su opinión, ahora es necesario “aunar todo este trabajo en torno a unas normas mínimas mundiales para el uso seguro y ético de la IA”.

Regulación necesaria. Mientras tanto, el presidente de Microsoft, Brad Smith, se mostró partidario en estos días que el Gobierno de Estados Unidos establezca una agencia independiente para regular los usos de la inteligencia artificial (IA) durante una sesión sobre privacidad y legalidad en el Senado.

“Requiramos licencias para los modelos de IA avanzados que se utilicen en escenarios de alto riesgo. Tengamos una agencia independiente que pueda vigilar de manera real y efectiva esta categoría”, dijo Smith ante un panel de senadores que lo cuestionaron sobre asuntos que iban desde la influencia de China hasta la seguridad de los adolescentes.

La reunión, la tercera convocada este año por el comité judicial del Senado sobre la IA, puede servir para dar una idea a los legisladores estadounidenses de los principales problemas y áreas de conflicto para una futura regulación de la tecnología.

En la sesión participaron además como testigos el científico jefe de Nvidia, William Dally, y el profesor de Derecho de la Universidad de Boston Woodrow Hartzog.

Los tres se mostraron a favor de que las autoridades intervengan en aspectos como la desinformación electoral o la protección de los datos de los usuarios.

Sin embargo, Smith se mostró reacio a subir la edad permitida para interactuar con su “chatbot” Bing, cuyo uso de la IA abrió las puertas a la implementación de los modelos grandes de lenguaje, como ChatGPT, en diversas aplicaciones y contribuyó a generar una nueva ola de preocupación en la industria.

El ejecutivo explicó que este tipo de herramientas pueden servir para ayudar a los estudiantes a mejorar su aprendizaje de materias como matemáticas o inglés, y no quiere limitar su uso a los mayores de 18 años, como le pedía un senador republicano.