Víctor Ysmael Galeano
Victor-Galeano@uhora.com.py
Detectar a un extraño que intenta estafar a una persona vía telefónica puede ser fácil; pero, ¿y si el que llama a pedir que se le envíe dinero o sollozando indica que ha sido secuestrado y tiene la misma voz de un hijo, un amigo u otro ser querido?
Se trata del mismo delito de estafa, pero con nueva tecnología: La de IA generativa y ChatGPT. Utilizando estás herramientas se efectuaron en los últimos tiempos dos “secuestros virtuales”, en Canadá y otra más en la que una madre de Arizona vivió el terror del falso secuestro de su niña. En nuestro país, se investigan dos casos de estafa con IA.
Así lo confirmó para nuestro medio la fiscala Silvana Otazú, de la Unidad Especializada de Delitos Informáticos, quien mencionó que se llevan cuantificados dos casos de estafa mediante el uso de IA. De esos hechos no dio detalles, ya que aguardan respuestas de las proveedoras de sistemas informáticos de los Estados Unidos.
La agente mencionó que los avances en IA ya permiten replicar una voz con un audio de solo unas pocas frases, “que son accesibles en las redes sociales de la persona”.
Al respecto, refirió que las redes son armas al alcance del enemigo, teniendo en cuenta que las publicaciones son marcas permanentes.
Resaltó que se deben cuidar las publicaciones que incluyen a niños, sobre todo, los que empiezan a usar un aparato con acceso a internet. “Entusiasmados por la nueva experiencia, se lanzan a publicar sin darse cuenta de que un día podrían arrepentirse de lo que han publicado”, advirtió la fiscal.
Otazú detalló que un software de generación de voz analiza las características únicas de la voz de una persona (edad, género o acento), y busca en una amplia base de datos para encontrar voces similares y predecir patrones. A partir de ahí, el estafador puede decir lo que quiera con esa voz.
Sobre el punto, aconsejó, que si una persona llegase a recibir una llamada extraña, pero con la voz de un ser querido, cortar la comunicación y llamar al número conocido de la persona o a otro cercano que pueda brindar datos de quien supuestamente está solicitando ayuda.
Apuntó que la IA puede ser usada en procesos de desinformación, ya que el universo digital posee un gran poder de influencia y aconsejó moverse con precaución ante las fake news (noticias falsas), que en 2022 alcanzaron un crecimiento del 365% en países como España y el nuestro.
Referente a esto, recomendó “no compartir ni dar por bueno” cualquier contenido de la red. El internauta debe contrastar, revisar y asegurarse de que la información que se está leyendo es correcta, antes de difundirla, señaló.
Prueba policial. El comisario Diosnel Alarcón, jefe del Departamento Especializado en la Investigación del Cibercrimen de la Policía Nacional, adelantó que hasta ahora no se registraron denuncias de estafas, ligadas al uso de inteligencia artificial (IA) en la dependencia a su cargo.
Sin embargo, el jefe policial cedió a nuestro medio los resultados de unas pruebas del uso de IA, en la que con solo una fotografía de un agente policial y el audio de algunas palabras dictadas por el mismo, lograron hacer que se emita un mensaje.
El comisario refirió que el resultado es sorprendente, teniendo en cuenta que para el efecto se utilizó una aplicación básica, pero que la preocupación sube de nivel ya que utilizando aplicaciones prémium o software especializados, el resultado será prácticamente imperceptible.
Detalló que solo se necesitan de tres a cuatro palabras con la voz original de la víctima para generar cualquier mensaje sin que la persona lo haya dicho jamás. Esto puede ser usado a niveles superiores de estafa, secuestros inventados, en los que hasta el tono de voz puede ser alterado, como por ejemplo: Dar un tono de angustia que puede causar pánico en el destinatario. Por último, resaltó que la institución a su cargo aún no cuenta con herramientas forenses para análisis de voz, que permitan identificar los audios y videos falsificados, pero que aguardan contar con los elementos antes de que empiecen a registrarse este tipo de hechos.