@Raulramirezpy
El uso de la inteligencia artifical (IA) en la Justicia tiene una regulación por parte de la Corte desde el 4 de marzo pasado. Sin embargo, solo es aplicable a los magistrados de todos los fueros, pero no respecto a los abogados.
En otros países, las conversaciones y escritos elaborados a través de la IA pueden ser usados como prueba en contra. Recientemente, un Juzgado de Nueva York, Estados Unidos, estableció que las conversaciones con chatbots pueden ser utilizadas como evidencia en los juicios.
En América Latina hubo sanciones a abogados que utilizaron la IA generativa, lo que hizo que se presentaran fallos inexistentes como jurisprudencia, con lo que llamaron la atención a los mismos, y se comunicó su irregular actuación en los juicios.
Es que la facilidad con que se pueden pedir consejos legales o generar documentos a través del uso de aplicaciones como ChatGPT, Claude, Gemini o Copilot, en vez de consultar a los abogados, hace que la gente aproveche estas herramientas digitales.
No obstante, en el fallo del juez Federal de Nueva York, Jed Rakoff, se señaló: “No existe secreto profesional con una IA pública: al aceptar los términos del uso, el usuario habilita que sus datos sean entregados a autoridades regulatorias y usados para entrenar modelos”.
Y esta resolución, ya es modelo en otros países, teniendo en cuenta la utilización a nivel global de la IA. En otras palabras, todo lo que se dice ante estas plataformas puede ser usado en su contra.
En Estados Unidos, según las cables de las agencias de noticias, varios estudios jurídicos y analistas recomiendan a sus clientes tratar las plataformas de inteligencia artificial como entornos no confidenciales.
SANCIONES. Por su parte, en la Argentina, un Tribunal de la ciudad de Rosario llamó la atención a un abogado por haber usado chatbot de inteligencia artificial generativa, con lo que citó jurisprudencia inexistente para argumentar su recurso en segunda instancia.
Fue en un caso de indemnización por daños y perjuicios, donde al tener una resolución contraria, planteó recurso de apelación. En su escrito, citó dos fallos como jurisprudencia del propio Tribunal que iba a juzgar el caso en cuestión.
Ante esto, los camaristas pidieron aclaración al abogado sobre dos citas jurisprudenciales de ese mismo Tribunal que incorporó a su escrito, con lo que al final, el abogado se retractó porque las mismas fueron proporcionadas por un sistema de inteligencia artificial y no pudo hallarlas.
El Tribunal, al final, le llamó la atención porque comprometía la responsabilidad personal del profesional no solo ante la Justicia, sino ante su cliente, y sin informarle o autorizarle el uso de chatbot con IA generativa.
NULIDAD. En la Provincia de Chubut, Argentina, la Cámara Penal de Esquel anuló una sentencia penal porque el juez usó inteligencia artificial en su redacción. Es que, al revisar el fallo, halló frases usadas en las aplicaciones ChatGPT, sin que sean editadas.
La nulidad fue dictada de oficio, lo que hizo que preocupara a muchos magistrados. “La Cámara consideró que el fallo presentaba múltiples violaciones constitucionales y procesales. En primer lugar, se evidenció una falta de transparencia, ya que no se especificó qué sistema de IA se utilizó, qué datos fueron ingresados ni qué instrucciones se le dieron”, sostiene el fallo.
No obstante, esta resolución luego fue revocada por el Superior Tribunal de Chubut que consideró que la mera utilización de herramientas de inteligencia artificial en la elaboración de una sentencia no constituye, por sí sola, un motivo de nulidad.
SOLO MAGISTRADOS. En el Paraguay, la Corte Suprema ya dictó la regulación sobre la política del uso de la IA, que tiene como objetivo principal que los magistrados y funcionarios del Poder Judicial tengan usen ética, responsable, adecuada y en forma transparente la IA, para que se ajuste a la Constitución.
En la Resolución 12.677, da todos los principios rectores, reglas y prohibiciones, principalmente sobre la supervisión humana de su uso, la transparencia hacia las partes y la toma de decisiones que en todos los casos deben ser del magistrado.
La normativa dictada por la Corte Suprema constituye una herramienta necesaria ante los adelantos tecnológicos que se dan a pasos agigantados, por lo que no pueden quedarse rezagados en la regulación.
Respecto a los abogados en el Paraguay aún no se dieron casos, pero en otras partes del mundo dicen que se pueden utilizar como prueba en contra, ya que no existe secreto profesional con una IA pública, a más de haber sanciones por su uso irresponsable.
En Colombia hubo sanción por uso irresponsable
La Corte Suprema de Colombia sancionó a un abogado por el uso irresponsable de la IA, por presentar un recurso que sustentó en normas tergiversadas y en diez sentencias inexistentes. Señalan que el problema no es la herramienta usada, sino la omisión del deber profesional de verificación. Recordó que citar una norma o un precedente implica afirmar su existencia y su pertenencia al ordenamiento jurídico lo cual es un deber indelegable. El uso de IA no exonera de responsabilidad ni sustituye el juicio crítico del abogado.