POR GABRIELDUARTE LUNA (*)
En Paraguay, cada vez más estudios jurídicos experimentan con herramientas de inteligencia artificial como ChatGPT.
Pero detrás de su aparente precisión se esconden riesgos invisibles: alucinaciones, errores contextuales y vacíos de datos locales.
El desafío no está en preguntar mejor, sino en construir los sistemas que permitan responder con verdad.
La herramienta responde rápido, redacta con soltura y parece entender el contexto legal.
Sin embargo, esa fluidez es precisamente lo que confunde: ChatGPT no es una base jurídica ni un motor de búsqueda especializado.
No consulta jurisprudencias ni códigos locales; predice la palabra más probable según patrones estadísticos.
Cuando el modelo no tiene información, la inventa con naturalidad. A eso se le llama alucinación.
Y aunque no mienta con intención, tampoco distingue entre lo cierto y lo plausible.
Si una cita suena correcta, la incluirá aunque no exista; si una norma parece válida, la mencionará aunque pertenezca a otro país.
En derecho, esa diferencia entre coherencia y verdad no es técnica: es esencial.
El verdadero peligro no es la mentira, sino la falta de entendimiento del modelo de IA.
Las respuestas de la IA suenan correctas, estructuradas, con citas formales y lenguaje jurídico impecable. Pero sin una base verificable, esa precisión es solo una ilusión.
Algunas herramientas intentan mejorar integrando búsquedas automáticas en internet, aunque eso introduce nuevos riesgos: fuentes sin jerarquía, blogs mezclados con normativa real y artículos interpretados fuera de contexto.
El resultado puede ser elegante, pero jurídicamente inconsistente.
Por eso, la pregunta ya no es si la IA puede responder, sino si puede hacerlo desde una base verificada y contextualizada.
En los primeros análisis de jurisprudencia que hicimos con Predicelaw, encontramos esos mismos límites.
Incluso usando datos reales y siguiendo buenas prácticas, los modelos malinterpretan hechos, confunden actores o mezclan causas similares.
A veces, comprenden los fundamentos, pero no las decisiones; otras, invierten la relación entre demandante y demandado.
La solución no fue pedirle más al modelo, sino guiarlo mejor.
Diseñamos sistemas donde un agente principal distribuye las tareas entre scripts especializados: uno analiza hechos, otro decisiones, otro fundamentos, otro contexto procesal.
Sumamos revisión humana, con abogados verificando interpretaciones y ajustando sesgos.
Ese trabajo conjunto entre tecnología y criterio legal fue lo que convirtió una herramienta incierta en una aliada confiable.
DESCUBRIMIENTOS
El aprendizaje más revelador llegó al expandir los sistemas a otras jurisdicciones argentinas. De pronto, lo que funcionaba a la perfección en una provincia fallaba en otra.
Las estructuras de las sentencias, los términos empleados y los estilos de redacción eran distintos.
Descubrimos que no existe una inteligencia artificial jurídica genérica; cada país, cada región e incluso cada tribunal tiene su propio lenguaje.
El razonamiento jurídico no es universal; es cultural y normativo.
Por eso, antes de hablar de “IA en el Derecho”, hay que hablar de infraestructura de datos legales.
La inteligencia artificial no puede razonar si no tiene sobre qué razonar.
Necesita jurisprudencias digitalizadas, normas estructuradas y metadatos que indiquen quién resolvió, cuándo y con qué fundamento.
Sin esa base, la IA improvisa. Y en el derecho, improvisar es peligroso.
Hoy, lo que realmente funciona es la combinación entre tecnología y criterio jurídico.
Sistemas diseñados no solo para responder, sino para entender.
Modelos que aprenden del lenguaje local, del contexto normativo y del razonamiento de los jueces.
Soluciones que mezclan automatización con revisión humana, datos nacionales con análisis global.
Esa colaboración entre derecho e ingeniería, entre razonamiento humano y cálculo estadístico, es lo que está redefiniendo la práctica jurídica.
La inteligencia artificial es una herramienta extraordinaria.
Yo no la veo como un reemplazo al abogado, pero sí como una herramienta que transformará radicalmente su forma de trabajar.
El desafío es pasar de usar la IA como oráculo a usarla como asistente experto sobre bases verificadas. En Derecho, la precisión no se negocia, o la IA entiende el contexto, o alucina. Por eso, más que aprender a escribir prompts, necesitamos aprender a construir los sistemas que le dan sentido a esos prompts. Y ahí está el futuro del derecho digital en Paraguay y en la región: menos magia, más método.
La inteligencia artificial necesita jurisprudencias digitalizadas, normas estructuradas y metadatos que indiquen quién resolvió, cuándo y con qué fundamento.
(*) Ingeniero y especialista en datos e IA.
Cofundador de PrediceLaw y Lunap Services.
Es miembro del Decisionics Lab en la Universidad de Toronto.