LA INTELIGENCIA ARTIFICIAL EN EL PROCESO JUDICIAL: ‘E.JUSTICE’

Por Eduardo M. FAVIER DUBOIS.

INTRODUCCIÓN.

La e-Justice, también conocida como justicia electrónica o justicia digital, es un concepto que se refiere a la aplicación de las tecnologías de la información y la comunicación (TIC) en el ámbito de la justicia. Así, esta modalidad de trabajo judicial implica el uso de herramientas digitales y plataformas tecnológicas para mejorar la eficiencia, accesibilidad y transparencia de los procesos judiciales.
Su implementación tiene diversas consecuencias y beneficios. En primer lugar, se destaca que mejora la accesibilidad a la justicia al reducir las barreras físicas y geográficas.
Además, la justicia 5.0 agiliza los procesos judiciales al reducir la dependencia de los documentos en papel y permitir un intercambio más eficiente de información entre los diferentes actores judiciales, como abogados, jueces y fiscales. Esto conlleva una mayor rapidez en la tramitación de los casos, lo que beneficia tanto a las partes involucradas como al sistema judicial en su conjunto.
Ahora bien, cuando se utilizan herramientas de inteligencia artificial generativa (IAGen) en los trámites y resoluciones judiciales, la situación presenta grandes ventajas pero también importantes limitaciones, dificultades y opacidades en su funcionamiento práctico y garantías procesales, lo que ha dado lugar a recomendaciones y regulaciones.
Además, se está abriendo un trascendente debate sobre el eventual reemplazo de jueces humanos por jueces robots.

I.-FUNCIONAMIENTO Y EXPERIENCIAS PRÁCTICAS DE LA IAGen EN TRIBUNALES.

1.-EL USO DE LA I.A. GENERATIVA (IAGen).
Entre las diversas tecnologías que hacen a la Justicia Digital se destaca el uso de la IAGen.
La inteligencia artificial generativa es un área dentro de la inteligencia artificial que se enfoca en la creación de contenido nuevo. Utiliza técnicas de aprendizaje automático, especialmente aprendizaje profundo (deep learning), para generar resultados que no existían previamente.
La IA Generativa se refiere a sistemas diseñados no solo para reconocer patrones, sino para generar contenido nuevo que siga dichos patrones: pueden crear imágenes (ej. DALL-E, MidJourney), audio, o texto.
En el campo textual, destacan los Modelos de Lenguaje de Gran Escala (Large Language Models o LLMs) como GPT-4, entrenados sobre cuerpos gigantescos de textos (libros, artículos, sitios web) para predecir la siguiente palabra en una oración.
Los LLMs operan con cientos de miles de millones de parámetros, lo que les otorga flexibilidad para distintas tareas de procesamiento de lenguaje natural (NLP).
Hay muchas herramientas basadas en IAGen que pueden realizar distinto tipo de contenido como audio, video, imagen, texto, etc.
ChatGPT de OpenAI es el ejemplo más conocido de IA generativa enfocada especialmente en texto, pero también tenemos a Claude, Gemini, Copilot, Meta, DeepSeek, Grok, etc.
Estos desarrollos se basan en redes neuronales muy complejas, conocidas como “Transformers”, que son entrenadas con enormes volúmenes de texto —mayormente extraídos del mundo web— y que cuentan con una gran capacidad para procesar y generar lenguaje humano con alta precisión.
Lo interesante de la IAGen es que permite combinar:
Asistencia inteligente
Automatización
Detección inteligente
Predicción.
Para comprender rápidamente el funcionamiento de estos grandes modelos de lenguaje (LLMs) debemos saber que siguen un proceso estructurado que permite transformar texto de entrada en una salida coherente. Es decir, procesan el lenguaje natural para generar lenguaje natural.
Siguiendo a Chumbita podemos señalar que se cumple el siguiente proceso:
Promt, o entrada con las indicaciones, sugerencias, solicitudes, requerimientos y/o pedidos que les hacemos.
Tokenización, donde la instrucción se divide en unidades más pequeñas llamadas tokens, que pueden ser palabras, subpalabras o incluso caracteres individuales con una representación numérica.
Incrustación, en donde cada token se representa como un vector en un espacio de alta dimensión, lo que permite que el modelo pueda comprender mejor las relaciones semánticas entre los tokens y realizar posteriormente su predicción probabilística.
Codificación, en donde se toman los vectores de la incrustación y se procesa cada token dentro de su contexto, capturando información relevante de la secuencia completa de tokens.
Mecanismo de atención, es crucial y permite a la red neuronal ponderar diferentes palabras en una secuencia de entrada en función de su relevancia para el contexto. El objetivo principal es predecir la siguiente palabra (output), dada una cadena de palabras de entrada (input), con base en una probabilidad que surge del entrenamiento y los datos con los que cuenta. Es la inferencia por excelencia.
Salida, finalmente, el decodificador utiliza la información procesada por el codificador y el mecanismo de atención para generar la secuencia de salida, prediciendo token por token hasta completar la respuesta o el texto deseado. El resultado final es el texto de salida.

2.-VENTAJAS EN LA UTILIZACION EN LOS PROCESOS.
La IAGen de texto puede tener gran utilidad en la Justicia para superar la sobrecarga de trabajo.
Sus atributos pueden utilizarse para múltiples y diversas funciones, vinculadas o no con una etapa específica del proceso judicial.
Entre ellas se pueden destacar las siguientes:
Automatizar tareas repetitivas, mecánicas y estandarizadas como carga y despacho de escritos
Búsquedas de información, normativas y jurisprudencia.
Responder correos, notas y oficios.
Síntesis y análisis de escritos, documentos legales o judiciales.
Interpretación y valoración de reglas jurídicas aplicables.
Analizar documentos y chequear requisitos formales
Gestionar grandes volúmenes de datos y realizar cálculos complejos como la medición de daños indemnizables.
Enumerar y sugerir medios de prueba y evaluar pruebas complejas
Potenciar y profundizar argumentos jurídicos.
Realizar sugerencias y elaborar borradores de dictámenes
Analizar precedentes y efectuar predicciones
Redactar borradores de sentencias en casos simples y en casos complejos.
Gestionar la ejecución de sentencias, búsqueda de bienes y plataformas de remates.


3.-EXPERIENCIAS PRÁCTICAS.

3.1.-PANORAMA INTERNACIONAL.
En el caso del dictado se sentencias utilizando IAGen, hay dos posturas extremas, Francia y China.
Francia se opone al uso de la IA en las sentencias.
En cambio, China, tiene cerca d e80.000 jueces electrónicos para pequeñas causas y desde el 2019 se iniciaron las pruebas en las causas penales.
Por su parte, en la República de Estonia, los litigios inferiores a siete mil euros
son resueltos a través de un sistema con I.A., sin perjuicio de que luego esa decisión pueda ser apelada ante un magistrado humano.

3.2.-ESTADOS UNIDOS.
En Estados Unidos el sistema “Compas” consiste en un algoritmo que clasifica el riesgo de reincidencia de individuos previamente juzgados por delitos criminales y es utilizado por los jueces para tomar decisiones al respecto.
Dicho sistema fue severamente cuestionado por exhibir un sesgo notable hacia las personas afroamericanas que reforzaría los propios prejuicios de las y los jueces en sus sentencias. Su aplicación vulneraría los derechos humanos de ciertos grupos poblacionales, afectándose principios como el debido proceso e igualdad ante la ley y perpetuándose injusticias a un nivel generalizado y sistémico, basadas en tecnologías que no entendemos completamente, razón por la cual se ha propuesto el diseño ético y transparente de este tipo de herramientas.
Al respecto pueden señalarse algunas pautas jurisprudenciales norteamericanas que ponen límites a la utilización de la IAGen en tribunales.
Por ejemplo, la Corte Suprema del Estado de Wisconsin, en el caso Loomis , si bien rechazó el recurso, en sus considerandos sentó tres importantes definiciones:
(i) En el caso el sistema predictivo IA no fue el único elemento en que se fundó la sentencia condenatoria. A contrario sensu debe entenderse que la IA no puede ser el único elemento de fundamentación de una sentencia, caso en el cual se estaría violando el debido proceso.
(ii)Los algoritmos predictivos solamente proveen de información general sobre el riesgo de reincidencias para grupos análogos al de la persona del caso, pero no proveen predicciones respecto de una persona en particular. Para eso es necesario el «juicio» del juez, en el caso concreto.
(iii)Los algoritmos predictivos IA deben usarse con cuidado, ya que en tanto la propietaria se resguarde en su derecho de propiedad intelectual, no se puede saber a ciencia cierta el funcionamiento del algoritmo.

3.3.-COLOMBIA: “PRETORIA”.
La Corte Constitucional de Colombia utiliza el sistema “PretorIA”, que es un sistema de Inteligencia Artificial que busca mejorar el proceso de selección de tutelas de salud en la Corte. El sistema no busca reemplazar la tarea humana sino facilitarla al hacer un primer análisis de las miles de sentencias de tutela para entregarle información más procesada a quienes se encargan de identificar cuáles ameritan ser seleccionadas. Opera a través de cuatro funciones. La primera y principal es clasificar las sentencias de tutela de los jueces de instancia según las categorías establecidas por la Corte. Con esa clasificación, el usuario puede buscar en los expedientes la información de interés para el proceso de selección, hacer resúmenes no narrativos sobre las categorías detectadas y finalmente generar información estadística sobre el uso de la tutela en el país.
El sistema, que realiza predicciones basadas en “machine learning” de “caja blanca”, o sea verificable, fue desarrollado por el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la UBA (UBA IALAB)

3.4.-PERU: “TUCUY RICUY”.
El Poder Judicial del Perú aprobó y se encuentra en la implementación del proyecto “Tucuy Ricuy”, un software jurídico basado en inteligencia artificial, diseñado para combatir eficazmente la violencia contra las mujeres y los integrantes del grupo familiar. Esta herramienta digital busca optimizar el trabajo judicial sin reemplazar al juez, mediante el análisis estructurado de sentencias y la automatización de procesos, lo que permitirá mayor rapidez, accesibilidad, ahorro de recursos y control en línea, recibió apoyo financiero para su desarrollo del Banco Mundial.
El sistema detecta el tipo de violencia y nivel de riesgo, genera alertas inteligentes y automatiza los documentos asociados según la etapa procesal de que se trate. Este proyecto contempla:
Detección inteligente de la modalidad de violencia y nivel de riesgo.
Sistema inteligente de gestión de casos.
Automatización en la elaboración de documentos.
Calendario inteligente con alertas.
Tableros de visualización de estadísticas dinámicas

3.5.-CIUDAD DE BUENOS AIRES. “PROMETEA”.
“Prometea” es un sistema de inteligencia artificial desarrollado en 2017 por el Laboratorio de Innovación e Inteligencia Artificial (IALAB) de la Facultad de Derecho de la Universidad de Buenos Aires, en conjunto con el Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires. y también utilizado en la Corte Constitucional de Colombia, que destaca entre sus cualidades que el proceso del algoritmo es abierto, auditable y trazable y que es un proceso entrenado por los jueces.
Su principal objetivo es automatizar tareas jurídicas repetitivas, como la redacción de dictámenes y la clasificación de expedientes, para agilizar los procesos judiciales y liberar a los operadores jurídicos para que puedan centrarse en cuestiones complejas que requieren análisis humano.
El sistema funciona mediante el análisis de casos previos, utilizando inferencias estadísticas para proponer soluciones jurídicas y redactar documentos legales con gran precisión. Ha demostrado ser altamente eficiente, reduciendo, por ejemplo, plazos de resolución de procedimientos administrativos. En su faceta predictiva logra obtener la solución aplicable al caso en 20 segundos.
Prometea fue implementado exitosamente por el Ministerio Público Fiscal de CABA y también por la Corte Interamericana de Derechos Humanos, donde permitió generar automáticamente notificaciones y resoluciones en varios idiomas. Su impacto fue reconocido por organismos como el Banco Interamericano de Desarrollo (BID), que lo destacó como un modelo de transformación digital de la justicia en América Latina.

3.6.-PROVINCIA DE BUENOS AIRES: “EXPERTICIA” Y “VELOX”.
i.- “Experticia” es una IA creada en el marco de un convenio entre la Suprema Corte de la Provinciia. de Bs. As. con la Universidad Nacional de La Matanza, aprobado por Resolución SCBA Nº 855/19. Experticia se basa en la confección, por parte del usuario, de árboles binarios de decisión, a través de unos sistemas expertos, los cuales recibirán como parámetros de entrada referencias almacenadas en la base de datos y funciona dentro del sistema “Augusta”. Luego, se completará información relacionada con la causa, entregando como resultado uno o más trámites con los documentos, permitiendo automatizar el proceso de decisión en función del estado y datos del expediente electrónico de la Provincia de Bs. As.
ii.-“Velox”, es un sistema utilizado por la Fiscalía de Estado de la Provincia de Buenos Aires, también diseñado por el I.A.LAB, que se utiliza para la generación de la vista fiscal en los expedientes donde se reclaman intereses por mora en el pago de facturas.

3.7.-PODER JUDICIAL DE LA NACION: “HODOR”.
El Poder Judicial de la Nación cuenta con el Proyecto Hodor con la participación de la Unión de Empleados de la Justicia Nacional (UEJN). Este software se encuentra instalado en los servidores del Poder Judicial a través del trabajo de la Oficina de Sistemas y Tecnología de la Cámara Civil, y va a buscar automatizar los inicios de los procesos sucesorios ab intestato y sus diferentes despachos del sistema Lex 100.

3.8.-PROVINCIA DE RIO NEGRO.
En la Provincia de Rio Negro, se ha estandarizado y automatizado el dictado de sentencias de ejecuciones fiscales en el fuero Contencioso Administrativo sustituyendo, mediante inteligencia artificial, el control formal que antes hacia un empleado y dictándose la sentencia monitoria según un modelo consensuado por los jueces
Es así que desde febrero de 2025, Viedma, El Bolsón y Villa Regina utilizan inteligencia artificial del Poder Judicial para automatizar ejecuciones municipales (multas, tasas, ruidos, ambiente, etc.).
El sistema, antes usado en el ámbito provincial, ahora procesa deudas en el fuero Contencioso Administrativo con respaldo legal y firma digital.
La IA verifica identidad del deudor, validez del monto reclamado y situación judicial (quiebra o sucesión).
Si no hay observaciones, genera un proyecto de sentencia en minutos para la firma judicial; de lo contrario, lo deriva a personal administrativo.
Reduce tiempos de gestión: de 1 hora a solo 3 minutos por trámite.
Requiere estandarización de certificados municipales y coordinación técnica con el área de Informatización Judicial.

II.-DIFICULTADES SEÑALADAS POR LA DOCTRINA.
No obstante su enorme utilidad práctica, la doctrina señala algunos problemas o dificultades en el uso de la IAGen en los tribunales, destacándose los siguientes:

i.-Acceso limitado por la brecha digital.
Existe un lado oscuro: la brecha digital, la dificultad de acceso, el analfabetismo digital, las carencias tecnológicas en los insumos, situaciones de vulnerabilidad socioeconómica y cultural que afectan, dificultan o imposibilitan dicho acceso

ii.-Indistinguibilidad
Es muy difícil distinguir si un escrito es de autoría de un abogado o si ha sido elaborado o mejorado con IAGen.
A tales fines, han aparecido detectores de contenido artificial que son herramientas diseñadas para analizar y determinar si cierto contenido ha sido creado, reformulado o mejorado por modelos generativos.
Se basan en la predecibilidad de los textos, su uniformidad, inconsistencias y combinaciones inusuales que presentan los modelos generativos y los diferencian de las escrituras jurídicas humanas.

iii.-Violación de derechos de autor..
En muchos casos los contenidos volcados por la IAGen, se encuentran protegidos por derecho de autor y son vulnerados en su utilización.

iv.-Violación de la privacidad.
Cuando se consulta un caso a la IAGen, los datos de la causa suben a la web y pueden ser conocidos por todos violándose el derecho a la privacidad.
Ello hace necesario un proceso de “anonimización” de los datos antes de hacer la consulta o trabajar con sistemas cerrados no conectados.

v.-Alucinaciones.
Es sumamente importante destacar que la “IA Generativa” no es una “IA General”, por lo que no se la puede asimilar al pensamiento humano. Es decir, no es reflexiva y sólo se limita a arrojar el output (resultado) tras procesar el prompt (instrucción inicial o pregunta del usuario), sin comprender lo que está haciendo. De esta manera, pese a sus logros, estos modelos, al día de hoy, carecen de entendimiento genuinamente humano: funcionan por correlación estadística, no por raciocinio consciente, lo que implica que pueden cometer errores factuales o lógicos (fenómeno de alucinación o generación de contenido verosímil, pero incorrecto) 
Prueba de ello es el creciente número de sanciones impuestas a abogados en tribunales de Estados Unidos, quienes han sido penalizados por confiar excesivamente en los resultados proporcionados por ChatGPT. Esta herramienta, en múltiples ocasiones, ha generado precedentes ficticios que se alinean artificialmente con los argumentos que se desean presentar en juicio.
Vale decir que las alucinaciones son las respuestas incorrectas o inventadas, con apariencia de verdad por su coherencia, que generan estos sistemas.
Pueden ser invención de hechos, jurisprudencia, doctrina o normas, resultados numéricos, orden cronológico, autorías incorrectas o legislación aplicable.
No pueden eliminarse por completo porque son una consecuencia inherente a la manera en que los modelos de lenguaje procesan la información y, además, se vinculan al proceso “creativo” de la IA generativa.
Existe un modo de reducción de alucinaciones mediante el método Retrieval Augmented Generation (RAG), donde se combina la generación de textos con la recuperación de información en tiempo real sobre bases de datos externas, permitiéndole acceder a información actualizada y específica durante la generación de sus respuestas.
No obstante, un estudio evidenció que a pesar de dichas herramientas no se logra eliminar el problema de las alucinaciones.
Ante ello, resulta siempre necesario supervisar estrictamente los resultados generados por estas herramientas.

vi.-Sesgos.
El uso de la IA en tribunales presenta los problemas de los sesgos ya que si el algoritmo aprende de todo aquello que lee y, por tanto, si se lo entrena a partir de textos de internet, pueden colarse sesgos difundidos en las conversaciones de la web en materia de género, racismo, edadismo, etc.
El riesgo real, conociendo la tecnología, no es el sesgo en sí, sino la creencia errónea de que no existen sesgos y la consecuente falta de análisis crítico del contenido generado.

vii.-Falta de explicabilidad: Cajas negras.
La trazabilidad o transparencia Implica la posibilidad de verificar y documentar cada parte del proceso algorítimico, desde su inicio hasta su finalización permitiendo identificar qué elementos contribuyeron al resultado (datos de entrenamiento, ajustes, sesgos, etc.).
Se trata de elementos requeridos especialmente en el contexto judicial donde las decisiones impactan sobre los derechos y garantías.
Sin embargo, los modelos operan como cajas negras ya que si bien producen respuestas basadas en cálculos que las convierten en máquinas probabilísticas, el razonamiento interno que lleva a esas respuestas no es directamente accesible ni comprensible ni siquiera para los que lo desarrollan y, mucho menos, para los usuarios.
Ello en tanto operan con millones de parámetros que interactúan de manera no lineal, lo que hace imposible rastrear de manera exacta la cadena de decisiones que llevó a un resultado determinado.
Tal situación contradice las exigencias de las decisiones judiciales donde debe exponerse claramente el razonamiento jurídico que llevó a esa decisión, con un desarrollo argumentativo que haga explícita la interpretación y aplicación de las normas, sea suficiente y debidamente motivada, de modo que la sentencia no dependa de apreciaciones personales o consideraciones implícitas.

viii.-Pérdida del pensamiento crítico.
Uno de los principales efectos negativos del uso excesivo de la IA en los tribunales es la atrofia del razonamiento crítico. Tradicionalmente, la carrera de Derecho en Argentina se ha basado en el análisis profundo de normas, la interpretación de fallos y la argumentación jurídica. Sin embargo, cuando los abogados y jueces delegan estas tareas a programas de IA, pierden la oportunidad de desarrollar las habilidades que son la esencia misma del ejercicio profesional.

ix.-Contaminación de los operadores.
La interacción con estos sistemas, según estudios, puede contaminar el pensamiento de los jueces reforzando información incorrecta o engañosa, incrementando la confianza en el sistema generándole un anclaje cognitivo.
Alguno de los recaudos para evitar esto consiste en exigir que los jueces proporcionen el contenido completo de sus interacciones con la IAGen (preguntas y respuestas).

x.-Prueba de oficio violatoria del debido proceso.
De usar el juez la información que resulta de la big data y le es aportada por la inteligencia artificial, ello implica utilizar elementos no suministrados por las partes lo que implica utilizar prueba producida de oficio en violación de las reglas de la “litis contestatio” y de congruencia del proceso, afectando la garantía constitucional de defensa en juicio.

xi.-El “prompting Engineering” como solución parcial.
A efectos de superar algunas limitaciones o dificultades del sistema, como por ejemplo las alucinaciones, se considera indispensable capacitar a los operadores jurídicos en el denominado “promting engineering”, materia que consiste, en primer lugar, en elegir la plataforma adecuada para el tipo de tarea a desarrollar y, luego, en formular las preguntas y requerimientos adecuados para que la máquina conteste en forma completa y sin alucinaciones, considerando que se trata de un verdadero co-working entre humanos y máquinas.
Es así que en su funcionamiento para usos profesionales (como es el caso del abogado) resulta clave el modo en que se pregunta al chat, denominado como “prompt”.
Las preguntas deben ser adecuadas a la respuesta que se busca y pensadas para evitar las “alucinaciones”, o sea los inventos por parte del sistema que siempre buscará darnos la razón.
A tales efectos, en el caso de abogados que usan la IAGen, se han formulado algunas recomendaciones que transcribimos como ejemplos:
1.-Rol: Pedirle que conteste como lo haría un experto, abogado, juez o docente. Como si le explicara algo a un tribunal o a un cliente lego.
2.-Formato: Determina el formato, estilo, extensión y nivel de preparación del resultado (listo para usar). Pedirle una estructuración: una tabla comparativa, lista de pasos a seguir, lista de verificación para evaluar cumplimientos, chek list, etc.
3.-Contexto personal y jurisdiccional: quien es el que pregunta, que hace, para quien es la respuesta, perfil del cliente si correspondiera. Decirle donde estamos legalmente, país, estado, fuero, ley, etc.
4.-Finalidad: Referirle las expectativas sobre la respuesta. Para qué me será útil.
5.-Razonamiento paso a paso (para validar el resultado). Pedir que nos muestre su lógica paso a paso. Obligaciones principales, incumplimientos, evaluar causales de eximentes, concluir si hay incumplimiento y daño. Interpreta el artículo: supuesto fáctico, interpretación literal, sistemático, teleológico, histórico, conclusión integrada.
6.-Ejemplos. Mostrar un par de ejemplos de entrada y salida. Luego solo la entrada y pedir la salida. Clasificación de cláusulas; Pedir ejemplos de lo que dice.
7.-Patrón comparativo: Pedirle que compare y contraste conceptos. Derecho comparado. Criterios. Normas. Interpretaciones.
8.-Análisis ético: Darle un caso y pedirle que lo evalúe con argumentos económicos y jurídicos. Dilemas éticos. Confidencialidad vs. prevenir daños graves. Normas deontológicas
9.-Hacer una simulación. Pedirle que actúe como lo haría un abogado frente a un testigo hostil, u otras situaciones, definiendo roles y objetivos.
10.-Verificación de hechos (contra los inventos), pedirle que ella misma identifique los hechos claves cruciales que invoca y haga un listado
11.-Filtro semántico: (por confidencialidad). Pedirle que elimine o modifique los nombres propios, anonimizando.
12.-Dudas y Mejoras: Pregunta a la IA si necesita aclaraciones a tu prompt. Una vez obtenida la respuesta, pedirle que la mejore en general o en algún sentido.


III.-PRINCIPIOS Y REGULACIONES.

1.-RECOMENDACIONES PÚBLICAS.

1.1.-ORGANISMOS INTERNACIONALES.
La UNESCO recomendó el kit de herramientas global sobre IA y el Estado de derecho para el poder judicial, proporcionando —también— directrices sobre supervisión y control, destacando la importancia de la capacitación, la evaluación de sesgos y la anonimización de datos.
En 2024, la referida Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura amplió este análisis con un documento de consulta pública sobre el uso de sistemas de inteligencia artificial en juzgados y tribunales, que incorporó principios concretos como la transparencia, la explicabilidad y la rendición de cuentas, además de criterios de gobernanza y auditoría algorítmica para evitar que la IA afecte el debido proceso y los derechos fundamentales.
Por su lado, la Comisión Iberoamericana de Ética Judicial, en su dictamen del 12 de marzo de 2020, adopta un enfoque positivo pero prudencialista e instrumental, propone la utilización de la I.A. para tareas rutinarias y procesos cuantitativos, y destaca tres brechas: la brecha digital de acceso, la de capacitación del personal judicial y la de confianza en el servicio de justicia.

1.2.-REINO UNIDO.
Frente a su creciente utilización en los juicios, el Reino Unido elaboró una “Guía sobre el uso de la inteligencia artificial en la Justicia”, que rige desde diciembre de 2023 que señala ciertos principios como la previa capacitación del juez sobre las capacidades y limitaciones de la I.A., la preservación de la confidencialidad y privacidad de la información, la precisión mediante comprobaciones previas, ser consciente de los sesgos, la seguridad de los dispositivos de trabajo, asumir la responsabilidad y ser conscientes de que los profesionales pueden haber utilizado herramientas de la IA. Además, no recomiendan su utilización en la investigación jurídica.

1.3.-ARGENTINA.
En Argentina, el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires (UBA-IALAB) redactó la “Guía de Directrices para el uso de ChatGPT e IA generativa de texto en la Justicia, estableciendo recomendaciones para su aplicación responsable en el ámbito judicial, con énfasis en:
Alfabetización, sensibilización y capacitación permanente.
Uso responsable basado en la mitigación de riesgos
Control humano esencial previo y posterior: “Human in the Loop”, con prohibición de delegación en la toma de decisiones.
Comprensión de las limitaciones intrínsecas y externas de los grandes modelos de lenguaje.
Evaluación del impacto en el ámbito de aplicación.
Por su parte, el «Programa Nacional Integral de Inteligencia Artificial en la Justicia» (Res. MJN 111/2024) valoró positivamente la aplicación de la IA en la administración de justicia, pero considerando que la mejora de la transparencia, eficiencia en la gestión y calidad del servicio de justicia, requerirán de «…una implementación planificada, ética y responsable». En tal sentido dispuso la obligación del responsable del Programa de elevar anualmente al Ministro de Justicia de la Nación un plan de actividades, que tenga en consideración la «…evaluación del impacto a través de estudios y auditorías previas a la implementación en cualquier área del Ministerio o de la Justicia…» y el «…control de riesgos del uso de Inteligencia Artificial (IA)».

2.-ALGUNAS REGULACIONES.

2.1.-UNION EUROPEA.
El Reglamento Europeo sobre Inteligencia Artificial califica como de «alto riesgo» a determinados sistemas de IA como son los destinados a la administración de justicia y los procesos democráticos, «dado que pueden tener efectos potencialmente importantes para la democracia, el Estado de Derecho, las libertades individuales y el derecho a la tutela judicial efectiva y a un juez imparcial». Es así como a fin de «hacer frente al riesgo de posibles sesgos, errores y opacidades, procede clasificar como de alto riesgo aquellos sistemas de IA destinados a ser utilizados por una autoridad judicial o en su nombre para ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos». Igual criterio se sigue con relación a los sistemas de IA destinados a ser utilizados por los organismos de resolución alternativa de litigios con esos fines, cuyas decisiones surtan efectos jurídicos para las partes. La relevante disposición establece que los sistemas de IA pueden apoyar el poder de decisión de los jueces o la independencia judicial, pero no deben sustituirlas: la toma de decisiones finales debe seguir siendo una actividad humana. Tal calificación implica obligaciones en términos de gestión de riesgos, gobernanza de datos, mantenimiento de registros, supervisión humana, precisión, robustez y ciberseguridad, entre muchos otros requisitos.

2.2.-COLOMBIA.
El Acuerdo del Consejo Superior de la Judicatura de Colombia establece lineamientos generales para el uso de la IAGen en la rama judicial. El referido país adoptó una postura de control estricto sobre el uso de los grandes modelos de lenguaje, estableciendo que solo podrán usarse herramientas previamente determinadas, provistas, avaladas o habilitadas por el Consejo Superior de la Judicatura. Además, prohibió el uso de chatbots generales o comerciales de inteligencia artificial en sus versiones gratuitas y exige una evaluación previa de idoneidad antes de utilizar IAGen en tareas judiciales.
Para ello, destaca que los funcionarios deben supervisar y verificar manualmente cualquier uso, además de evitar el uso de herramientas cuyo entrenamiento no sea verificable. También deben documentar el uso en cada expediente, detallando qué herramienta se utilizó y con qué propósito. Esto busca garantizar que cada interacción sea transparente y que la responsabilidad de la decisión siga recayendo en los operadores judiciales. Además, el acuerdo enfatiza la primacía de los derechos fundamentales, la seguridad de la información y la capacitación obligatoria para jueces y funcionarios. Este es el marco regulatorio más restrictivo hasta ahora y busca prevenir el uso indiscriminado de estas herramientas sin un debido control.

2.3.-ARGENTINA
i.-Provincia de Río Negro.
El Superior Tribunal de Justicia de Río Negro, reguló el uso de IA generativa dentro del Poder Judicial provincial. No obstante, a diferencia de Colombia, se permite el uso de herramientas como ChatGPT, Gemini, Copilot y Claude, solo que su utilización requiere una autorización previa por parte del Comité de Informatización de la Gestión Judicial. Además, exige a los usuarios presentar un formulario de solicitud que debe ser aprobado por la Dirección General de Sistemas.
Por su parte, los magistrados y funcionarios deben validar la información generada por la IA antes de incorporarla en las actuaciones procesales y aplicar medidas de anonimización de datos en documentos procesados por la IAGen. También exige capacitación obligatoria y un registro formal de todas las solicitudes de uso. Esto significa que, aunque permita el acceso a estas plataformas, también mantiene un control estricto sobre la utilización para evitar riesgos como la generación de contenido erróneo, sesgado o inexacto.
En adición, el protocolo establece que cualquier contenido generado con IA debe ser revisado críticamente antes de ser utilizado en procedimientos judiciales, asegurando que no se delegue la toma de decisiones a estos sistemas. De tal modo, enfatiza que la adopción de la IA generativa estará sujeta a un seguimiento continuo y a ajustes regulatorios según sea necesario para mantener la integridad y confiabilidad de los procesos judiciales.

ii.-Provincia de San Juan.
El Protocolo de Uso Aceptable de la IA Generativa del Poder Judicial de San Juan fue aprobado por Acuerdo General nro.102/2024.
Permite el uso de ChatGPT, Gemini, Copilot y Claude, pero establece que su utilización debe ser autorizada previamente por la Dirección de Informática del Poder Judicial y exige que los usuarios completen una capacitación obligatoria antes de acceder a estas herramientas.
Además exige que los datos deban “anonimizarse” antes de compartirse y que los funcionarios reporten cualquier problema derivado del uso de estas herramientas. También establece que el uso de IA debe estar limitado exclusivamente a tareas judiciales y bajo supervisión humana. Se recalca que estas tecnologías deben servir como herramientas de apoyo y no como sustitutas de la labor de jueces y funcionarios, manteniendo el control humano sobre los resultados generados.
El protocolo enfatiza la transparencia y el control humano, exigiendo que los jueces y funcionarios sean responsables de verificar la precisión de los resultados generados por la inteligencia artificial. También menciona explícitamente que el incumplimiento de las reglas establecidas en el protocolo será considerado falta disciplinaria.
Para culminar, en pos de evitar errores o abusos en su uso, estableció medidas de control interno y supervisión periódica, garantizando que el impacto de estas tecnologías en la administración de justicia se mantenga dentro de un marco de responsabilidad y ética profesional.


IV.-EVALUACION.

1.-SOBRE LOS PROCEDIMIENTOS.
Como reflexión general se advierte que la “e.justice”, como sistema digital y automatizado, mejora la accesibilidad a la justicia al reducir barreras geográficas, agiliza los procesos y los hace más transparentes.
Sin embargo, presenta los problemas ya referenciados derivados de la brecha digital, la indistinguibilidad, los derechos de autor, la confidencialidad, las alucinaciones, los sesgos, las cajas negras no auditables que privan de explicabilidad, la pérdida de pensamiento crítico y contaminación de los operadores, y la prueba de oficio, todo lo que compromete al debido proceso y no garantiza la ética.
No obstante, muchos de estos problemas pueden ser eliminados o al menos reducidos con ciertos mecanismos, algunos impuestos en las normativas referidas, relativos a la educación y capacitación digital de usuarios y operadores, la “anonimización” de las partes, juramentos o comprobaciones de autoría, un promting calificado y específico, limitaciones probatorias a la big data y reglas rigurosas de transparencia, documentación e informes para los operadores.
Ahora bien, frente a la existencia de sesgos y ante la falta de explicabilidad, derivada de las redes neuronales impenetrables que, además, están protegidas por derechos de autor, la solución consiste en acudir a técnicas de ML menos complejas, que utilizan menos datos (Small Data), y que sean capaces de explicar su proceso lógico (v.gr., árboles de decisión).

2.-ACERCA DE LAS SENTENCIAS DICTADAS POR LA IA.
El tema más importante es el de posibles sentencias dictadas por jueces robots o por jueces humanos condicionados por los resultados de los algoritmos.
Al respecto, y más allá de los trascendentes reparos procedimentales señalados en el punto anterior, se formulan importantes críticas :

“Falta de discrecionalidad para atender al caso concreto”: no se puede prescindir del componente humano en las decisiones judiciales, incluso por mandato del propio legislador, cuando atribuye una amplia discrecionalidad al intérprete y, en particular, la aplicación de la correcta solución al caso específico. Ello teniendo en cuenta que la IA no percibe su entorno, no tiene consciencia ni emociones ni puede comprenden la vivencia humana, no entiende el mundo de la manera que lo hace una persona, carece de conocimiento del significado –en profundidad- de las palabras y de capacidad para contextualizarlas como lo hace la persona humana y carece de capacidad para comprender esta naturaleza dinámica y ofrecer una mirada novedosa y adaptativa del derecho. En definitiva, carece de capacidad para interpretar contextos específicos, detectar matices culturales o innovar en la interpretación de la ley.
“Solucionismo» prescindente del derecho y de la verdad, con una inversión de la cronología del proceso, donde el conflicto podría sobrevivir a la solución.
“Congelamiento de la jurisprudencia” sobre la base de los criterios dominantes, obstando a la creación de nuevas figuras jurídicas acordes a los cambios sociales dado el dictado de sentencias basadas en el almacenamiento masivo de información sobre decisiones judiciales previas. Es que no tiene capacidad para generar argumentos con ideas radicalmente inéditas que no estén en los datos con que fue entrenada, cuando la interpretación del derecho es de esencia dinámica y adaptativa.
“Industrialización y desprotección de vulnerables” en las áreas caracterizadas por los litigios masivos y de pequeño monto (ej: consumidores, laboral) ya que serían un campo fértil para la instalación de sistemas de decisión mediante inteligencia artificial, generándose una «industrialización» de la palabra y del juicio, también de lo amigable, propiciándose la aparición de subderechos en materias regidas por el orden público, con desprotección de los grupos vulnerables.
“Fin de la función social del juez”, y de esa «porción de alma» que ofrece a los justiciables al decidir un juez humano con equidad, ausente en algoritmos que no alcanzan a procesar adecuadamente la impredecibilidad del ambiente y son dependientes de una «educación» (o entrenamiento) muchas veces sesgada, que entraña riesgos que le son propios.

3.-LA DISTINCIÓN ENTRE CASOS “SIMPLES” Y “COMPLEJOS”.
Una forma de abordar el tema y encontrarle un cauce de tratamiento está en distinguir las sentencias a dictar en los casos sencillos de las que corresponden a los casos complejos.
Casos sencillos son aquellos en los que:
(i).-la actividad del juzgador se limita a un accertamento, esto es, la simple verificación de los hechos a una norma (por ej. multas de tránsito, divorcios por mutuo acuerdo o ejecuciones cambiarias) o;
(ii).- no se encuentran en juego bienes jurídicamente muy valiosos (como podrían ser, por ej., la vida, libertad o partes importantes del patrimonio).
Por su parte, casos complejos son todos aquellos que no encajan en la definición de casos sencillos, ya sea por el valor de los bienes jurídicos en juego o ya sea porque requieren una labor interpretativa más compleja de la norma y las circunstancias del caso.
En los casos sencillos podría resultar atendible, en primera instancia, la resolución exclusivamente sostenida por sistemas IA, siempre que además se provea al afectado de una vía recursiva ulterior en donde se pueda efectuar una amplia crítica a la resolución, ya sea a través de un recurso ordinario de pleno conocimiento o por una acción ordinaria posterior, con posibilidad de dejar, eventual y transitoriamente, en suspenso los efectos de la resolución dictada con base en IA.
De hecho, algo similar ya ocurre actualmente en los sistemas procesales, como ser, por ejemplo, con las vías ejecutivas cambiarias, los juicios de apremio fiscal, la “ingiuzione” italiana, etc., de indiscutido reconocimiento constitucional en la mayoría de los estados de derecho.
En los casos complejos, los sistemas IA podrían ser una herramienta de apoyo del juez, pero el «juicio» en todas las instancias deberá cumplir, sin excepción, con los estándares vigentes de fundamentación suficiente de las sentencias.

4.-REFLEXIÓN FINAL.

La inteligencia artificial puede cumplir tres funciones respecto de las personas humanas:
Ayudarlas en sus trabajos y hacer por sí los trabajos difíciles, peligrosos o imposibles para los humanos, haciendo mucho mejor la vida.
Desplazarlas, sea en sus empleos y actividades o en la capacidad de pensar, reduciendo oportunidades.
Controlarlas, vía los algoritmos en las redes sociales comerciales, la vigilancia biométrica estatal, o por haberse desarrollado una IA General con capacidades superiores a las humanas.
Siendo ello así, es muy importante el control en interés público de los desarrollos y aplicaciones de la IA de modo que no se aparten de los propósitos humanos ni contraríen a los derechos humanos.
En cuanto a la utilización de la IA en los procesos judiciales, resulta fundamental el control humano de los procesos (“human in loop”) y que los jueces de última instancia sean siempre humanos y no actúen condicionados por los algoritmos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio