I. Antecedentes de una sentencia pionera
El 15 de octubre de 2025 la Cámara Penal de Esquel (Provincia del Chubut, Argentina) dictó una sentencia pionera que se pronuncia sobre el uso indebido de inteligencia artificial generativa (IA Generativa) por parte del juez de primera instancia. Los firmantes de esta sentencia aprobada por unanimidad fueron los integrantes de la Cámara, magistrados, Carina Paola Estefanía, Martín Eduardo Zacchino y Hernán Dal Verme, cada uno de los cuales fundamentó su voto de modo separado.
Los antecedentes de este caso son los siguientes:
- • El acusado R.A.P., fue condenado en primera instancia a 2 años y 6 meses de prisión efectiva por un delito de robo simple.
- • La defensa apeló alegando valoración arbitraria de la prueba, nulidad de una pericia basada en videos de cámaras de seguridad y errores en la interpretación de la ley penal.
Durante la revisión de la sentencia de primera instancia, la Cámara Penal detectó la siguiente frase textual en dicha resolución: «Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar.»
Esa expresión reveló que el juez de primera instancia utilizó claramente un asistente de IA Generativa para redactar una parte sustancial de la sentencia, concretamente, la referida a la validez de ciertas pruebas de cargo relevantes (videos y pericia criminalística).
La sentencia recurrida no especifica qué herramienta de IA generativa usó el juez (¿Acaso ChatGPT, Gemini AI, Claude AI, Jasper AI, Perplexity AI o Deepseek AI? No se sabe), ni qué instrucciones («prompts») dio a la inteligencia artificial (IA). Esto ha impedido conocer el alcance real de la intervención automatizada de la IA en la decisión judicial impugnada.
La Cámara Penal de Esquel consideró que el juez de primera instancia:
- • Violó el principio de juez natural al delegar indebidamente la función jurisdiccional en un sistema de IA.
- • Infringió el debido proceso al incorporar un texto redactado por una IA sin control ni comunicación a las partes.
- • Omitió resguardar la confidencialidad de las personas mencionadas al incluir nombres reales en la redacción asistida.
- • Comprometió la trazabilidad y fundamentación lógica y legal exigida por la Constitución argentina y el Código Procesal Penal correspondiente.
Como consecuencia de lo anterior, el fallo de la sentencia de la Cámara de Esquel: :
- • Declara la nulidad de la sentencia de primera instancia y del juicio.
- • Ordena la realización de un nuevo juicio ante un juez de primera instancia distinto.
- • Remitie las actuaciones al Superior Tribunal de Justicia de Chubut para que investigue el uso indebido de IA por parte del juez actuante.
II. ¿Qué pasaría si un juez penal español (o de otra vía jurisdiccional) incurriera en una práctica similar a la del juez de primera instancia argentino?
La respuesta a esta pregunta me obliga a considerar cuatro perspectivas jurídicas de análisis:
1. Problemas desde la óptica del Reglamento de Inteligencia Artificial de la Unión Europea
Según el Reglamento 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024, el Reglamento de Inteligencia Artificial (LA LEY 16665/2024) (en adelante, el RIA) los sistemas de IA usados en el ámbito de la administración de justicia y, en concreto, los sistemas de IA destinados a ser utilizados por una autoridad judicial para ayudarle en su tarea de investigación e interpretación de hechos y de la ley, se consideran sistemas de IA de «alto riesgo» (artículo 6.2 y Anexo III.8 del RIA).
Los sistemas de IA de alto riesgo por su propia naturaleza antes de entrar en el mercado o en funcionamiento deben cumplir una serie de requisitos obligatorios (tener un sistema de gestión de riesgos adecuado; sus datos de entrenamiento, validación y prueba deben cumplir con determinados criterios de calidad; poner a disposición la documentación técnica del sistema de IA antes de su introducción al mercado; garantizar un nivel de trazabilidad y registro de su sistema de funcionamiento; deben estar diseñados y desarrollados de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso; y deben proporcionar precisión, solidez y ciberseguridad durante todo el ciclo de vida del sistema de IA) (artículos 8 a 15 del RIA). Con estos requisitos, los sistemas de IA de alto riesgo deberían poder superar una evaluación de la conformidad (artículo 43 del RIA), y una vez en el mercado, las autoridades nacionales les vigilarán (artículo 70 del RIA).
Los jueces y magistrados en España, si bien pueden perfectamente utilizar la IA en su quehacer cotidiano como un auxilio o complemento de su trabajo, solo deberían utilizar estos sistemas que acrediten que han superado la correspondiente evaluación de la conformidad
Desde la perspectiva del RIA, es verdad que la «IA Generativa», antes de considerarse propiamente un «sistema de IA» es más bien un «modelo de IA de uso general» (es decir, un modelo de IA entrenado con un gran volumen de datos capaz de realizar de manera competente una variedad de tareas distintas). No obstante, si una IA Generativa se adapta y utiliza oficialmente para la administración de justicia, en mi opinión, se le debería aplicar los mismos requisitos impuestos a todos los sistemas de IA alto riesgo por la sencilla razón de que actuaría como tal. Y es que conforme a los artículos 52 y 53 del RIA, los «modelos de IA de uso general» quedan sujetos a un régimen diferenciado, al ser fine-tuned para la justicia, entrarían en el ámbito de alto riesgo.
Por tanto, los jueces y magistrados en España, si bien pueden perfectamente utilizar la IA en su quehacer cotidiano como un auxilio o complemento de su trabajo, solo deberían utilizar sistemas de IA que acrediten que han superado la correspondiente evaluación de la conformidad.
2. Riesgo de verse afectado por el llamado «sesgo de automatización»
El juez de primera instancia cuya sentencia ha sido anulada (y lo mismo se puede decir de un juez español que utilice la IA Generativa de modo similar a como lo ha hecho su homólogo argentino) ha incurrido en lo que se conoce como «sesgo de automatización». Este sesgo se produce cuando quién realiza la «supervisión humana» del sistema de IA no es consciente de que no se puede confiar automáticamente o en exceso en los resultados de salida generados por un sistema de IA de alto riesgo y, en particular, en aquellos sistemas de IA que se utilizan para aportar información o recomendaciones con el fin de que personas físicas adopten una decisión, como ocurre cuando se utiliza la IA para la emisión de una sentencia. Así lo recuerda el artículo 14.4.b) del RIA.
Y es que los resultados de salida de una IA Generativa pueden ser «alucinaciones» (aquí incluyo, la interpretación errónea de datos, la invención de fuentes de información, los «outputs» que son producto de sesgos durante el entrenamiento de los datos, y los errores generados como consecuencia de falta de contexto) por lo que el juez no se puede fiar en el resultado de la IA sin realizar la debida supervisión.
3. Problemas relacionados con la protección de datos personales
Dado que los sistemas de IA Generativa se basan en datos, una vez que los datos personales forman parte del conjunto de entrenamiento de la IA, contribuirán a la formación del modelo de IA y, de este modo, influirán en los resultados que la IA arroje. Estos datos podrían aparecer dispersos en los resultados solicitados por distintas personas que utilicen la misma IA Generativa, por lo que tales personas tendrán acceso a datos personales sin el consentimiento de sus titulares originales, a quienes además no necesariamente conocen. Esto es un problema desde la óptica de la privacidad.
Dada la complejidad de controlar cómo se utilizan los datos personales en los modelos de IA Generativa (por eso es muy recomendable leer previamente los términos y las condiciones de uso y las políticas de privacidad correspondientes), la gestión y el seguimiento de su uso se pueden convertir en una tarea titánica. Además, cabe resaltar que ninguna decisión de un tribunal de justicia debe basarse únicamente en el tratamiento «automatizado», a menos que se cumplan las condiciones descritas en el artículo 22 del Reglamento 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 (LA LEY 6637/2016), Reglamento General de Protección de Datos (en adelante, el RGPD). Cualquier «parte» en un proceso judicial que sea una persona física sujeta a un tratamiento automatizado de sus datos tiene el derecho a ser informada sobre la existencia de dicho tratamiento por parte del juez. Ella debe tener derecho, además, a recibir información relevante sobre la lógica subyacente de la decisión, así como sobre la importancia y las consecuencias previstas de dicha decisión automatizada y poder impugnarla.
En general, la atención y respuesta al ejercicio de los derechos de los titulares de los datos personales se torna difícil con el uso de la IA Generativa. En particular, hablo de los derechos de acceso, rectificación, supresión, oposición y limitación del tratamiento, reconocidos por el RGPD. Por consiguiente, los jueces en España, cuando utilicen la IA Generativa, deben tomar las precauciones necesarias para no utilizar en sus «prompts» y entradas datos personales de las partes e información confidencial.
4. Problemas relacionados con las garantías procesales
El uso de la IA en la justicia debe estar alineado con los principios fundamentales que gobiernan todo proceso judicial y que son una garantía del juicio justo o debido proceso: juez natural, igualdad de armas, imparcialidad y procedimiento contradictorio (artículo 24 de la Constitución española (LA LEY 2500/1978) y las normas procesales que lo desarrollan como la Ley Orgánica del Poder Judicial, la Ley de Enjuiciamiento Criminal y la Ley de Enjuiciamiento Civil).
En primer lugar, el uso de la IA, tal como lo ha hecho el juez argentino (y lo mismo diría si hubiera sido un juez español), hace imposible determinar qué parte de su resolución se debe atribuir al juez y qué parte a la IA. Estamos, por tanto, frente a una decisión mal justificada o incorrectamente motivada que afecta el derecho de defensa.
En segundo lugar, el juez no puede delegar todo o parte de su poder de decisión a una herramienta de IA. Si la decisión del juez se basara en los elementos resultantes de una IA Generativa, ello debería estar debidamente justificado y explicado en su resolución.
Téngase en cuenta que averiguar el por qué la IA Generativa ha generado un resultado concreto para resolver una concreta disputa, podría ser un objetivo matemáticamente imposible. La lógica subyacente detrás del «output» puede ser inexplicable incluso para el propio programador del software de IA. La motivación judicial es un asunto de responsabilidad exclusiva del juez.
III. ¿Y si la resolución judicial la dictara íntegramente una inteligencia artificial?
Al margen de lo antes dicho, la IA generativa provocará insoslayablemente que se configuren nuevas «arquitecturas» procesales o judiciales en determinadas áreas o materias (hablo, por ejemplo, de los juicios monitorios), donde veo recomendable confiar la resolución de una disputa en dicho ámbito íntegramente a una IA. Las partes, en dicho caso, deberán tener incólume su derecho a la segunda instancia, donde podrán discutir y refutar los resultados de la IA, solicitando la intervención humana (de un juez real).
Si bien ya existe la Carta Europea de Ética sobre el uso de la Inteligencia Artificial en los Sistemas Judiciales aprobada por la Comisión Europea para la Eficiencia de la Justicia (CEPEJ) en 2018, sería recomendable que el Consejo General del Poder Judicial aprobara unas directrices éticas y técnicas similares al Acuerdo Plenario 5435/25 del Superior Tribunal de Justicia de Chubut, que regulen el uso responsable de la IA Generativa en el ejercicio de la función jurisdiccional en España.