Comparte
Author
apmnacional
Share
LA INSTRUCCIÓN 2/2026 DEL CGPJ SOBRE EL USO DE LA INTELIGENCIA ARTIFICIAL POR JUECES Y MAGISTRADOS
Por: Daniel González Uriel
El CGPJ acaba de dictar una instrucción en la que aborda la cuestión relativa al empleo de la IA, en el ejercicio de su función jurisdiccional, por los jueces y magistrados. Sin duda, se trata de una cuestión novedosa, problemática, discutida y discutible, dados los conflictos y debates que pueden surgir y, sobre todo, por la posible afectación a los derechos fundamentales de los justiciables que se puede derivar de una utilización indebida de los sistemas de IA. En efecto, no se le pueden poner puertas al campo, y la IA, con la imparable e incesante revolución tecnológica en la que nos hallamos inmersos, ha venido para quedarse. Las potencialidades y funcionalidades que brinda a todos los usuarios de las TIC no resultan indiferentes para la función jurisdiccional. Sin embargo, el hecho de reconocer la utilidad de las herramientas de IA, la facilitación del trabajo y el posible recurso a ellas en aspectos puntuales, concretos y precisos, no pueden llevarnos a consentir una suerte de delegación de la función judicial, ni a suavizar, relativizar o distorsionar la exigencia de que las resoluciones judiciales sean confeccionadas por el juez o magistrado competente. Cualquier otra comprensión de la exclusividad jurisdiccional nos llevaría a desvirtuar el sentido de los derechos fundamentales a la tutela judicial efectiva, a un proceso con todas las garantías y al juez imparcial.
Pues bien, el acuerdo por el que se aprueba la citada instrucción se publicó el 30 de enero de 2026 en el BOE, y comprende 14 artículos. En su exposición de motivos se explica que el propio Reglamento de la UE sobre IA considera como de “alto riesgo” el uso de la IA que puede incidir en el ámbito de actuación de los órganos jurisdiccionales. En este punto, centrados en una breve síntesis del contenido de la instrucción, podemos atender a su objeto, que se concreta en el art. 1 como el establecimiento de “criterios, pautas de uso y principios” para el empleo de los sistemas de IA por parte de los jueces y magistrados, en el ejercicio de la potestad jurisdiccional. En dicho precepto se agrega que la utilización de tales sistemas ha de ajustarse a lo dispuesto en la legislación aplicable -LOPJ, normativa de desarrollo, leyes procesales y cualesquiera otras aplicables-. En el art. 2 se describe el ámbito de aplicación de modo abierto, indicando que la instrucción hace referencia a cualquier sistema de IA que se pueda emplear, en el ejercicio de la función jurisdiccional, donde también tendrían cabida las herramientas de IA generativa. Por su parte, el art. 3 nos facilita una serie de definiciones para la mejor comprensión de la instrucción, recogiendo las descripciones de: (i) sistema de IA; (ii) herramientas de IA generativa; (iii) utilización de la IA en el ejercicio de la actividad jurisdiccional; (iv) datos judiciales; (v) datos personales; (vi) sesgo algorítmico; y (vii) fuentes abiertas.
En el art. 4 se enumeran nueve principios a los que se debe ajustar el empleo de los sistemas de IA por parte de los jueces y magistrados en el desempeño de su función jurisdiccional: (i) control humano efectivo; (ii) no sustitución de jueces y magistrados; (iii) responsabilidad judicial; (iv) independencia judicial; (v) respeto a los derechos fundamentales; (vi) confidencialidad y seguridad; (vii) prevención de sesgos algorítmicos; (viii) proporcionalidad y uso limitado; y (ix) formación y capacitación. Este artículo 4, norma principial, constituye el pórtico de acceso a lo mollar de la instrucción, los arts. 5-9, en los que se consignan los sistemas de IA permitidos y prohibidos, su uso legítimo e ilegítimo, y la posibilidad de emplear borradores de resoluciones generados mediante IA. Por lo que respecta al art. 5, limita los sistemas de IA que se pueden emplear en el ejercicio de la función jurisdiccional a los que sean facilitados por las Administraciones competentes en materia de justicia o por el CGPJ. Es decir, únicamente cabe el empleo de aquellas herramientas de IA que expresamente se pongan a disposición de los jueces y magistrados. Además, se apostilla que tales instrumentos serán controlados y auditados, en cuanto a su calidad, por el CGPJ. Mientras que el art. 6 circunscribe el empleo de tales sistemas de IA a meras funciones de apoyo o asistencia, ejemplificando tales aspectos en cuatro ámbitos: “a) Búsqueda y localización de información jurídica, incluida la identificación de normativa, jurisprudencia y doctrina relevante, así como la recuperación de antecedentes procesales o documentales. b) Análisis, clasificación y estructuración de información, documentos o datos contenidos en actuaciones judiciales, con fines de organización, comprensión o apoyo al estudio del asunto. c) Elaboración de esquemas, resúmenes o borradores de trabajo interno, siempre que no tengan carácter decisorio ni sustituyan la redacción personal de resoluciones judiciales. d) Apoyo a tareas organizativas o auxiliares, relacionadas con la gestión del conocimiento jurídico o con la preparación del trabajo jurisdiccional”.
La instrucción presta una especial atención a la confección de borradores de resoluciones mediante el empleo de sistemas de IA. Tan es así, que en el inciso final del art. 6 se remite al art. 7 para un desarrollo completo. Y es que, en el art. 7, se dispone una serie de pautas a las que ha de someterse el empleo de borradores de resoluciones judiciales generados mediante sistemas de IA, que podemos sintetizar en los siguientes elementos: i) solo se podrán elaborar mediante los sistemas de IA expresamente facilitados, por lo que opera una limitación en cuanto a las herramientas que se pueden utilizar; ii) será precisa una “revisión y validación personal, completa y crítica” por parte del juez o magistrado, que mantendrá, en todo momento, su responsabilidad por la resolución creada; iii) tales borradores no serán reputados como decisiones automatizadas; y iv) el juez o magistrado detenta el pleno dominio, dado que el borrador solo podrá ser generado a su voluntad, y ostentará plena libertad para modificarlo con anterioridad a que se valide como resolución judicial.
De la mayor relevancia es la enumeración de usos prohibidos de los sistemas de IA que se recoge en el art. 8: i) no se podrá sustituir, delegar ni automatizar la toma de decisiones judiciales, la valoración de las pruebas ni la interpretación del Derecho; ii) no se podrá condicionar ni la independencia judicial -ya sea directa o indirectamente- ni la libertad de criterio del juez o magistrado; iii) no se podrá asumir su contenido sin una validación que sea crítica, completa y personal; iv) no se podrán emplear tales sistemas y herramientas para el tratamiento de datos personales especialmente protegidos, o sometidos a deberes reforzados de confidencialidad; v) tampoco se podrán emplear -salvo las excepciones legalmente previstas- sistemas de IA que tengan como finalidades el perfilado de personas, la predicción de comportamientos, la evaluación de riesgos o la clasificación de sujetos; ni vi) aquellos otros que sean contrarios a los criterios, pautas de uso y principios establecidos en la instrucción.
En el art. 9 se atiende a los sistemas de IA prohibidos en el ejercicio de la función jurisdiccional: los que no hayan sido facilitados por las Administraciones Públicas competentes o por el CGPJ. No obstante, introduce una excepción a la prohibición, toda vez que tales sistemas sí que se podrán utilizar, exclusivamente, para finalidades de “preparación o estudio”, que ejemplifica en la elaboración de resúmenes, traducciones o análisis de fuentes jurídicas. En todo caso, en tales supuestos es preciso que la información manejada por los sistemas de IA proceda, única y exclusivamente, de fuentes abiertas. Por último, el art. 9 establece una puntualización de la mayor relevancia: no se podrán incorporar datos judiciales a dichos sistemas de IA no facilitados por las Administraciones competentes ni por el CGPJ.
El art. 10 muestra su preocupación por la salvaguarda de los datos personales, recordando, nuevamente, que los jueces y magistrados habrán de respetar plenamente la normativa en materia de protección de datos personales al utilizar sistemas de IA. Se recoge la prohibición de facilitar datos personales a sistemas de IA prohibidos. Además, se limita el tratamiento de los datos personales de los que se tenga conocimiento por el ejercicio de la función jurisdiccional, en el ámbito de la utilización de los sistemas de IA, a aquellos supuestos en los que sea estrictamente necesario para el fin de apoyo o asistencia perseguido y, en todo caso, que se haga de modo proporcionado, indicando expresamente que queda prohibido el tratamiento masivo o indiscriminado de datos judiciales.
El incumplimiento de los principios, criterios y pautas de actuación prescritos en la instrucción, según el art. 11, “podrá dar lugar a las responsabilidades que procedan”, remitiendo al régimen disciplinario de la LOPJ, sin perjuicio de que se deje abierta la posibilidad de que se ejerciten medidas preventivas o correctoras en el ámbito organizativo o de gobierno del Poder Judicial. Asimismo, el art. 12 atribuye al CGPJ las facultades de supervisión y control de la utilización de los sistemas de IA. Mientras que el art. 13 incide en la oferta formativa a los jueces y magistrados, en relación con la utilización de los sistemas de IA, y el art. 14 prevé su aplicabilidad desde el mismo día de su publicación en el BOE.
Podemos convenir en que resultaba conveniente y necesario que el CGPJ se pronunciase a propósito de un ámbito tan novedoso y con una elevada incidencia en el correcto ejercicio de la función jurisdiccional, ante la gran repercusión que tiene en la confianza de los justiciables en el sistema de justicia patrio. Máxime, a la luz de noticias en prensa sobre utilización indebida de sistemas de IA por parte de jueces y magistrados, así como en relación con experiencias similares acaecidas fuera de nuestras fronteras, en que se ha detectado la utilización herramientas de IA generativa, de modo acrítico, para elaborar resoluciones judiciales, lo que ha provocado la anulación de alguna sentencia en que se ha descubierto dicho uso indebido[1]. O, incluso, en el ámbito de la justicia constitucional, con la sanción impuesta por el TC a un letrado que, en su demanda de amparo, citaba de modo supuestamente literal pasajes de 19 sentencias del TC, entrecomilladas, pese a que ninguna de ellas era real[2].
Estos breves ejemplos ponen de relieve que nos hallamos ante una problemática real, que era preciso afrontar, y ante la que se debía brindar a los jueces y magistrados una serie de directrices claras y precisas. A grandes rasgos, la instrucción cumple con tales objetivos. Evidentemente, nos encontramos ante un primer paso, que ha de venir acompañado, de modo ineludible, de la formación, actualización y reciclaje continuos en dicha materia. En todo caso, se trata de una primera aproximación, toda vez que no se definen cuáles son esos sistemas de IA permitidos -más allá de la alusión a que sean facilitados por las Administraciones competentes o por el CGPJ-, por lo que habrá de aguardarse a su efectiva facilitación para pronunciarnos al respecto. Sin embargo, en lo esencial, la instrucción resume los principios y guías de actuación que han de ser observados y, esto es de suma relevancia, señala la posible responsabilidad disciplinaria en que se puede incurrir por un uso indebido o prohibido.
A este respecto, no podemos olvidar que la IA, bien utilizada, puede ser un magnífico soporte o apoyo, y que puede facilitar, en buena medida, el trabajo judicial. Dicho lo cual, y reconociendo su utilidad, no podemos sino mostrar nuestro mayor rechazo a un empleo masivo, acrítico e incondicional de dichos sistemas. No podemos amparar, bajo ningún concepto, que los jueces y magistrados hagan dejación de sus funciones y asuman, inopinadamente, sin revisar, controlar ni analizar, los textos generados mediante herramientas de IA. La carga de trabajo no puede ser una excusa para, precisamente, desatender ese trabajo y delegarlo en sistemas de IA generativa. No se trata de aplaudir al juez robot, sino de no fomentar al juez vago e incumplidor. Las resoluciones judiciales han de ser personales, estar motivadas y ser elaboradas, plenamente, por el juez o magistrado que la dicta. Además, hemos de ser conscientes del carácter confidencial de los datos y de la información que manejamos en los procedimientos judiciales, y los desconocidos riesgos que comporta su introducción en unos sistemas que, precisamente, hacen acopio de ellos a la vez que se les entrena –machine learning-, con la posibilidad de perfilados, de identificaciones personales y de propagación incontrolada de dichos datos.
Al hilo de polémicas recientes sobre empleo de IA en alguna resolución judicial, varias voces han señalado que la asunción acrítica del escrito del Ministerio Público por parte del juez instructor resultaba más grave que el uso de los meritados sistemas de IA, ante la existencia de una supuesta dejación de funciones del órgano judicial. Debemos puntualizar que semejante objeción no tiene en cuenta que la motivación por remisión a los informes del Ministerio Fiscal ha sido admitida por el TC. En concreto, el máximo intérprete constitucional ha señalado que, aunque no sea la forma de motivación más idónea, no resulta contraria al derecho a la tutela judicial efectiva. En este sentido, cabe citar la STC 5/2002, de 14 de enero, FF JJ 2, 3 y 4, en la que se afirma que: “(…) este Tribunal ha tenido ocasión de declarar que la técnica de la motivación por remisión no resulta contraria a las exigencias constitucionales, aun cuando las resoluciones judiciales se refieran a derechos fundamentales o libertades públicas e, incluso, en el caso de que adopten medidas restrictivas de los mismos [por todas, STC 127/2000, de 16 de mayo, FJ 3 c)]. También hemos puesto de manifiesto (por todas, STC 214/2000, citada, FJ 4) que la suficiencia de la motivación no puede ser apreciada apriorísticamente, con criterios generales, requiriendo por el contrario examinar el caso concreto para comprobar si, a la vista de las circunstancias concurrentes, se ha cumplido o no este requisito; e incluso en los supuestos en que se precisa una específica motivación, la determinación del concreto alcance del reforzamiento de la misma obligará asimismo a estar a las circunstancias presentes en cada caso. Por fin, debemos recordar que este Tribunal ha admitido la posibilidad de que los defectos de motivación padecidos por una resolución judicial puedan ser subsanados y reparados por la resolución que resuelve la impugnación formulada frente a aquélla (STC 225/1997, de 15 de diciembre, FJ 7, o ATC 321/1992, de 26 de octubre, FJ 5)”. De esta manera, cuando el juez o magistrado se remite a lo indicado por el Ministerio Público, está haciendo propio el contenido del informe, asumiéndolo y haciendo suyos, íntegramente, sus razonamientos.
Por el contrario, en el caso extremo que tratamos, el de un uso acrítico, irreflexivo y excesivo de los sistemas de IA, sería un empleo ilegítimo de tal herramienta en la que, en puridad, el instrumento sustituiría al juez, lo que resulta en todo punto proscrito y vedado. Pese a que hayan transcurrido pocos años desde la implantación y desarrollo de distintos sistemas de IA, ya se ha publicado una multitud de aportaciones doctrinales en las que se han puesto de relieve los peligros y riesgos inherentes a su uso por los jueces y magistrados, y se ha teorizado, incluso, sobre la viabilidad del “juez robot”. Con esta instrucción el CGPJ pone coto a tales pretensiones y recuerda lo esencial: que la función jurisdiccional es exclusiva de los jueces y magistrados, y que en modo alguno la IA puede afectar a la independencia judicial ni sustituir a aquéllos.
Además, y dentro de los peligros que conlleva el uso irreflexivo de sistemas de IA, no podemos pasar por alto que, en ocasiones, tales herramientas presentan alucinaciones y brindan respuestas que son manifiestamente incorrectas, pero que pasan por certeras por su verosimilitud. En este sentido, no es extraño que se entremezclen regulaciones nacionales, que se resuelvan cuestiones con base en normas de Derecho extranjero, en jurisprudencia foránea, que se utilice normativa derogada o que las conclusiones obtenidas sean abiertamente incoherentes para el usuario que no sea lego en la materia. Y, para muestra, un botón. Como reflexión final sobre la fiabilidad de estas herramientas, pensemos que existen sistemas de IA conversacional que afirman que Sirat es una buena película. Con lo que está todo dicho.
[1] Al respecto vid. https://www.lanacion.com.ar/tecnologia/se-acumulan-los-casos-del-uso-indebido-de-la-ia-en-la-justicia-argentina-nid20102025/.
[2] Tal y como se recoge en la Nota informativa 90/2024, emitida por el Gabinete de Prensa del TC, cuyo tenor literal se puede consultar en este link: https://www.tribunalconstitucional.es/NotasDePrensaDocumentos/NP_2024_090/NOTA%20INFORMATIVA%20N%C2%BA%2090-2024.pdf.
Daniel González Uriel
Letrado del Tribunal Constitucional
Magistrado (en servicios especiales). Doctor en Derecho



