José Julio Fernández Rodríguez Catedrático de Derecho Constitucional de la Universidade de Santiago de Compostela
9 de febrero de 2026
1. La tecnología es uno de los rasgos definitorios de nuestro tiempo, con incidencia en todos los ámbitos de la vida social y personal. El mundo digital lo permea todo, de manera tal que nada será como antes. Incluso, superada ya una primera fase de la Sociedad de la Información, nos hallamos en el inicio de un segundo periodo, conformado por el crecimiento de las tecnologías disruptivas y la rutilante promesa (aún dudosa) de un mundo mejor.
En este orden de cosas, ya brilla con luz propia la inteligencia artificial (IA), que se ha expandido con pasmosa rapidez gracias a un rendimiento sorprendente y a una versatilidad no prevista. No cabe duda de que la incorporación de la IA en la función judicial abre oportunidades importantes, pero también plantea desafíos delicados, lo que nos exige cautela y análisis rigurosos.
Por un lado, la IA puede agilizar tareas administrativas, ayudar en la gestión de expedientes, facilitar la búsqueda jurisprudencial y mejorar la eficiencia en general. Estas aplicaciones permiten que jueces y operadores jurídicos dediquen más tiempo al análisis profundo y menos a tareas repetitivas. Sin embargo, su uso en la toma de decisiones judiciales reclama precaución. Los algoritmos pueden incorporar sesgos, ser poco transparentes o difíciles de auditar, lo cual podría afectar a principios esenciales como la igualdad, la imparcialidad y la motivación de las resoluciones. Además, la función jurisdiccional implica un juicio humano que integra valores, contexto y razonabilidad, aspectos que la IA aún no puede reproducir plenamente, aunque a veces lo imite.
Con base en lo dicho ya se puede dar una conclusión, al menos inicial: la IA puede ser una herramienta valiosa para mejorar la administración de justicia, siempre que (i) se utilice como apoyo, no como sustituto del criterio judicial y (ii) esté sujeta a las exigencias de los derechos fundamentales y a controles de transparencia y ética. Ya hemos visto incluso malos usos que han generado reacciones justificadas y cierta alarma en la opinión pública, como un reciente caso en Canarias, mal uso en Argentina o en nuestra justicia constitucional.
2. En este orden de cosas, el Consejo General del Poder Judicial, consciente de la problemática, ha aprobado la Instrucción 2/2026, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional, en la que se pretenden establecer, ni más ni menos, “criterios, pautas de uso y principios para la utilización de los sistemas de IA por los jueces, juezas, magistrados y magistradas en el ejercicio de la actividad jurisdiccional” (punto primero de la Instrucción). Con ello se pretende conseguir un marco claro, homogéneo y garantista para el uso de sistemas de IA en el ejercicio de la actividad jurisdiccional.
La norma parte del reconocimiento de que la IA puede ser una herramienta de apoyo relevante para la Justicia, pero también de que su utilización entraña riesgos significativos para derechos fundamentales, la independencia judicial y la confianza en el sistema judicial. El texto se inserta en el contexto del Reglamento Europeo de Inteligencia Artificial, que califica como de alto riesgo muchos de los usos de la IA en el ámbito judicial, y en la normativa española sobre transformación digital de la Justicia. En este marco, el Consejo General del Poder Judicial asume un papel central de supervisión y control, especialmente en lo relativo a la calidad de los sistemas, la auditoría algorítmica y la protección de datos personales, con el fin de salvaguardar la independencia judicial.
La Instrucción subraya que la función jurisdiccional es indelegable: corresponde exclusivamente a jueces y magistrados la valoración de los hechos y las pruebas, la interpretación y aplicación del Derecho y la adopción de decisiones judiciales. La IA solo puede utilizarse como una ayuda o instrumento de apoyo, nunca como sustituto del razonamiento judicial ni como elemento que condicione la libertad de criterio del juzgador. A partir de esta premisa, la Instrucción establece una serie de principios rectores para el uso de la IA (punto cuarto), entre los que destacan el control humano efectivo, la responsabilidad exclusiva del juez sobre sus resoluciones, el respeto a los derechos fundamentales, la confidencialidad y seguridad de los datos judiciales, la prevención de sesgos algorítmicos y la proporcionalidad en el uso de estas tecnologías. Asimismo, se pone énfasis en la necesidad de formación y capacitación de los miembros de la carrera judicial.
De igual modo, la Instrucción delimita de forma precisa qué sistemas de IA pueden utilizarse (punto quinto). Así, se estable que únicamente se emplearán aquellos facilitados por las Administraciones competentes o por el propio Consejo General del Poder Judicial, que previamente habrán sido sometidos a control y auditoría. Se permiten usos como la búsqueda de información jurídica, el análisis y organización de documentos, la elaboración de esquemas o borradores de trabajo interno y el apoyo a tareas organizativas, siempre sin carácter decisorio. En relación con los borradores de resoluciones judiciales generados mediante IA (punto séptimo), se establece que estos nunca pueden considerarse decisiones automatizadas y que su utilización exige una revisión crítica, completa y personal por parte del juez, quien conserva en todo momento la responsabilidad exclusiva del contenido final.
El texto también fija límites claros (usos no permitidos, punto octavo). En este sentido se prohíbe utilizar IA para sustituir decisiones judiciales, para condicionar la independencia judicial, para perfilar personas o predecir comportamientos fuera de los supuestos legales, para tratar datos especialmente protegidos sin habilitación normativa o para incorporar a resoluciones contenidos generados por IA sin validación judicial. Asimismo, se restringe el uso de herramientas de IA no autorizadas, permitiéndolas solo para tareas de estudio con información procedente exclusivamente de fuentes abiertas y sin introducir datos judiciales.
Finalmente, la Instrucción prevé consecuencias en caso de incumplimiento, refuerza las funciones de supervisión del Consejo General del Poder Judicial y establece la oferta de formación específica. La norma entra en vigor con su publicación en el Boletín Oficial del Estado (el 30 de enero de 2026), consolidando un modelo de uso de la IA en la Justicia basado en la prudencia, la transparencia y la primacía del juez como garante último del derecho al proceso justo.
3. La valoración genérica de esta Instrucción debe ser positiva, tanto porque denota una imprescindible concienciación en un tema que se ha vuelto esencial como porque es un texto jurídicamente correcto y coherente con el marco constitucional y europeo. Las primeras valoraciones así lo consideran.
Sin embargo, si profundizamos en un análisis más exigente las críticas emergen. En este orden de cosas, la Instrucción se asienta en una lógica de prudencia extrema. Su finalidad principal no es tanto integrar la IA en la función jurisdiccional como contener sus riesgos, especialmente en lo relativo a la independencia judicial y a la protección de los derechos fundamentales.
La norma insiste de forma reiterada en que la IA no puede sustituir al juez ni influir en la toma de decisiones, lo que resulta indiscutible desde el punto de vista constitucional, pero revela una desconfianza estructural hacia la tecnología. Esta actitud puede generar un efecto disuasorio en la práctica, llevando a los jueces a evitar el uso de herramientas potencialmente útiles por miedo a incumplir la Instrucción o a incurrir en responsabilidades. Uno de los principales puntos débiles del texto es la falta de concreción en la delimitación entre el uso legítimo de la IA como apoyo y una influencia indebida en el razonamiento judicial. Se formulan principios claros, pero se ofrecen pocos criterios prácticos para aplicarlos en el trabajo cotidiano. No se aclara, por ejemplo, hasta qué punto un sistema que sugiere estructuras argumentales, detecta incoherencias o compara patrones jurisprudenciales puede considerarse una ayuda legítima o un factor que condiciona el razonamiento del juez. Esta indeterminación deja un amplio margen de incertidumbre en la práctica diaria. A ello se suma un modelo muy centralizado, que limita el uso de la IA a sistemas facilitados por la Administración o el propio Consejo, con el riesgo de rigidez, obsolescencia tecnológica y asimetría frente a otros operadores jurídicos.
Asimismo, la Instrucción pone el acento casi exclusivo en la responsabilidad individual del juez, incluso cuando este utiliza sistemas diseñados y controlados institucionalmente, sin desarrollar una reflexión suficiente sobre posibles responsabilidades compartidas ni sobre el impacto positivo que la IA podría tener en la eficiencia del sistema judicial y en la reducción de cargas de trabajo.
En definitiva, la Instrucción ofrece un marco sólido de garantías, pero resulta más defensiva que proactiva. Es un buen punto de partida para evitar usos indebidos de la IA en la Justicia, aunque necesitaría mayor concreción práctica y una visión más equilibrada entre control, responsabilidad y aprovechamiento real del potencial tecnológico.
4. Sea como fuere, la tecnología avanza y las normas con las que tratamos de dominarla también lo deben hacer, de manera ágil y reflexiva, equilibrando seguridad, derechos y libertad, lo cual quizá sea cada vez más difícil. Deseamos que el Consejo General del Poder Judicial siga muy atento a la IA y que posea la capacidad y visión suficientes para seguir manteniendo en España una justicia independiente, moderna y clave en nuestra democracia.