En marzo de este año se publicó la segunda edición de la «Base de Datos Global de Directrices de IA en el Sector Público». Si revisamos los números, salta a la vista un dato contundente: el poder judicial no se está quedando atrás. De hecho, cerca del 20% de las normativas sobre IA a nivel mundial provienen de judicaturas.
Hasta ahora, tenemos registros de tribunales en 10 países (Argentina, Brasil, Canadá, Colombia, la Unión Europea, India, Nueva Zelanda, Perú, España, Reino Unido y Estados Unidos). El hecho de que no figuren otras regiones no implica que sus juzgados operen sin inteligencia artificial; más bien, lo hacen a puerta cerrada, sin marcos de compliance públicos. Esa opacidad es, en sí misma, una falla de gobernanza.
La forma de regular depende mucho del diseño de cada Estado. Argentina, por ejemplo, aprovechó su estructura federal para emitir casi una decena de lineamientos rápidos y descentralizados desde sus órganos provinciales. Brasil optó por la ruta opuesta, el Consejo Nacional de Justicia centraliza las directrices, siendo un pionero que reguló el tema desde 2020 y lo acaba de actualizar en 2025. Aún así, la ola regulatoria es muy nueva, ya que casi todos los documentos nacieron entre 2024 y 2025.
Lo que realmente diferencia a los tribunales del resto del gobierno es el peso de sus reglas. Mientras en el poder ejecutivo solo el 43% de los lineamientos son obligatorios, en la judicatura 19 de los 25 instrumentos imponen normas legalmente vinculantes. Los jueces no están sugiriendo buenas prácticas; están dictando reglas a cumplir.
Si miramos el aspecto técnico, antes de 2023 las reglas hablaban de la «automatización» en términos muy generales. Pero la irrupción de ChatGPT, Gemini o Copilot hizo cambios muy específicos pues 11 de los documentos recientes apuntan directo a la IA generativa. Un caso brillante es el del Poder Judicial del Callao en Perú, que armó una guía práctica con 22 prompts estandarizados para que los jueces integren la IA en el trabajo diario de las audiencias penales.
Casi todas las directrices cubren cómo planear, usar y auditar la tecnología. El problema está en el apagado de la misma. Existe un vacío enorme sobre cómo desactivar estas herramientas, cómo purgar los datos ingresados o de qué manera resguardar la memoria institucional una vez que un sistema se retira. En el derecho, donde preservar el registro probatorio es sagrado, ignorar este punto es un riesgo altísimo.
Sin importar el sistema jurídico, los tribunales de todo el mundo coinciden en cinco reglas de oro:
- Juicio humano: La IA jamás sustituye el criterio independiente del juez.
- Supervisión ininterrumpida: El control humano no se delega en ninguna etapa procesal.
- Privacidad absoluta: La confidencialidad del expediente es intocable y se defiende proactivamente.
- Verificación obligatoria: Todo resultado arrojado por IA generativa se audita a fondo antes de usarse.
- Responsabilidad directa: El funcionario responde personalmente por cualquier contenido que genere con ayuda tecnológica.
Para quienes litigamos, entender esto dejó de ser teoría para convertirse en una herramienta de defensa. Al incorporar sistemas propios en el despacho para automatizar expedientes o escanear y analizar sentencias, apegarnos a estos límites garantiza que la innovación juegue a nuestro favor, blindando el rigor técnico y la secrecía de nuestros representados.
Ahora, aunque en México actualmente nos falta una ley federal en la materia, los tribunales mexicanos ya empezaron a marcar una clara línea con precedentes vinculantes. En el último trimestre de 2025, se publicaron criterios (principalmente del Poder Judicial de la Federación) que perfilan cómo usar la IA de forma ética en los juicios.
Hoy, las judicaturas empiezan a avalar la IA como una herramienta de soporte —como ocurre al calcular matemáticamente los montos de las garantías en juicios de amparo amparos— siempre que el juez funde y motive constitucionalmente cada paso.
Para México, la tendencia descansa en tres pilares:
- Protección de datos: Cero filtraciones de la información contenida en los expedientes.
- Transparencia: Los algoritmos tienen que arrojar resultados trazables, explicables y que aguanten una auditoría.
- Decisión indelegable: La máquina no dicta sentencia. Esa carga recae exclusivamente en la persona juzgadora.
A la par, el Poder Judicial de la Ciudad de México ya emitió lineamientos al respecto. Reconocen abiertamente que la IA nos agiliza la investigación y la carga administrativa a los abogados postulantes, pero lanzan una advertencia muy clara: la tecnología no tiene facultades para impartir justicia.




