INTELIGENCIA ARTIFICIAL

Unesco presenta marco global para regular la IA en cortes y tribunales



Dirección copiada

La Unesco presentó las directrices globales para el uso de sistemas de IA en la justicia, un hito para la IA en la justicia Colombia. El documento establece 15 principios éticos para evitar sesgos y garantizar la supervisión humana. Conozca cómo la Transformación Digital judicial avanza sin reemplazar el razonamiento jurídico calificado.

Publicado el 14 de ene de 2026

Sandra Defelipe Díaz

Periodista especializada en tecnología, en medios digitales, producción de contenidos y liderazgo editorial



'Directrices para el uso de sistemas de IA en cortes y tribunales'

La Inteligencia Artificial (IA) es transversal, está en todos los sectores y cada uno de ellos tiene complejidades puntuales. Ante este panorama, la Unesco publicó las ‘Directrices para el uso de sistemas de IA en cortes y tribunales‘, el primer marco ético y operativo con alcance global diseñado para orientar la Transformación Digital del sector judicial. El documento busca que la tecnología fortalezca el Estado de derecho sin comprometer los derechos fundamentales de la ciudadanía.

La guía surge como respuesta a una adopción acelerada pero fragmentada. Según el reporte, organismos públicos en América Latina y el Caribe ya pilotean cerca de 700 herramientas de IA , mientras que a nivel global, más de 36.000 actores judiciales de 160 países han participado en procesos de capacitación sobre el impacto de estos sistemas.

Colombia ha tenido una participación destacada en la elaboración de las Directrices de la Unesco para el uso de sistemas de IA en tribunales y cortes (2025), reflejada en múltiples niveles. El profesor Juan David Gutiérrez, de la Universidad de los Andes, fue el autor principal, mientras que Felipe Guzmán, consultor del Poder Judicial y Consejo Superior de la Judicatura, integró el panel de 20 revisores externos de América Latina.

La Corte Constitucional de Colombia contribuyó significativamente mediante la Sentencia T-323/24 (agosto 2024), que citó la Recomendación de Ética en IA de Unesco y validó el uso asistencial de IA, inspirando las directrices nacionales de diciembre 2024; además, entidades como el Centro para la Investigación del Cibercrimen (CIC Colombia), El Veinte y la Rama Judicial enviaron aportes durante la consulta pública de 41 países.

¿Cuáles son los principios fundamentales para una justicia algorítmica?

El marco de la Unesco se fundamenta en 15 principios universales que deben regir todo el ciclo de vida de los sistemas de IA, desde su diseño hasta su desmantelamiento. Entre estos destacan la transparencia, la explicabilidad y, por encima de todo, la supervisión humana significativa.

La normativa establece que la IA debe ser siempre una herramienta asistencial y nunca sustitutiva del razonamiento judicial. “Los sistemas de IA no son un sustituto del razonamiento jurídico calificado, el juicio humano o el asesoramiento legal personalizado“. En este sentido, la protección de los derechos humanos debe ser la prioridad, especialmente para evitar que los algoritmos perpetúen sesgos o discriminación contra poblaciones en situación de vulnerabilidad.

¿Cómo se está aplicando la IA en los sistemas judiciales actualmente?

El documento documenta casos de uso que ya transforman la operación de los tribunales. En Brasil, el sistema VICTOR –desarrollado por el Supremo Tribunal Federal (STF) en colaboración con la Universidad de Brasilia (UnB)procesa miles de apelaciones para identificar casos con “repercusión general“. Por su parte, la Corte Suprema de la India utiliza SUVAS, un software que traduce documentos legales entre el inglés y diez idiomas locales. En la Unión Europea, el personal de la magistratura emplea herramientas de Procesamiento de Lenguaje Natural (NLP) para predecir resultados de litigios basándose en jurisprudencia previa.

Colombia destaca en este ecosistema de Transformación Digital del sistema judicial tras la sentencia T-323 de 2024 de la Corte Constitucional. En dicho fallo, la magistratura determinó que el uso de IA es constitucional siempre que no reemplace el juicio humano. La Corte ordenó que el personal judicial siga criterios de transparencia y verificación, reconociendo el marco ético de la Unesco como un referente global para mitigar riesgos.

¿Qué riesgos enfrenta el personal judicial ante los modelos de lenguaje?

Uno de los puntos más críticos de las directrices se refiere al uso de modelos de lenguaje extenso (LLM), como ChatGPT. Aunque estas herramientas pueden resumir decisiones o redactar borradores administrativos su uso inapropiado ha generado reportes de “alucinaciones” o referencias a fallos inexistentes en países como Canadá, Estados Unidos, Brasil y España.

La Unesco advierte que estos modelos son poco confiables para el análisis legal profundo debido a su naturaleza probabilística, carente de comprensión del contexto real. Las directrices recomiendan prohibir la inclusión de datos personales o información confidencial en los prompts de herramientas comerciales, ya que estos insumos suelen utilizarse para entrenar futuros modelos, comprometiendo la privacidad de los procesos.

¿Cuál es el camino hacia una implementación responsable?

Para garantizar una adopción segura, la Unesco propone que las organizaciones judiciales realicen evaluaciones de impacto algorítmico antes de cualquier despliegue. Estas auditorías deben ser públicas y enfocarse en identificar posibles violaciones a la privacidad o al debido proceso.

La recomendación final para la comunidad legal es la capacitación continua. “Es esencial asegurar que el talento humano esté preparado para usar las herramientas de IA de forma ética y responsable“. El marco, financiado por la Unión Europea, se presenta como un documento vivo que requerirá actualizaciones periódicas para seguir el ritmo de una tecnología que, bien empleada, puede reducir la variabilidad en los juicios y mejorar el acceso a la justicia a nivel global.

Artículos relacionados