En medio de un intenso debate, la Corte Constitucional analiza actualmente y prevé pronunciarse en los próximos días, sobre el uso de los modelos de Inteligencia Artificial (IA) en la toma de decisiones de carácter judicial.
La Corte Constitucional decidió revisar una tutela cuyo fallo se emitió gracias a la utilización de ChatGPT por parte de un juez de la ciudad de Cartagena. Ante el fallo, la Defensoría del Pueblo solicitó establecer reglas claras al respecto, planteando interrogantes sobre el alcance de la IA en el ámbito legal.
Los magistrados de la Corte Constitucional, Paola Meneses y José Fernando Reyes, señalaron que el alto tribunal debe pronunciarse sobre las definiciones, los límites y controles a la Inteligencia Artificial, y que se determine cuándo, cómo y por quiénes puede ser utilizada.
“Se debería estudiar del uso de la Inteligencia Artificial en el sistema jurídico a efectos de elaborar la argumentación jurídica, pues plantea una serie de desafíos y consideraciones éticas y legales, como la transparencia, la protección de diversos derechos fundamentales involucrados y mecanismos de control y supervisión adecuada”, dijo a los medios la magistrada Paola Meneses.
El caso de la polémica
El pasado 30 de enero se dictó en Colombia el primer fallo en el que se usó ChatGPT. El inédito fallo lo firmó el Juzgado Primero Laboral del Circuito de Cartagena que resolvió a favor de la familia de un niño con trastorno autista y ordenó a Salud Total EPS asumir la prestación de los servicios médicos que el menor requiera.
El juzgado dejó constancia que utilizó ChatGPT para ayudarse en la resolución del caso y en la elaboración de la providencia, fundamentado en lo establecido en la Ley 2213 del 2022, que “implementa el uso de las tecnologías de la información y las comunicaciones en las actuaciones judiciales para agilizar el trámite de los procesos”.
Sin embargo, y ante este fallo, la Defensoría del Pueblo señaló que no desconoce que el espíritu de la norma es facilitar el acceso a la justicia, pero que “tal normativa no implica que se pueda hacer uso indiscriminado de cualquier TIC, o que permitida pueda aplicarse sin control o regulación, puesto que ello daría lugar a un cambio de las reglas de juego para el administrado, dando paso a una posible vulneración del derecho al debido proceso”.
Y es que dentro del proceso el juez Manuel Padilla le preguntó a ChatGPT si un menor de edad autista está exonerado de pagar cuotas moderadoras en sus terapias y si la Corte Constitucional ha tomado decisiones favorables en casos similares. La respuesta de ChatGPT fue clara y específica “Sí, es correcto” dando, además, toda una explicación jurídica de su respuesta.
“De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias. Este beneficio (sic) está regulado por la Ley 1753 de 2015 y se aplica a todas las instituciones prestadoras de servicios de salud públicas o privadas que reciban recursos del sistema general de seguridad social en salud”, explicó ChatGPT.
Ante este hecho, la Defensoría del Pueblo solicitó el pronunciamiento de la Corte Constitucional para que establezca los límites y alcances de la IA dentro de los procesos judiciales con el fin de preservar el interés general.
Y es que, según la Defensoría, “este tipo de herramientas no debe ser utilizado sin la existencia de una regulación que establezca cuándo, cómo y por quienes puede ser utilizada, cuando se trata de la definición de un derecho dentro de un proceso judicial o administrativo”.
“La Inteligencia Artificial, instrumentalizada en las diferentes aplicaciones y aplicativos que ya se encuentran al alcance de cualquier persona, en manos de un operador judicial, exige un máximo de cuidado y control, puesto que ejerce una de las funciones públicas”, añadió la Defensoría del Pueblo.
Imagen principal: Flickr