Tatequieto a abogados que usen ChatGPT
A raíz de un documento presentado por un abogado ante un magistrado de Nueva York, el cual contenía información falsa generada por ChatGPT, un juez federal de Texas prohibió presentar textos realizados por Inteligencia Artificial, a menos que estos sean verificados por un humano.
La orden no solo se quedó ahí, pues el togado del distrito de EE.UU., Brantley Starr, también ordenó de manera obligatoria a los abogados que presenten certificados que acrediten que sus presentaciones fueron escritas o revisadas por humanos.
Dichos certificados deben reseñar “que ninguna parte de la presentación fue redactada por inteligencia artificial generativa como ChatGPT, Harvey.AI o Google Bard”. En dado caso de que se haya realizado con esta tecnología, el legista debe dejar claro que esa información “se verificó” y que su contenido fue extraído de reportes impresos o bases de datos legales tradicionales, por un ser humano.
El magistrado Brantley Starr dejó claro que pese a que estas tecnologías son poderosas y tienen muchos usos en la ley, como “formularios de divorcio, solicitudes de descubrimiento, errores sugeridos en documentos o preguntas anticipadas en argumentos orales”, no significa que en cuanto a información legal presentada ante un tribunal, sean una de ellas.
El togado explica que en dichos informes, estas plataformas no son tan útiles, ya que “en sus estados actuales son propensas a alucinaciones y prejuicios. Sobre las alucinaciones, inventan cosas, incluso citas y menciones”.