Todas las Noticias en Películas, Avances de Películas y Reseñas.

Juez federal de Texas implementa medidas para evitar argumentos generados por IA en los tribunales

El juez federal de Texas Brantley Starr ha implementado medidas para evitar el uso de argumentos generados por IA en los tribunales, según un informe de TechCrunch.

En respuesta a un incidente reciente en el que un abogado utilizó un modelo de lenguaje para complementar su investigación legal, lo que resultó en la presentación de casos y precedentes inventados, el juez Starr introdujo un nuevo requisito para los abogados que comparecen ante su tribunal.

El requisito establece que los abogados deben confirmar y declarar que ninguna parte de su presentación fue redactada por inteligencia artificial generativa (IA), o si hubo IA involucrada, que fue revisada y verificada minuciosamente por un humano.

Esta medida surge como medida cautelar para evitar que se repita una situación similar y mantener la integridad del proceso judicial.

No hay chatbots de IA en los tribunales

La decisión se tomó en el sitio federal del Distrito Norte de Texas, donde los jueces tienen la autoridad de establecer reglas específicas para sus salas de audiencias.

La regulación recientemente agregada, denominada “Certificación obligatoria sobre inteligencia artificial generativa”, tiene como objetivo garantizar la transparencia y la responsabilidad en las presentaciones legales.

Según el requisito de certificación, los abogados están obligados a presentar un certificado que indique que su envío no contiene ningún contenido generado por IA, como ChatGPT, Harvey.AI o Google Bard.

Alternativamente, si se empleó asistencia de IA, se debe afirmar que el lenguaje generado por IA se sometió a una exhaustiva verificación de precisión realizada por un humano utilizando fuentes confiables, como reporteros impresos o bases de datos legales tradicionales.

Recomendado:  Make-A-Video Meta AI: cómo registrarse, ejemplos y más

El formulario adjunto para que lo firmen los abogados cubre explícitamente varios aspectos, incluidos “citas, citas, afirmaciones parafraseadas y análisis legales”.

Aunque la IA sobresale en el resumen y la recuperación de precedentes, los modelos de lenguaje grandes pueden cometer errores y producir información inexacta, lo que también admite explícitamente ChatGPT de OpenAI.

Las alucinaciones y los prejuicios de la IA

El memorando que acompaña a la decisión del juez Starr proporciona una explicación exhaustiva de su necesidad. Destaca el inmenso poder y la versatilidad de las plataformas de inteligencia artificial en numerosas aplicaciones legales, como generar formularios, ayudar en solicitudes de descubrimiento, identificar posibles errores en documentos y predecir preguntas durante los argumentos orales.

Sin embargo, el memorando enfatiza que la información legal no es un uso adecuado para los sistemas de IA actuales debido a limitaciones inherentes.

El memorando plantea preocupaciones sobre la propensión de la IA a sufrir alucinaciones y prejuicios. Señala que los modelos de IA pueden fabricar información, incluidas citas y citas.

Además, si bien los abogados están obligados por juramento a respetar la ley y representar imparcialmente a sus clientes, la IA es desarrollada por personas que no están sujetas a tales obligaciones.

El requisito de certificación presentado por la oficina del juez Starr constituye un paso importante para garantizar la responsabilidad y exactitud de las presentaciones legales. Si bien esta medida en particular se limita a un juez de un tribunal, podría alentar a otros jueces a seguir el ejemplo y adoptar reglas similares.

ⓒ 2023 . .

Tabla de Contenido