Todas las Noticias en Películas, Avances de Películas y Reseñas.

ChatGPT genera casos falsos que dejan a los abogados con una multa de $5,000

Un juez federal multó a dos abogados y a un bufete de abogados con 5.000 dólares cada uno después de presentar una investigación legal falsa en un reclamo por lesiones de aviación, culpando al modelo de lenguaje de inteligencia artificial ChatGPT por el incidente, según un informe de AP.

El juez P. Kevin Castel calificó sus acciones de mala fe, pero reconoció sus disculpas y sus esfuerzos por rectificar la situación. Afirmó que si bien es aceptable utilizar herramientas confiables de inteligencia artificial para obtener asistencia, los abogados son responsables de garantizar la exactitud de sus presentaciones.

El juez criticó a los abogados y su firma, Levidow, Levidow & Oberman, PC, por presentar opiniones judiciales inexistentes con citas inventadas y citaciones generadas por ChatGPT.

Además, señaló que continuaron defendiendo las opiniones falsas incluso después de que su existencia fuera cuestionada por órdenes judiciales.

Abogados responden al fallo

En respuesta al fallo, el despacho de abogados afirmó que cumpliría la orden pero no estuvo de acuerdo con la conclusión de mala fe.

Sostuvieron que cometieron un error de buena fe al no reconocer que la tecnología podría generar casos ficticios. La firma está considerando la posibilidad de apelar.

Los abogados involucrados, Steven A. Schwartz y Peter LoDuca, han llamado la atención debido a su confianza en la información generada por ChatGPT presentada ante el tribunal. El caso original giraba en torno a un hombre que demandó a una aerolínea por lesiones personales, y los abogados citaron casos judiciales anteriores para defender la progresión del caso basándose en precedentes.

Los abogados suplicaron al juez que no los penalizara por usar ChatGPT.

Recomendado:  Samsung Galaxy S23 FE se lanza con carga de 25W

Schwartz aclaró que LoDuca desconocía cómo se llevó a cabo la investigación jurídica ya que él no participó en el proceso. Schwartz lamentó haber confiado en el chatbot de IA y prometió no volver a utilizarlo nunca más para investigaciones legales en el futuro.

Es importante señalar que OpenAI, la organización detrás de ChatGPT, incluye un descargo de responsabilidad en la página de inicio del modelo de IA, reconociendo la posibilidad de generar información incorrecta. Además, el conocimiento de ChatGPT se limita a la información disponible hasta septiembre de 2021, lo que significa que carece de actualizaciones o desarrollos más allá de ese momento.

“Tendencias alucinatorias”

ChatGPT ha sido reportado tener “tendencias alucinatorias” o generar información incorrecta. De hecho, un locutor de radio demandó a OpenAI después de que el chatbot supuestamente proporcionara información falsa y difamatoria sobre un caso legal.

Mark Walters presentó su denuncia ante el Tribunal Superior del condado de Gwinnett.

Según las acusaciones, el 4 de mayo de 2023, Fred Riehl, periodista y suscriptor de ChatGPT, interactuó con la plataforma en relación con la demanda. Riehl compartió un enlace URL a la denuncia alojada en el sitio web de la Fundación de la Segunda Enmienda y pidió un resumen de las acusaciones.

Sin embargo, ChatGPT supuestamente proporcionó un resumen engañoso en respuesta, que implicaba falsamente a Walters en participar en actividades fraudulentas y apropiación indebida de fondos de la fundación.

El resumen contenía información incorrecta sobre el papel y las acciones de Walters dentro de la organización, según la denuncia.

ⓒ 2023 . .