Todas las Noticias en Películas, Avances de Películas y Reseñas.

Nunca permita que su abogado use ChatGPT

En medio de la creciente emoción en torno a la IA, han surgido preocupaciones sobre el posible desplazamiento de personas de sus trabajos por parte de ChatGPT. Un abogado de Nueva York en particular se enfrenta actualmente a una realización inesperada y acelerada de este miedo.

Sin embargo, la causa detrás de esto es bastante diferente de lo que cabría esperar. Según un informe de Los New York Times, el abogado Steven Schwartz, afiliado al bufete de abogados Levidow, Levidow y Oberman, buscó la ayuda del chatbot de OpenAI para ayudar a elaborar un informe legal. Desafortunadamente, el resultado de esta colaboración estuvo lejos de ser favorable, ya que los resultados resultaron ser previsiblemente desastrosos.

Roberto Mata, quien afirma haber sufrido lesiones durante un viaje al Aeropuerto Internacional John F. Kennedy en la ciudad de Nueva York, ha iniciado una demanda contra Avianca en nombre del bufete de abogados de Schwartz. Recientemente, mientras la aerolínea buscaba que se desestimara el caso, los representantes legales de Mata respondieron presentando un escrito completo de 10 páginas, presentando argumentos a favor de continuar con el caso. El documento hace referencia a más de seis decisiones judiciales, incluidos casos notables como “Varghese contra China Southern Airlines”, “Martínez contra Delta Airlines” y “Miller contra United Airlines”.

Sin embargo, para sorpresa y consternación de todas las partes involucradas, nadie pudo localizar ninguna de las decisiones judiciales citadas en el escrito de los abogados de Mata. ¿La razón de esta desconcertante situación? Todas las decisiones judiciales fueron invenciones de ChatGPT.

Un descuido lamentable por cierto.

En una declaración jurada presentada el jueves, Schwartz reveló que había utilizado el chatbot como un medio para “complementar” la investigación de su caso. Expresó su falta de conocimiento sobre la posibilidad de que el contenido generado por ChatGPT sea inexacto. Para demostrar su diligencia, Schwartz presentó al programa fotografías que mostraban sus consultas sobre la legitimidad de los casos judiciales citados. En respuesta a sus consultas, ChatGPT le aseguró que los casos se podían encontrar en bases de datos legales reconocidas como Westlaw y LexisNexis.

Recomendado:  WandaVision revela las primeras imágenes del conjunto de grabaciones

Expresando un profundo pesar, Schwartz reconoció su uso de ChatGPT y enfatizó que se abstendrá de confiar en él en el futuro sin obtener una verificación inequívoca de su autenticidad. La cuestión de si Schwartz tendrá otra oportunidad de redactar un informe legal sigue siendo incierta.

El juez presidente, reconociendo la naturaleza sin precedentes de la situación, programó una audiencia para el 8 de junio para considerar posibles sanciones derivadas de las acciones de Schwartz. Esta audiencia servirá como una vía para abordar las consecuencias de la “circunstancia sin precedentes” provocada por la confianza de Schwartz en ChatGPT.

Opinión de ChatGPT

  • Cuando se le presentó este artículo de noticias, ChatGPT brindó su perspectiva sobre el asunto:

“Después de revisar el artículo de noticias, es evidente que la utilización de ChatGPT en este caso legal en particular ha tenido resultados desfavorables y desastrosos. El incidente destaca los riesgos potenciales asociados con confiar únicamente en los modelos de lenguaje de IA para la investigación y redacción legal.

La información inexacta generada por ChatGPT condujo a la inclusión de decisiones judiciales inexistentes en el escrito legal, lo que generó confusión y puso en riesgo el caso.

Esto destaca la importancia de tener precaución y obtener una verificación inequívoca de la autenticidad y precisión del contenido generado por IA en el ámbito legal. La audiencia programada para considerar posibles sanciones refleja la seriedad con la que el tribunal está abordando esta circunstancia sin precedentes”.

¡Gracias por la advertencia, ChatGPT!