Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los autores presentan una demanda contra OpenAI por utilizar libros con derechos de autor para la formación sin permiso

OpenAI, la organización detrás de la herramienta de inteligencia artificial ChatGPT, se enfrenta a una demanda presentada por los autores Mona Awad y Paul Tremblay. Afirman que OpenAI violó la ley de derechos de autor al entrenar su modelo en sus novelas sin obtener permiso.

OpenAI aún no se ha enfrentado a una nueva demanda

(Foto: Andrew Neel de Unsplash)
Dos autores libraron una batalla legal con OpenAI tras acusaciones de que sus libros se utilizaron para la formación de ChatGPT.

En un informe de CNBCOpenAI se convierte en el tema más reciente de queja de dos autores de libros que creen que la empresa utilizó su contenido sin consentimiento.

ChatGPT, un chatbot que genera respuestas similares a las humanas, se entrena utilizando datos disponibles públicamente en Internet. Los autores afirman que ChatGPT produjo resúmenes precisos de sus libros protegidos por derechos de autor, lo que llevó a su inclusión en la demanda.

La demanda colectiva presentada por Awad y Tremblay en un tribunal federal de San Francisco marca la primera denuncia de derechos de autor contra ChatGPT. El caso explorará los límites legales dentro del campo de la IA generativa, planteando preguntas sobre el uso de material protegido por derechos de autor en el entrenamiento de modelos lingüísticos.

Como sabemos, los libros son las fuentes típicas de información en Internet. Son ideales para formar grandes modelos lingüísticos o LLM debido a su prosa de alta calidad.

En relación con la demanda, el uso de obras protegidas por derechos de autor por parte de OpenAI ha dado lugar a acusaciones de “escritos e ideas robados”. Los abogados de los autores argumentan que OpenAI debería rendir cuentas por beneficiarse del uso no autorizado de su trabajo.

Recomendado:  7 errores de rediseño de sitios web que se deben evitar

Si ese es el caso, entonces demostrar las pérdidas financieras directamente atribuibles a la capacitación de ChatGPT sobre material protegido por derechos de autor puede resultar un desafío. A pesar de la supuesta infracción, es posible que la funcionalidad de ChatGPT no se vea afectada en gran medida, ya que se basa en una amplia gama de información de Internet, incluidas discusiones sobre los libros.

Datos secretos y de entrenamiento de OpenAI

El creciente secreto de OpenAI en torno a sus datos de entrenamiento ha generado preocupación. Los abogados sugieren que el material de capacitación de ChatGPT, denominado “Libros2”, probablemente incluya libros obtenidos de bibliotecas paralelas como Library Genesis (LibGen) y Z-Library, según El informe de The Guardian.

Dicho esto, el resultado del caso dependerá de si el tribunal contará el “uso justo” con respecto al uso del material protegido por derechos de autor. También significaría que el fallo será muy diferente ya que la defensa del “uso legítimo” se trata de manera diferente en el Reino Unido.

Proteger a los autores de los peligros de la IA

La industria editorial ha estado debatiendo cómo proteger a los autores de posibles daños relacionados con la IA. La Sociedad de Autores (SoA) publicó directrices para que los autores se protejan a sí mismos y a su trabajo.

La demanda contra OpenAI se considera un paso positivo para abordar las preocupaciones sobre el uso no autorizado del trabajo de los autores.

A pesar de las estrictas leyes que restringen la IA, las regulaciones actuales están fragmentadas y luchan por seguir el ritmo de los avances tecnológicos. Se insta a los formuladores de políticas a consultar los principios que protegen el valor de la autoría humana y considerar las recomendaciones presentadas por organizaciones como la Authors’ Licensing and Collecting Society (ALCS).

Recomendado:  "Warface" ha agregado una nueva operación PvE Hydra en PC

El mes pasado, OpenAI fue demandada por un locutor de radio con sede en Georgia después de que proporcionó datos falsos sobre un caso legal.

ⓒ 2023 . .