Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los remakes de películas deepfake provocan recuerdos falsos en los espectadores, según revela un nuevo estudio

Los investigadores han descubierto que los videoclips deepfake de remakes de películas que en realidad no existen llevaron a la mitad de los participantes a recordar falsamente las películas, según un estudio. nuevo estudio. También se descubrió que las descripciones textuales simples de estas películas falsas producían tasas similares de memoria falsa.

El estudio fue realizado por Gillian Murphy del University College Cork, Irlanda, y colegas de Lero, el Centro de Investigación de Software de la Science Foundation Ireland.

Deepfake remakes de películas

Los videos deepfake son videos manipulados o alterados creados utilizando tecnología de inteligencia artificial (IA). Estos videos implican reemplazar la cara o la voz de una persona en un video existente con otra persona, lo que a menudo resulta en efectos visuales y de audio muy realistas y convincentes.

Para examinar los riesgos y beneficios potenciales de la tecnología deepfake, Murphy y su equipo invitaron a 436 participantes a completar una encuesta en línea.

La encuesta incluyó ver videos deepfake de remakes de películas ficticias con diferentes actores, como Will Smith reemplazando a Keanu Reeves como Neo en “The Matrix” y Brad Pitt y Angelina Jolie en “The Shining”.

También se incluyeron para comparar remakes reales como “Charlie & The Chocolate Factory” y “Total Recall”. En algunos casos, los participantes leen descripciones de texto de las nuevas versiones en lugar de ver los vídeos deepfake.

No se informó a los participantes que los deepfakes fueron fabricados hasta más adelante en la encuesta.

Como se observó en estudios anteriores, tanto los videos deepfake como las descripciones escritas dieron como resultado que los participantes desarrollaran recuerdos falsos de las nuevas versiones de películas fabricadas, con un promedio del 49 por ciento de los participantes que creían genuinamente en la existencia de cada película ficticia.

Recomendado:  Apple presenta capacitación profesional para ayudar a la creciente fuerza laboral de TI

Curiosamente, algunos participantes incluso expresaron recuerdos de que las remakes falsas superaban la calidad de las películas originales.

¿Puede el Deepfake alterar la memoria?

Sin embargo, las tasas de memoria falsa obtenidas a partir de las descripciones de texto fueron comparables, lo que indica que la tecnología deepfake puede no poseer una capacidad exclusiva para manipular la memoria en comparación con otros métodos o herramientas.

El estudio también reveló que la mayoría de los participantes expresaron su incomodidad con la idea de utilizar tecnología deepfake para refundir películas. Surgieron preocupaciones sobre la posible falta de respeto a la integridad artística y la interrupción de las experiencias sociales compartidas asociadas con las películas.

Estos hallazgos tienen implicaciones para el desarrollo y la regulación de la tecnología deepfake en la industria cinematográfica. Los investigadores enfatizaron que, si bien los deepfakes generan preocupaciones por varias razones, como la pornografía no consensuada y el acoso, este estudio demostró que no son intrínsecamente más potentes para distorsionar los recuerdos en comparación con otros medios no técnicos.

La tecnología Deepfake utiliza algoritmos de aprendizaje automático y redes neuronales profundas para analizar y mapear las expresiones faciales y los patrones de habla de la persona objetivo en el video fuente. Este proceso permite la creación de videos que parecen auténticos pero contienen contenido inventado.

Estos videos han llamado la atención debido a su posible uso indebido y las preocupaciones éticas planteadas. Se pueden utilizar para crear vídeos falsos que parecen mostrar a personas diciendo o haciendo cosas que en realidad nunca hicieron.

Esta tecnología ha generado preocupación sobre su potencial para difundir información errónea, manipular la opinión pública y dañar la reputación y la privacidad de las personas. Los hallazgos del equipo fueron publicado en MÁS UNO.

Recomendado:  10 سازنده برتر تقویم عکس: دسکتاپ و موبایل

ⓒ 2023 . .

Tabla de Contenido