Todas las Noticias en Películas, Avances de Películas y Reseñas.

Intel presenta un detector circulatorio deepfake

Los deepfakes van en aumento y cada vez es más difícil para los espectadores distinguir un vídeo falso. Intel ahora está desarrollando una herramienta de inteligencia artificial que puede hacerlo.

El conocido fabricante de chips se lanza a la lucha contra los deepfakes con un nuevo producto. En tus propias palabras, puedes receptor falso Detecta en el 96% de los casos si el vídeo es fake o no. La tecnología, que se basa en IA, es la primera herramienta que puede exponer los deepfakes en tiempo real. Para ello, depende de nuestra circulación sanguínea.

¿Qué son las falsificaciones profundas?

Los deepfakes son imágenes de vídeo generadas con IA. Las falsificaciones siempre parten de imágenes existentes. Una segunda película sirve entonces para manipular la original. La IA tomará las palabras y la voz de la segunda escena y las combinará con la original. Esto permite grabar declaraciones falsas en vídeo. Por ejemplo, hoy circulan vídeos de ex presidentes estadounidenses. obama en el que reprende rotundamente al presidente Trump. También de Joe Biden, el actual presidente, circula un notable vídeo en el que interpreta la canción infantil durante un discurso. Tiburón bebé Habría empezado a cantar.

Los deepfakes pueden ser muy divertidos, pero también francamente peligrosos. Es bastante fácil descubrir en los vídeos anteriores que son falsos. Sin embargo, todo parece muy real. Si Obama o Biden aparecen en un vídeo falso con algo más serio, será menos fácil de reconocer como deepfake. También resulta cada vez más difícil para las personas comprobar si un vídeo es falsificado, ya que la tecnología detrás de los deepfakes aún está en desarrollo.

Recomendado:  Así es como se hace que el Asistente de Google sea apto para niños

Cómo funciona un detector de deepfake

FakeCatcher de Intel no es el primer detector de deepfakes, pero tiene un enfoque especial. Los escáneres habituales suelen leer los datos subyacentes de un vídeo. De esta forma, a menudo se puede demostrar que el archivo de vídeo ha sido editado. Sólo: para ello se sube un vídeo al sistema, que luego tarda unas horas en emitir un juicio.

FakeCatcher de Intel basa su juicio en las imágenes mismas. Para ello, se entrenó un modelo que puede reconocer rostros humanos. El algoritmo se basa en nuestras caras y nuestra circulación sanguínea. La IA de Intel está entrenada para observar la circulación sanguínea. Con cada latido del corazón, la sangre se bombea por todo el cuerpo, incluida la cara. A partir de pequeños detalles del vídeo, la IA de Intel puede mapear esa circulación.

En las personas reales, esa circulación se producirá de forma normal y constante. Este no será el caso de los deepfakes, en los que los movimientos de los labios suelen estar editados. De esa forma, FakeCatcher puede reconocer deepfakes mientras mira un vídeo.

Tabla de Contenido