Todas las Noticias en Pel√≠culas, Avances de Pel√≠culas y Rese√Īas.

Este estudio muestra que muchas personas no pueden identificar si est√°n escuchando una voz generada por IA

Con los avances de la inteligencia artificial, los ciberdelincuentes también están aprovechando la coyuntura para renovar muchas de sus estafas, y una de ellas es la de hacerse pasar por algunos de nuestros familiares utilizando su voces.

Lo hacen gracias a las voces generadas por inteligencia artificialy lo peor de todo es que hay un gran grupo de personas que no saben diferenciarlas de una voz real, y eso puede ser un problema.

De hecho, para este estudio realizado por Kimberly Mai en University College London, utilizaron un algoritmo de texto a voz entrenado en dos conjuntos de datos, y mostró que los humanos participantes solo pudieron detectar el habla generada por IA en un 73%.

Para llegar a la conclusión, se crearon 50 muestras de voz falsa, tanto en inglés como en chino mandarín, para determinar si los humanos podían identificar las voces falsas.

Participaron 529 personas que escucharon a un hablante real leyendo oraciones genéricas en inglés o chino mandarín, pero intercaladas con oraciones generadas por IA.

El primer grupo escuchó 20 muestras de voz en su idioma nativo y tuvo que decidir si eran reales o falsas, y los participantes eligieron la opción correcta el 73 % de las veces.

Mucho más fácil fue un segundo grupo, que escuchó 20 pares de clips de audio, uno hablado por humanos y otro por inteligencia artificial, y tuvo que elegir cuál de los dos clips era el de IA. En este caso pudieron detectar la IA el 85% de las veces.

El segundo caso fue mucho más fácil, ya que al participante se le dieron dos opciones que podía comparar, por lo que el resultado de éxito fue mayor.

Recomendado:  Sesi√≥n de la tarde: Operaci√≥n Presente es lo m√°s destacado de la semana

Pero es preocupante el primer caso, donde solo el 73% de las veces fueron capaces de detectar la voz generada por la inteligencia artificial.

Claramente, cuando los participantes fueron capacitados para reconocer las características de las voces generadas por IA, pudieron aumentar su tasa de éxito.

‚ÄúEn nuestro estudio, mostramos que capacitar a las personas para detectar deepfakes no es necesariamente una forma confiable de ayudarlos a mejorar. Desafortunadamente, nuestros experimentos tambi√©n muestran que los detectores autom√°ticos tampoco son confiables en este momento‚ÄĚ, dijo Mai.

‚ÄúSon realmente buenos detectando deepfakes si han visto ejemplos similares durante su fase de entrenamiento, si el orador es el mismo o los clips se grabaron en un entorno de audio similar, por ejemplo. Pero no son confiables cuando hay cambios en las condiciones de audio de prueba, como un altavoz diferente‚ÄĚ, agrega.

Hay que tener en cuenta que para realizar este estudio se utilizaron algoritmos relativamente antiguos, alejados de los algoritmos algoritmos actuales, que son mucho más precisos, por lo que los resultados con los algoritmos actuales podrían ser más preocupantes.