Todas las Noticias en Películas, Avances de Películas y Reseñas.

Las notas de voz de WhatsApp se pueden usar para robar su identidad

La inteligencia artificial generativa (IA) ha transformado drásticamente la forma en que las empresas operan y toman decisiones. Es una tecnología innovadora que, si bien es poderosa y útil, también puede ser mal utilizada en las manos equivocadas. Y, en los últimos años, hemos visto exactamente eso: ciberdelincuentes que usan IA para estafas.

Las campanas de alarma están sonando sobre un nuevo tipo de delito cibernético: las estafas de clonación de voz. Esencialmente, estas estafas implican replicar la voz de alguien usando herramientas de inteligencia artificial para que suene como si estuviera hablando en tiempo real. Piénsalo: recibes una nota de voz de tu jefe, amigo o familiar solicitando una acción específica y la cumples sin pensarlo dos veces. Pero, ¿y si esa voz no fuera realmente de ellos?

Esta no es una trama de ciencia ficción. Los incidentes de la vida real ya han costado millones a empresas e individuos. En un caso, la voz del director ejecutivo de una empresa de energía se reprodujo para estafar $243,000 en el Reino Unido. En otro caso, una empresa de Hong Kong perdió $ 35 millones debido a una artimaña similar. Y no son sólo las empresas las que están en riesgo. Incluso la gente normal puede recibir una nota de voz de un ‘miembro de la familia’ en apuros, que busca ayuda financiera o comparte noticias inquietantes.

Stephen Osler de Nclose describe la situación: “Estas estafas son increíblemente complejas. Usando herramientas que son fáciles de encontrar en línea, los estafadores pueden imitar la voz de cualquier persona con solo un breve clip de audio”. Dado que las notas de voz se están convirtiendo en una forma popular de comunicación, especialmente para los profesionales ocupados en plataformas como WhatsApp, los riesgos están siempre presentes.

Recomendado:  Los 5 principales proveedores de alojamiento que cumplen con HIPAA en 2023

Aquí hay un escenario: una persona de TI recibe una nota de voz, supuestamente de su gerente, solicitando un restablecimiento de contraseña. Sin pensarlo, lo siguen y, sin saberlo, les dan a los ciberdelincuentes una forma de ingresar a su sistema. Es una receta para el desastre, que podría allanar el camino para violaciones masivas de datos o ataques de ransomware.

¿De dónde sacan estas grabaciones de voz? A menudo de nosotros. Desde notas de voz compartidas en aplicaciones de mensajería hasta videos de redes sociales e incluso llamadas telefónicas grabadas, sin darnos cuenta estamos suministrando la materia prima para estas estafas.

Osler advierte que como tecnología ultrafalsa avances, va a ser aún más difícil distinguir lo real de lo falso. ¿Su consejo? Tanto las empresas como las personas deben adoptar un enfoque más escéptico. No tome las notas de voz al pie de la letra, especialmente si se trata de instrucciones o transacciones confidenciales.

Las empresas deben implementar procesos estrictos para acciones importantes, ya sean transacciones financieras o reinicios del sistema. Una nota de voz, sin importar de quién sea, no debe ser la única base para ninguna decisión.

Para todos los demás, es cuestión de mantenerse alerta y verificar siempre la fuente. Puede parecer tedioso, pero en la era de las estafas sofisticadas de IA, la doble verificación podría ahorrarle muchos problemas.

Lea también: FraudGPT: la nueva arma de IA de la Dark Web para el ciberdelito