Todas las Noticias en Películas, Avances de Películas y Reseñas.

Un estafador chino explota la inteligencia artificial en una estafa de un millón de yuanes y genera preocupación por el aumento de las estafas de voz

Un estafador chino ha logrado una alarmante hazaña de engaño tecnológico, empleando el poder de la inteligencia artificial (IA) para estafar a un rico hombre de negocios con millones de yuanes.

La víctima, conocida como Sr. Guo, quedó atrapada en un intrincado plan que giraba en torno al uso de suplantación de identidad generada por IA, según confirmaron las autoridades.

Cómo el estafador utilizó la IA para estafar enormes sumas

Los tiempos del estrecho informa que la estafa se desarrolló en abril cuando el Sr. Guo recibió una videollamada desprevenida de un individuo que tenía un parecido sorprendente con uno de sus amigos más cercanos, tanto en apariencia como en voz.

Lo que no sabía era que la persona al otro lado de la línea era un estafador astuto que aprovechaba la última tecnología de inteligencia artificial para alterar sus rasgos faciales y características vocales. Estos detalles surgieron de un informe publicado por un portal de medios afiliado al gobierno en la ciudad sureña de Fuzhou.

El impostor rápidamente asumió la apariencia del confidente de confianza del Sr. Guo y orquestó una elaborada estafa. Empleando diversas tácticas de manipulación, el estafador convenció al Sr. Guo para que transfiriera una asombrosa suma de 4,3 millones de yuanes (equivalente a aproximadamente 823.000 dólares).

El estafador inventó una narrativa convincente, afirmando que un conocido exigía urgentemente que se retiraran los fondos de una cuenta bancaria corporativa para obtener una garantía relacionada con una licitación pública.

Para facilitar el engaño, el estafador extrajo astutamente los datos de la cuenta bancaria personal del Sr. Guo. Posteriormente, presentaron un registro de pago falsificado, indicando astutamente que se había transferido una cantidad igual a la cuenta del Sr. Guo.

Recomendado:  "Es aterrador", este nuevo estudio sobre recipientes de plástico en el microondas te abrirá los ojos

Confiando inquebrantablemente en la autenticidad de la transacción, el Sr. Guo, sin verificar la recepción real de los fondos, transfirió obedientemente dos pagos desde la cuenta de su empresa, por un total del monto solicitado.

Sólo después de comunicarse con su amigo, que no tenía ningún conocimiento de la transacción, el Sr. Guo se dio cuenta de la gravedad de su error. “Verifiqué el rostro y la voz de la persona que me hacía la videollamada, así que bajé la guardia”, se lamentó con tristeza el Sr. Guo.

Aumentan las estafas de voz relacionadas con la IA

Afortunadamente, el Sr. Guo no perdió el tiempo y rápidamente se puso en contacto con la policía, que entró en acción notificando rápidamente a un banco situado en otra ciudad.

Como resultado de su intervención, se recuperó con éxito una parte importante de los fondos mal habidos, que ascendía a 3,4 millones de yuanes.

El artículo no reveló las identidades de los perpetradores detrás de este sofisticado plan, pero mencionó que se estaban realizando esfuerzos para recuperar los fondos restantes.

No es la primera vez que se hace público este modus operandi; Hace unas semanas, informamos que un análisis de McAfee reveló que el 77% de las víctimas de estafas de voz con IA pierden dinero debido al mismo truco. Aparte de esto, muchos residentes de EE. UU. también han encontrado grabaciones de voz en las redes sociales, lo que los convierte en objetivos abiertos para los estafadores.

Mientras ChatGPT permanezca inaccesible Dentro de las fronteras de China, los usuarios chinos supuestamente han buscado medios alternativos, empleando redes privadas virtuales (VPN) para acceder a este chatbot impulsado por IA.

Recomendado:  Samsung Galaxy A12 se convierte en el teléfono inteligente Android más vendido en 2023

Manténgase informado aquí en Tech Times.

ⓒ 2023 . .

Etiquetas: