Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los pedófilos explotan las herramientas de inteligencia artificial para producir y distribuir imágenes de abuso sexual infantil

Según se informa, los pedófilos están explotando la tecnología de inteligencia artificial (IA) para producir y distribuir imágenes de abuso sexual infantil muy realistas.

Descubierto por un reciente investigación de la BBCesta alarmante tendencia plantea preocupaciones urgentes sobre los desafíos éticos que plantea el avance de la tecnología de inteligencia artificial y la necesidad de medidas más estrictas para combatir la proliferación de contenido ilegal.

(Foto: Lionel BUENAVENTURA / AFP)

El dilema de la IA: explotar el potencial de la difusión estable

Utilizando un software de inteligencia artificial llamado Stable Diffusion, que inicialmente estaba destinado al arte y el diseño gráfico, las personas pueden crear representaciones realistas de abuso infantil, incluidas escenas explícitas que involucran a bebés y niños pequeños.

Con Stable Diffusion, los usuarios pueden ingresar palabras para describir cualquier imagen deseada y el programa la genera en consecuencia. Sin embargo, la investigación de la BBC revela que esta tecnología ahora se está explotando para crear imágenes angustiosas de abuso sexual infantil, incluida la violación de bebés y niños pequeños.

La ‘tolerancia cero’ de Patreon y Pixiv

La accesibilidad de estas imágenes explícitas se ha facilitado a través de plataformas como Patreon, donde algunas personas pagan suscripciones para obtener acceso. Si bien Patreon afirma tener una política de “tolerancia cero” con respecto a este tipo de imágenes, el Consejo del Jefe de la Policía Nacional ha criticado a las plataformas que se benefician de este contenido y eluden la responsabilidad moral.

Los equipos de investigación de abuso infantil en línea en el Reino Unido ya han encontrado dicho contenido, lo que arroja luz sobre la gravedad del problema. Desde la llegada de las imágenes generadas por IA, ha habido un aumento significativo en el contenido explícito que involucra no solo a niñas sino también a niños pequeños.

Recomendado:  YouTube mejora los cortos en la televisión inteligente y se lanzará en las próximas semanas

Es esencial tener en cuenta que una “pseudoimagen” generada por computadora que represente abuso sexual infantil se trata como material ilegal en el Reino Unido y conlleva las mismas consecuencias legales que las fotografías o videos reales.

Ian Critchley, que lidera la protección infantil en el Consejo de Jefes de la Policía Nacional (NPCC), advirtió contra la idea errónea de que no se causa ningún daño cuando se crean imágenes sintéticas. Señaló que los pedófilos podrían pasar de ver esas imágenes a cometer abusos reales contra niños vivos.

Compartir estas imágenes abusadas sigue un proceso de tres pasos: los pedófilos crean las imágenes utilizando software de inteligencia artificial y luego las promocionan en plataformas como Pixiv, un sitio web japonés para compartir imágenes utilizado predominantemente por artistas que comparten manga y anime. Estas cuentas en Pixiv proporcionan enlaces que dirigen a los clientes a imágenes más explícitas, a las que se puede acceder a través de plataformas como Patreon.

El hecho de que Pixiv esté alojado en Japón, donde es legal compartir caricaturas sexualizadas y dibujos de niños, permite a los creadores utilizarlo como plataforma para promocionar su trabajo.

Se unen a grupos y utilizan hashtags para llegar a un público más amplio. Pixiv ha manifestado su compromiso de abordar este problema y ha prohibido todas las representaciones fotorrealistas de contenido sexual que involucren a menores.

Producción de imágenes de abuso infantil a escala industrial

Stability AI, la empresa británica que lidera la colaboración global detrás de la creación del generador de imágenes de IA Stable Diffusion, afirmó que prohíbe el uso de sus productos con fines ilegales o inmorales.

Recomendado:  Elon Musk aumenta el apoyo a Ucrania enviando un sistema de baterías solares 'Tesla Powerwalls'

Sin embargo, una versión anterior de código abierto de Stable Diffusion lanzada el año pasado permitió a los usuarios evitar los filtros y entrenar el software para producir cualquier imagen, incluido el contenido ilegal. A medida que la tecnología de IA continúa avanzando rápidamente, aumentan las preocupaciones sobre su potencial. riesgos a la privacidad, los derechos humanos y la seguridad.

Critchley planteó una preocupación adicional, diciendo que la abundancia de IA realista o imágenes “sintéticas” podría obstaculizar el proceso de identificación de víctimas reales de abuso y desviar recursos valiosos de casos genuinos.

Destacó que la sociedad se encuentra en una coyuntura crítica en la que debe decidir si Internet y la tecnología seguirán siendo una oportunidad fantástica para los jóvenes o se convertirán en un lugar más peligroso.

Señaló que es necesaria una acción inmediata para abordar este problema apremiante y proteger a las personas vulnerables del lado oscuro de la innovación en IA.