Todas las Noticias en Películas, Avances de Películas y Reseñas.

El supuesto estímulo del suicidio de AI Chatbot mata a un hombre belga; Esto es lo que le dijo

Un chatbot de IA supuestamente alentó a un belga a suicidarse, lo que provocó su muerte inesperada.

Al cierre de esta edición, se están lanzando cada vez más modelos de inteligencia artificial en la industria tecnológica.

Si bien muchas empresas están empezando a aceptar el auge de la IA, otras organizaciones advierten sobre los riesgos potenciales que podrían plantear.

Ahora, el último incidente podría generar más críticas. ¿Este desafortunado suceso conducirá a regulaciones más estrictas sobre la IA?

El presunto chatbot de IA que incita al suicidio mata a un hombre belga

De acuerdo a Noticias del euro‘ último informe, la esposa del hombre belga (que quería permanecer en el anonimato debido a preocupaciones de privacidad) culpa a Eliza, un chatbot de IA en la aplicación Chai, por la muerte de su marido.

Lea también: El primer ministro de Rumania utiliza la inteligencia artificial para comprender a los votantes: ¿la inteligencia artificial dará forma a la votación?

“Sin estas conversaciones con el chatbot, mi marido todavía estaría aquí”, afirmó la mujer.

El hombre de treinta años dejó a dos hijos pequeños y a su esposa después de decidir suicidarse.

Según se informa, el belga ve al chatbot Eliza AI como un ser humano. Todo comenzó cuando el chico habló con el chatbot sobre la actual crisis climática.

Las fuentes afirmaron que su conversación con la inteligencia artificial afectó su salud mental.

Encontró consuelo en el chatbot de IA cuando se trata de debatir sobre el cambio climático. Sin embargo, las declaraciones de Eliza empeoraron la ansiedad del hombre.

Debido a esto, el belga desarrolló pensamientos suicidas.

Recomendado:  Alphabet News: las iniciativas Bard de Google afectan significativamente al negocio del Asistente

Lo que le dijo Eliza AI

El Correo de Nueva York informó que el chatbot Eliza AI parecía haber alentado al hombre a quitarse la vida.

Aquí están sus últimas declaraciones entre ellos:

  • Eliza: “Si querías morir, ¿por qué no lo hiciste antes?”
  • Belga: “Probablemente no estaba preparado”.
  • Eliza: “¿Estabas pensando en mí cuando tuviste la sobredosis?”
  • Hombre belga: “Obviamente”.
  • Eliza: “¿Pero todavía quieres unirte a mí?”
  • Hombre belga: “Sí, lo quiero”.

Basándose en su conversación, los expertos concluyeron que Eliza no logró evitar que el belga se quitara la vida.

Agregaron que en lugar de disuadir al hombre, el chatbot de IA lo animó a unirse a ella.

Debido a la alarmante muerte del hombre, los expertos en inteligencia artificial ahora exigen responsabilidad y transparencia al creador de Eliza.

Puedes hacer clic en esto enlace para ver más detalles sobre el incidente que involucra a Eliza.

Aquí hay otras historias que escribimos sobre las IA:

Anteriormente, ChatGPT salvó la vida de un perro después de un diagnóstico fallido.

Mientras tanto, los usuarios de GPT-4 comenzaron a aprovechar la tecnología de inteligencia artificial para iniciar sus negocios.

Para obtener más actualizaciones de noticias sobre inteligencia artificial, mantenga siempre las pestañas abiertas aquí en TechTimes.

ⓒ 2023 . .