Todas las Noticias en Películas, Avances de Películas y Reseñas.

La terrible predicción de inteligencia artificial de Stephen Hawking antes de su muerte

Escucha el Podcast:

Hace unas semanas se cumplió el 5° aniversario de la muerte del célebre astrofísico Stephen Hawking y, teniendo en cuenta lo que ha dado que hablar el tema de la inteligencia artificial (IA) en los últimos días, vale la pena volver al no predicciones muy esperanzadoras que hizo el científico antes de morir sobre estas herramientas.

Si bien es cierto que empresas y desarrolladores independientes llevan muchos años trabajando con modelos de inteligencia artificial, en los últimos tiempos se ha producido una carrera acelerada por conseguir los más avanzados.

Sin embargo, el concurso en el que participan grandes empresas como Microsoft y Google no ha sido visto con buenos ojos por el resto de expertos y empresarios tecnológicos, pues han advertido que si no se crean normas y reglas que regulen sus pruebas y desarrollo, estas pueden ser perjudicial para la humanidad.

Sin embargo, esta llamada de atención no es la primera crítica que se hace a la inteligencia artificial, ya que el físico Stephen Hawking había expresado previamente su preocupación por la IA.

Conocido por sus grandes contribuciones a varios campos de la ciencia, especialmente por su trabajo sobre la teoría cuántica de la gravitación y la teoría de los agujeros negros, Hawking, antes de su muerte, hizo algunas predicciones bastante llamativas sobre el futuro.

Una de sus advertencias más repetidas atañe al campo de la inteligencia artificial, adelantando que el avance de estas herramientas tecnológicas puede no ser del todo positivo para el ser humano.

En este sentido, durante una entrevista en 2014, el físico argumentó que el desarrollo de la IA completa podría provocar el fin de la humanidad si es capaz de superar a la inteligencia humana.

Recomendado:  Facebook prueba traer de vuelta llamadas de video y audio a su aplicación principal

En ese momento, el científico enfatizó que si bien la inteligencia artificial ya estaba bastante avanzada en ese momento, una IA mucho más desarrollada podría superar a la humanidad.

Por su parte, en su libro “Respuestas breves a las grandes preguntas”, Hawking remarcó que, ante la posibilidad de que la IA supere a la inteligencia humana, el hombre necesitaba un nuevo planeta para habitar en el espacio con el fin de preservar a la humanidad y a la raza humana.

“La inteligencia artificial podría ser lo peor que le ha pasado a la humanidad”, fueron una de las muchas reflexiones que hizo el astrofísico antes de morir.

Aún así, Stephen Hawking enfatizó que la humanidad podría sacar el máximo provecho de estas tecnologías solo si se establecieran estándares éticos y legales para regular su desarrollo y uso.