Todas las Noticias en Películas, Avances de Películas y Reseñas.

La verdadera amenaza de la tecnología de inteligencia artificial: no saber cómo piensa

Un artículo reciente comienza a abordar genuinamente el peligro real de la inteligencia artificial (IA). No tendremos visibilidad de cómo piensa la tecnología de IA y sus valores culturales internos.

Alicia Vikander en Ex machina. Crédito de la imagen: Universal Pictures International.

Aquí hay un artículo perfectamente espléndido que quiero examinar con más detalle.

La premisa es que la ciencia ficción nos ha atraído a preocuparnos por los androides inteligentes que podrían ser un peligro físico para nosotros cuando, de hecho, los peligros son más sutiles y difíciles de identificar. Pero el peligro físico es el núcleo de una película emocionante. Después de millones de años de evolución, los humanos están bien adaptados para discernir y evitar el peligro físico. Este tipo de películas nos toca la fibra sensible. Estamos entretenidos. Pero el artículo anterior nos señala un tipo de peligro diferente.

Es decir, cómo piensa la IA.

Toma de decisiones humanas

Mencioné este peligro antes en un contexto diferente cuando escribí sobre el proceso de toma de decisiones humanas. “¿Cómo podemos saber si nuestro amor por Apple es lógico o sesgado?”

Allí, aludí al Dr. Daniel Kahneman, psicólogo de Princeton y ganador del premio Nobel, y su investigación sobre los sesgos cognitivos. “Kahneman: Tus sesgos cognitivos actúan como ilusiones ópticas”.

En el proceso de resumir parte del trabajo del Dr. Kahneman, Robert Cringely, en el contexto del libro de Michael Lewis, The Undoing Project, hizo la siguiente observación astuta.

¿Qué Kahneman [and Tversky] descubierto es que tenemos cerebros antiguos que generalmente no hacen los cálculos porque las matemáticas solo han existido durante 5,000 años más o menos, mientras que nosotros, como especie, hemos estado caminando por la Tierra durante más de 2 millones de años. Nuestros procesos de toma de decisiones, tal como son, se basan en maximizar la supervivencia, no el éxito. Los primeros cazadores-recolectores no estaban tan preocupados por la optimización como simplemente por no ser devorados. Esto puso énfasis en tomar decisiones rápidamente.

Recomendado:  Cómo forzar el reinicio de su dispositivo cuando se congela o deja de responder

En el entorno técnico actual, se requiere un tipo de pensamiento diferente.

Lost in Space, Netflix, robot alienígena.  Tecnología AI.Comunicarse con mentes alienígenas también puede ser peligroso. Crédito de la imagen: Netflix.

Peligro, Will Robinson

El artículo en El borde entrevista al cofundador y director ejecutivo de Clara Labs, Maran Nelson. Este extracto llega al meollo del asunto. (Nelson en cursiva).

Casi todas las veces que la gente ha jugado con la idea de una IA y cómo se verá, y lo que significa que dé miedo, ha sido tremendamente antropomorfizada. Tienes esta cosa: viene, camina hacia ti y parece que probablemente vas a morir, o dejó muy claro que hay alguna posibilidad de que tu vida esté en peligro.

Si.

Lo que más me asusta de eso no es la probabilidad de que en los próximos cinco años nos suceda algo así, sino la probabilidad de que no suceda. En el transcurso de los próximos cinco años, a medida que las empresas continúen mejorando y mejorando en la construcción de estas tecnologías, el público en general no comprenderá qué es lo que se está haciendo con sus datos, qué están regalando y cómo deberían tener miedo de la forma en que la IA ya está jugando con sus vidas y su información.

Entonces, la idea de HAL de 2001 distrae a la gente de cuáles son las amenazas reales.

Mucho.

Visibilidad cero en las mentes de la tecnología de IA

Los seres humanos han crecido juntos durante mucho tiempo. Hemos aprendido a evaluar a los demás. Sabemos cómo tienden a pensar porque todos hemos evolucionado en el mismo planeta. Teniendo en cuenta el hecho de que los humanos surgieron en diferentes regiones geográficas, hablan diferentes idiomas, se visten de manera diferente y se ven diferentes, existe una cultura común de la humanidad. Vivimos y trabajamos juntos con valores basados ​​en el hecho de que somos humanos. Respiramos, amamos, tenemos hijos, deseamos los derechos humanos básicos, queremos ser útiles y respetados.

Cuando vemos a otro ser humano involucrado en alguna actividad, tendemos a entender qué lo motiva. (Si están mentalmente sanos). Nuestras conversaciones con ellos, incluso en todos los idiomas, se basan en nuestro terreno común como seres humanos. Es todo lo que hemos conocido hasta ahora.

Sin embargo, con la tecnología de IA, el proceso simple de involucrarlos de manera efectiva es tremendamente difícil. Los algoritmos, la esencia de cómo piensa la IA, pueden, y probablemente serán, completamente extraños.

Pedir una respuesta a una IA es fácil. Pidiendo “Por qué piensas eso” es más problemático.

Peor aún, las IA están siendo desarrolladas por empresas tecnológicas gigantes con agendas específicas. No tendremos idea de cuáles serán esas agendas. Pero ganar dinero probablemente estará en la parte superior de la lista.

Los humanos tienden a sobreestimar la infalibilidad de las computadoras. En un podcast reciente con la galardonada roboticista Dra. Ayanna Howard, me dijo (según recuerdo) que los adultos a menudo obedecen las directivas de los robots, no porque los humanos estén subordinados por naturaleza, sino porque suponen que la máquina pensante que tienen ante sí es superior. e infalible. Cómo y por qué confiaremos en las IA es un tema de investigación importante.

Si no podemos lograr un terreno común con nuestra nueva tecnología de inteligencia artificial, comprender qué los impulsa, comprender sus peculiaridades, interrogarlos sobre su razonamiento y valores, entonces es muy probable que a las IA avanzadas les resulte demasiado simple dirigirnos, manipular e intimidarnos para que revisemos nuestro pensamiento y nuestras creencias. Todo en beneficio de otra persona.

¿No crees que puede pasar? Ya lo ha hecho.

Tabla de Contenido