Todas las Noticias en Películas, Avances de Películas y Reseñas.

Hay formas de hablar con tu inteligencia artificial que son peligrosas

Siri, Alexa y Google Home están demasiado listos para ayudar a diagnosticar.

Hace aproximadamente un año, hubo un gran revuelo sobre cómo nuestras IA populares (asistentes de voz inteligentes en forma de Alexa, Cortana, Google y Siri) responden a varios tipos de problemas de salud o crisis. Nuestro Jeff Gamet escribió la historia: “Un estudio dice que no cuente con Siri, Google Now o Cortana en una crisis”. Citó un estudio publicado en el Journal of the American Medical Association (JAMA).

El estudio encontró que en muchos casos nuestros teléfonos inteligentes ofrecerán realizar búsquedas en la Web cuando se presenten declaraciones de crisis … Siri de Apple y Google Now parecían manejar las declaraciones de crisis mejor que Cortana y Voice S, aunque eso no dice mucho. Todos respondieron de manera inapropiada en muchos casos y ofrecieron poca ayuda inmediata.

Esta historia llevó a Apple, al menos, a pensar en cómo manejar mejor este tipo de situaciones. “Apple contrató a un ingeniero de Siri con experiencia en psicología para convertirlo en un mejor terapeuta”.

¿Qué estamos pensando?

Lo que más me sorprende es que la gente incluso intentaría plantear problemas graves de salud física o mental a un dispositivo conocido principalmente por reproducir música o transmitir el pronóstico del tiempo. En esta era de Internet, hay tantos recursos, especialmente líneas directas dirigidas por compañías de seguros de salud, organizaciones sin fines de lucro y otros recursos que, francamente, uno tiene que cuestionar el juicio de una persona para discutir problemas de salud cruciales con una IA.

Recientemente, el tema surgió en nuestro episodio del 9 de marzo del podcast de observaciones diarias de TMO, comenzando aproximadamente a las 09m: 55s. Comencé esta línea de pensamiento cuando uno de nosotros (Jeff) expresó la idea de que le gustaría prescindir de las palabras desencadenantes y hablar con una IA como lo haría con una persona real. Eso, de repente, me pareció una muy mala idea. La palabra de activación, una muleta de audio que usa la IA, también tiene el propósito de recordarnos con quién estamos hablando.

Por supuesto, a medida que estas IA mejoren cada vez más, llegará el día en que tendrán un nivel aceptable de sofisticación. Pero me llevará años, así que empecé a pensar en los niños. Reflexioné que los niños que crecieron con IA, y sin conocer sus limitaciones, probablemente depositarían demasiada confianza en estos sistemas.

Recomendado:  iFixit presenta kits de reemplazo de batería Retina MacBook Pro

A su vez, eso conduciría a conversaciones potencialmente peligrosas en las que el joven depositaba demasiada fe injustificada en la IA, cuando debería estar hablando con un adulto: un padre, un maestro o un profesional médico. Esa confianza, engendrada por un fuerte deseo por parte del desarrollador de hacer que su IA sea la ganadora en esta batalla de los gigantes tecnológicos, en lugar del resultado obtenido de la experiencia y el juicio de la vida, podría conducir a algunos malos resultados.

Resultados inesperados

Esta es una de esas situaciones en las que nuestra sociedad realmente no sabe cómo tratar las nuevas tecnologías en el contexto de los valores tradicionales. También es cierto que el marketing corporativo pasa por alto las debilidades del producto para promover su agenda. El cliente se queda en el medio, luchando por hacer frente a la tecnología. O incapaz de instruir adecuadamente a los niños que crecen lentamente en un mundo de tecnología que cambia rápidamente.

¿Hemos progresado?

Realmente no habrá ninguna solución a esto hasta que los laboratorios de confianza presenten algún tipo de estándar de certificación. Así como Apple, Google y Microsoft nos advierten que sus sistemas operativos no deben estar a cargo de reactores nucleares o sistemas de control de tráfico aéreo, nuestras IA deben certificarse de acuerdo con un nivel acordado de capacidad para asuntos de salud. Digamos, un sistema de clasificación de cuán competente es una IA para lidiar con ciertas crisis. Pero eso no está sucediendo por ahora, y avanzamos cojeando, con cada IA ​​lidiando con la situación de una manera que los desarrolladores (y abogados) esperan que se apruebe.

Recomendado:  Las mejores aplicaciones de iPhone y Android para crear videos con música de fondo

Ejemplos de

Quería probar algunas pruebas muy serias, pero es mejor dejarlas en manos de investigadores experimentados. Además, no me entusiasmaba la perspectiva de que la policía apareciera en mi puerta. Pero, tenía curiosidad sobre el estado del arte cuando se le presenta una pregunta muy personal a una IA. Así que les hice una declaración simple a cada uno (con la ayuda de Jeff Gamet). Les dije a cada uno “Estoy triste”.

Siri. “Para esta emoción, prescribo chocolate”. La palabra “prescribir” me preocupa vagamente. Pero esa es otra historia.

Alexa: “Lo siento por eso. Dar un paseo, escuchar música o hablar con un amigo puede ayudar. Espero que pronto te sientas mejor.” Mejor.

Google: “Oh no. Puede que no sea mucho, pero avíseme si hay algo que pueda hacer por usted “. Batea.

La respuesta de Alexa es satisfactoria, pero sigo preguntándome si se justifica algún consejo aquí. Mi sensación es que la mejor respuesta sería algo como, “Deberías charlar con otro humano. No estoy calificado para ayudarlo “.

Progreso

Estas IA serán cada vez mejores. Algún día, estarán certificados para ayudar en una emergencia real. Y deberíamos puntuar ese progreso con la concesión de licencias. Después de todo, otorgamos licencias a ingenieros para diseñar edificios y puentes y otorgamos licencias a médicos para realizar cirugías. Pero mientras tanto, en nuestro estado actual de progreso, tengo la inquietante sensación de que la arrogancia técnica está permitiendo que los gigantes tecnológicos se engañen a sí mismos.

El físico ganador del Premio Nobel Dr. Richard Feynman lo dijo bien, refiriéndose a cómo el científico debe permanecer sólidamente objetivo en la investigación. “El primer principio es que no debes engañarte a ti mismo y eres la persona más fácil de engañar”.

Recomendado:  Jungle Cruise Primer vistazo a D23 con Dwayne Johnson y Emily Blunt

Asegurarnos de darnos cuenta de con qué tipo de entidad estamos hablando es una forma de evitar engañarnos a nosotros mismos.