Todas las Noticias en Películas, Avances de Películas y Reseñas.

¿Qué queremos de verdad, de verdad, de Siri?

Siri es lo suficientemente bueno como para hacernos pensar en dónde podría ir a continuación. Tengo preguntas.

¡Hola Siri! Voy a …

Siri de Apple es un agente de inteligencia artificial (IA). Se introdujo en 2011 y ha mejorado gradualmente desde entonces. Pero la tecnología de Siri, al ser una IA, siempre plantea la pregunta: ¿a dónde puede ir ella (él) ahora? ¿Qué debería poder hacer Siri? ¿Cuál debería ser su manifestación última? ¿Y límites?

El evento que me hizo pensar fue este evento, informado en Particle Debris para el 1 de febrero de 2019.

Un niño de 13 años le dijo a Siri que planeaba un tiroteo en la escuela. La respuesta de Siri no se informó, pero el joven tomó una captura de pantalla de la conversación y la publicó en las redes sociales. Así fue como se descubrieron e informaron sus intenciones.

Para los primeros, discutimos este evento en el Podcast de observaciones diarias de TMO para el 4 de febrero de 2019. La premisa comienza con la idea de que, algún día, Siri podría tener que manejar directamente una situación tan peligrosa. Eso plantea muchas preguntas.

    Dado que las IA serán mucho mejores y más intuitivas en el futuro, ¿debería una IA personal asumir la responsabilidad de denunciar un crimen inminente planificado? ¿A quién debería informar Siri sus preocupaciones? ¿Padre? ¿Profesor? ¿Policía? ¿Debería Siri obedecer siempre las Tres Leyes de la Robótica de Asimov? (Por ejemplo, nunca permitir que su compañero humano sufra daños.) ¿Deben ser privilegiadas y protegidas las conversaciones con Siri, como con un sacerdote o un abogado? ¿Quién decide las respuestas a las preguntas anteriores?
Recomendado:  Sprint lanza la actualización del Galaxy S9 Plus que permite la activación a través de Wi-Fi y el parche de marzo

Límites de elevación

Concepto de inteligencia artificialCuales son los limites? ¿Qué queremos que sean?

Hoy, disculpamos las fallas de Siri con límites en la tecnología de inteligencia artificial, el hardware y las velocidades de Internet. Y sin duda, Siri también tiene restricciones artificiales. Por ejemplo, si le preguntas a Siri en un Apple Watch “¿qué hora es?” ella (él) responderá en voz alta. Pero si preguntas “¿Cuál es mi pulso?” Siri iniciará la aplicación Heart Rate, se la mostrará y permanecerá en silencio.

Esto podría deberse a que los ingenieros de Apple han determinado que los datos de salud personal no deben expresarse verbalmente, dado que puede haber transeúntes inapropiados. O quizás Siri no tiene acceso directo a los datos de salud y estado físico. O ambos. A medida que pasa el tiempo, ¿deberíamos esperar que Siri tenga un acceso inteligente y también sepa cuándo se le permite hablar en voz alta?

Este artículo, que he citado en Particle Debris, hace una pregunta relacionada. “¿Son los asistentes de salud en el hogar la nueva prueba de Turing para la IA?” Es decir, ¿podemos juzgar la sofisticación de una IA no por la prueba de Turing sino por cómo maneja las situaciones médicas de su propietario?

¿Qué significa para una máquina ser inteligente? Durante décadas, la respuesta común a esa pregunta ha sido pasar la “prueba de Turing”. Esta prueba, que lleva el nombre del famoso matemático Alan Turing, dice que si una máquina puede mantener una conversación con un humano a través de una interfaz textual de modo que el humano no pueda distinguir entre un humano y una máquina, entonces la máquina es inteligente….

Recomendado:  AT&T Galaxy Note 9 recoge la actualización de Android 9 Pie en los EE. UU.

Pero hay un problema: pudimos crear chatbots que podían pasar la prueba de Turing hace mucho tiempo. Sabemos que la inteligencia que muestran es estrecha y limitada….

Rodney Brooks del MIT propone nuevas formas de pensar sobre AGI [Artificial General Intelligence] que van mucho más allá de la prueba de Turing…. lo que él llama ECW. Con esto no se refiere a un robot compañero amigable, sino a algo que ofrece asistencia cognitiva y física que permitirá a alguien vivir con dignidad e independencia a medida que envejece en su propio hogar.

En resumen, los compañeros robot / IA del futuro pueden tener que tomar decisiones inteligentes, informadas y compasivas sobre la salud y el bienestar del compañero humano. O, al menos, consulte sabiamente con otro ser humano responsable sobre una emergencia de salud o de aplicación de la ley.

De escalofriante a agradable asombro

Muchos llamarían a este tipo de sofisticación emergente espeluznante. Especialmente porque sabemos que siempre existe la tentación de explotar nuestros chats más personales con una IA en nuestra contra por parte del desarrollador. (O por aquellos con una orden judicial). O para obtener ganancias financieras.

Pero dado que podemos resolver ese tipo de problemas, preferiría pasar del concepto de espeluznante a asombro. Es decir, ¿nos sorprende constantemente lo bien que se está volviendo Siri? ¿O debemos estar siempre decepcionados en general con sus limitaciones?

Si el objetivo de la investigación de la IA es producir una inteligencia que no se pueda distinguir (mágicamente) de la de otro ser humano, entonces tendremos que lidiar con muchas decisiones técnicas, de privacidad y legales incómodas sobre su diseño. La forma en que nos acerquemos a eso dictará si nuestras futuras IA se volverán asombrosamente inteligentes, competentes y responsables o simplemente perpetuamente decepcionantes.

Recomendado:  ¿Qué es el chat de censura en Among Us y cómo desactivarlo?

¿Cuál es nuestra preferencia como humanos?