Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los vehículos autónomos podrían desarrollar un juicio moral superior

Mucho se ha escrito ahora sobre la guía moral para automóviles y camiones autónomos. Exploré algunos de los problemas yo mismo el año pasado en: “¿Qué pasaría si un futuro automóvil autónomo de Apple tomara una decisión muy mala?” Allí abordé, de primer orden, algunos de los temas de responsabilidad y política.

En el futuro, los detalles específicos de una decisión moral sobre las decisiones de vida o muerte presentan un problema difícil que implica cuantificar y luego instanciar en la lógica del software para estas decisiones importantes. Sería bueno que la sociedad tuviera más tiempo para reflexionar, pero el ritmo de la tecnología nos deja muy poco tiempo para eso. En lo que sigue, analizaré la investigación y luego jugaré con una variación de las Tres leyes de la robótica de Asimov para plantear la Gran Pregunta.

En primer lugar, debo enfatizar que este es un tema que se está analizando cada vez más. Se están realizando investigaciones, miles de ingenieros automotrices en las principales compañías automotrices, además de Google, Tesla y probablemente Apple, están trabajando en el problema. Y es fascinante.

Otras entidades están investigando los problemas de moralidad que rodean a los vehículos autónomos. Creo que el gobierno estatal y federal, las compañías de seguros y la Sociedad de Ingenieros Automotrices de EE. UU. están considerando los problemas. Así que algunas nociones fantasiosas que presento más adelante son simplemente para iniciar más debates.

Aquí hay algunos mecanismos candidatos actuales para desarrollar la moralidad de los vehículos autónomos.

1. Moralidad prescrita

Hay varias formas de atacar este problema. Una, quizás la forma más tradicional y obvia, es crear un conjunto de reglas hechas por el hombre. El problema con eso es que diferentes personas tienen un punto de vista diferente, y puede haber razones para creer que no existe una solución práctica que se adapte a todos.

Recomendado:  Se filtra otro video del Galaxy S8

En 1942, el distinguido científico, Ph.D. en bioquímica y escritor de ciencia ficción, el Dr. Isaac Asimov inventó las Tres leyes de la robótica. Mi percepción ha sido que la motivación original era simplemente apoyar su escritura de ciencia ficción. Más tarde, la perspectiva real de los robots reales en este siglo ha hecho que sus leyes pasen del ámbito de la ficción a una conversación seria para los desarrolladores de robots del siglo XXI.

Por desgracia, eso fue hace 3/4 de siglo, y tenemos nuevas herramientas a nuestra disposición, así como nuevas formas de manejar los problemas técnicos. Lo que parecía simple y decisivo entonces puede no aplicarse hoy. Además, la deferencia a la sabiduría de unos pocos expertos no es tan popular hoy en día y, sin embargo, aún puede haber ideas valiosas para cosechar.

2. Abastecimiento colectivo

Una de las formas en que los investigadores modernos abordan este problema es realizar experimentos situacionales con un gran número de personas para comprender, de manera estadísticamente válida, los valores morales más predominantes de los conductores humanos. Eso puede producir resultados interesantes. Por ejemplo, en este artículo en Científico americano: “Los autos sin conductor enfrentarán dilemas morales”, se citó el siguiente resultado.

La mayoría de los 1928 participantes de la investigación en el informe de Science indicaron que creían que los vehículos deberían estar programados para chocar contra algo en lugar de atropellar a los peatones, incluso si eso significaba matar a los pasajeros del vehículo.

Sin embargo, muchos de los mismos participantes del estudio se resistieron a la idea de comprar un vehículo de este tipo, prefiriendo viajar en un automóvil sin conductor que prioriza su propia seguridad por encima de la de los peatones.

Recomendado:  ACTUALIZACIÓN: se niegan los rumores de extensos reshoots en Mulan de Disney

Los humanos no siempre cristalizan sus valores de manera consistente. Más sobre eso más adelante.

En esa línea, un artículo en el Revisión de tecnología del MIT se titula “Por qué los autos sin conductor deben programarse para matar”. Eso parece insensible, pero es un hecho emergente. La pregunta es: “¿Quién y en qué circunstancias?”

3. Motores de moralidad

Una tercera vía relacionada es construir agentes de IA que puedan, mediante la exposición a una gran cantidad de escenarios humanos de casos de prueba, aprender a construir una base ética y luego ejercitarla. Ver: “¿Cuándo deberían los autos sin conductor matar a sus propios pasajeros?” Citar:

La Máquina se compone de una serie de dilemas éticos, la mayoría de los cuales me hacen sentir incómodo al responderlos. Por ejemplo, ¿qué hace cuando un automóvil sin conductor y sin pasajeros tiene que chocar contra un perro que hace alarde de un semáforo o contra un criminal persistente?

Una de las virtudes (o inconvenientes, según el punto de vista) de un motor de moralidad es que las decisiones que toma un vehículo autónomo solo se pueden rastrear hasta el software. Eso ayuda a absolver a los empleados de un fabricante de automóviles de la responsabilidad directa cuando se trata de decisiones de vida o muerte por parte de la máquina. Eso ciertamente parece ser una tendencia emergente en tecnología. El beneficio es obvio. Si un motor de moralidad toma la decisión correcta, según los estándares humanos, 99 995 veces de 100 000, el caso de daños extremos debido a fallas sistemáticas que causan la muerte es débil. La tecnología y la sociedad pueden avanzar.

Recomendado:  Los resultados de los Premios WGA 2009

Muy probablemente, la evolución de la moralidad de los automóviles autónomos será una combinación de los métodos n.° 2 y n.° 3 anteriores. Es una técnica que refleja los valores de las personas encuestadas y ejemplifica esa moralidad en un agente de IA que hace el mejor trabajo posible. Aun así, voy a arriesgarme, por el bien de la exploración y la discusión, y propondré un punto de partida para el método #1. Estoy haciendo esto porque la mejor manera de iniciar una discusión es construir un muñeco de paja.

Página 2: Caso de prueba: las cuatro leyes de Martellaro para vehículos autónomos