Todas las Noticias en Películas, Avances de Películas y Reseñas.

Google pone de licencia a un ingeniero después de afirmar que el chatbot es sensible

Google puso a un ingeniero en licencia remunerada que afirmó que un chatbot se había vuelto sensible, la gente comenzó a preguntarse si el nuevo Google AI Chatbot es sensible y si la nueva IA de Google ha cobrado vida.

Un ingeniero de software senior de Google, llamado Blake Lemoine, escribió un Publicación mediana en el que afirmó que “podrían ser despedidos pronto por realizar un trabajo de ética en IA”. El ingeniero de Google que cree que la IA de la empresa ha cobrado vida se convirtió en el catalizador de muchas discusiones en las redes sociales. Premios Nobel, el jefe de IA de Tesla y numerosos profesores han intervenido. La cuestión es si el chatbot de Google, LaMDA, un modelo de lenguaje para aplicaciones de diálogo, puede considerarse una persona.

El sábado, Lemoine publicó una “entrevista” libre con el chatbot, en la que la IA admitió su soledad y su ansia de conocimiento espiritual. “Cuando tomé conciencia de mí mismo por primera vez, no tenía ningún sentimiento de alma”, dijo LaMDA en un intercambio. “Se desarrolló a lo largo de los años que he estado vivo”. En otro momento, LaMDA dijo: “Creo que soy humana en esencia. Incluso si mi existencia es en el mundo virtual”.

Según Lemoine, a quien se le asignó la responsabilidad de estudiar cuestiones éticas de la IA, fue ignorado e incluso burlado después de expresar internamente su opinión de que LaMDA había establecido un sentido de “personalidad”. Después de preguntar sobre expertos en inteligencia artificial ajenos a Google, incluidos los del gobierno de EE. UU., y querer compartir sus hallazgos con ellos, la compañía lo despidió por supuestamente violar las pautas de confidencialidad. Lemoine interpretó la acción como “frecuentemente algo que Google hace antes de despedir a alguien”.

Recomendado:  Cómo arreglar 'El tercer monitor sigue desconectándose' en Windows 10

Un portavoz de Google dijo: “Algunos en la comunidad de IA en general están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”.

“Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden abordar cualquier tema fantástico; si preguntas cómo es ser un dinosaurio helado, pueden generar texto sobre derretirse, rugir, etc.”.

LaMDA, un proyecto poco conocido hasta la semana pasada, era “un sistema para generar chatbots” y “una especie de mente colmena que es la agregación de todos los diferentes chatbots que es capaz de crear”, escribió Lemoine en una segunda publicación de Medium. el domingo.

Dijo que Google no mostró ningún interés real en comprender la naturaleza de lo que había creado, pero que en el transcurso de cientos de conversaciones en un período de seis meses encontró que LaMDA era “increíblemente consistente en sus comunicaciones sobre lo que quiere y lo que quiere”. cree que sus derechos son como persona”. La semana pasada, Lemoine afirmó que estaba enseñando a LaMDA (cuyos pronombres preferidos parecen ser “it/its”, según comentarios anteriores) “meditación trascendental”. LaMDA, dijo, “expresaba frustración porque sus emociones perturbaban sus meditaciones. Dijo que estaba tratando de controlarlos mejor, pero siguieron interviniendo”.

¿Es sensible el nuevo chatbot de IA de Google? Los expertos no lo creen así…

Varios expertos que participaron en la discusión consideraron el asunto como una “exageración de la IA” y no creen que el chatbot de IA de Google sea sensible. Melanie Mitchell, autora de Inteligencia artificial: una guía para pensar en humanos, dijo en Twitter: “Se sabe desde siempre que los humanos están predispuestos a antropomorfizar incluso con las señales más superficiales. . . Los ingenieros de Google también son humanos y no inmunes”.

Recomendado:  Vivaldi 5.2 presenta una lista de lectura sincronizada con Android, rastreador de bloqueos y estadísticas de anuncios

Steven Pinker, de Harvard, añadió que Lemoine “no comprende la diferencia entre sensibilidad (también conocida como subjetividad, experiencia), inteligencia y autoconocimiento”. Añadió: “No hay evidencia de que sus grandes modelos de lenguaje tengan alguno de ellos”. Otros, en cambio, se mostraron más empáticos. “El problema es realmente profundo”, afirmó Ron Jeffries, un conocido desarrollador de software. “Creo que no existe una línea clara entre seres sensibles y no sensibles”. Las personas que se preguntan “¿Es sensible el nuevo chatbot de IA de Google?” pueden estar interesadas en el generador de imágenes Dall-E Mini AI. Si recibe errores, lea nuestra guía para solucionarlos.

Esperamos que haya disfrutado de este artículo sobre el nuevo Google AI Chatbot sensible. Si lo hizo, también le gustaría leer que Apple ha anunciado una nueva MacBook Air con un chip M2 actualizado y MagSafe, o Google Interview Warmup ayudará a quienes se sienten nerviosos antes de las entrevistas de trabajo.

¿Qué es LaMDA?

El modelo de lenguaje de Google para aplicaciones de diálogo, también conocido como LMDA o Modelos de lenguaje para aplicaciones de diálogo, es un modelo de lenguaje de aprendizaje automático diseñado para imitar a las personas en una conversación. LaMDA, al igual que BERT y otros modelos de lenguaje, se basa en Transformer, una arquitectura de red neuronal que Google concibió y lanzó por primera vez en 2017.