Todas las Noticias en Películas, Avances de Películas y Reseñas.

¿Se puede proteger a los humanos de los riesgos de la IA? Experto sugiere un ‘neuroescudo’

La creciente influencia de la inteligencia artificial (IA) y las redes sociales mejoradas con IA ha generado preocupaciones sobre su potencial para manipular la realidad e influir en la opinión pública.

En respuesta a esto, Harris Eyre, experto en neurociencia del Instituto Baker de Políticas Públicas de la Universidad Rice, aboga por un sistema de autodefensa digital para proteger a las personas y las comunidades de la desinformación impulsada por la IA y su impacto en la inteligencia colectiva.

‘Neuroshield’ para proteger al público de la IA

en un nuevo informet, Eyre enfatizó la necesidad de medidas regulatorias para controlar la IA avanzada y las plataformas de redes sociales mejoradas con IA, que tienen el potencial de distorsionar la realidad y difundir información falsa, desafiando así el funcionamiento democrático de las sociedades.

El aumento de los deepfakes, especialmente durante las temporadas electorales, ha amplificado aún más la urgencia de abordar estas preocupaciones y salvaguardar la integridad de la información.

Eyre propuso el desarrollo de un “neuroescudo”, un enfoque multifacético para contrarrestar los efectos negativos de la IA en nuestros procesos cognitivos y el bienestar colectivo. El neuroescudo incluiría tres componentes clave: un código de conducta para la objetividad de la información, protecciones regulatorias y un conjunto de herramientas educativas para los ciudadanos.

El primer aspecto del neuroescudo se centra en establecer un “código de conducta” entre editores, periodistas, líderes de medios y formadores de opinión para apoyar la objetividad de la información.

Si bien reconoció la importancia de la libertad social y política a la hora de interpretar los hechos, Eyre enfatizó la necesidad de proteger verdades innegables para que no sean distorsionadas por narrativas ambiguas o engañosas.

Recomendado:  Google Chrome está probando una función nativa para tomar notas

El segundo aspecto gira en torno a la implementación de protecciones regulatorias para garantizar que los proveedores de modelos de IA rindan cuentas y mantengan la transparencia. Inspirándose en la propuesta de Ley Europea de IA, Eyre aboga por políticas que aborden los posibles sesgos y vulnerabilidades de las tecnologías de IA.

Kit de herramientas educativas para ciudadanos

El tercer componente del neuroshield implica la creación de un conjunto de herramientas educativas para los ciudadanos, especialmente los jóvenes que participan mucho en las plataformas de redes sociales.

Este conjunto de herramientas, desarrollado en colaboración con neurocientíficos, tiene como objetivo mejorar la libertad cognitiva y capacitar a las personas para discernir la información objetiva de la desinformación.

Al equipar a las personas con habilidades de verificación de hechos y conciencia de los sesgos cognitivos, el conjunto de herramientas sirve como defensa contra las tácticas manipuladoras empleadas por la desinformación impulsada por la IA.

“Es fundamental que tanto los responsables políticos como los científicos del cerebro avancen en este enfoque político”, Eyre dijo en un comunicado.

“La propuesta de Ley Europea de IA es un ejemplo de cómo se puede prever cómo los proveedores de modelos de IA pueden rendir cuentas y mantener la transparencia. Al involucrar estrechamente a los neurocientíficos en la planificación y el despliegue del Neuroshield, Estados Unidos puede garantizar que se aprovechen los mejores conocimientos existentes sobre el funcionamiento de nuestra cognición. se tienen en cuenta”, añadió.

ⓒ 2023 . .