Todas las Noticias en Películas, Avances de Películas y Reseñas.

Regulación de IA comparable a la energía nuclear

Escucha el Podcast:

Sam Altman, director ejecutivo de OpenAI, ha colaborado con otros dos expertos para presentar un plan integral para regular la gobernanza de la ‘superinteligencia’. Esto se refiere a sistemas avanzados de inteligencia artificial como Google Bard, ChatGPT y otros.

Según Altman, los sistemas de inteligencia artificial (IA) tienen el potencial de superar la experiencia humana en varios campos y alcanzar niveles de productividad comparables a los de las grandes corporaciones en la próxima década.

El surgimiento de la superinteligencia es un tema que ha sido ampliamente discutido debido a su potencial de importantes beneficios y riesgos. Existe el potencial para un futuro más próspero, pero no sin los riesgos que lo acompañan que deben navegarse con cuidado.

Según Altman, el gobierno de la superinteligencia se puede comparar con ejemplos históricos como la energía nuclear y la biología sintética. Estos campos requerían un tratamiento y una coordinación especiales debido a sus riesgos potenciales.

El individuo propone tres conceptos cruciales para maniobrar el avance de la superinteligencia de manera efectiva.

  • Coordinación: Los expertos en inteligencia artificial han enfatizado la importancia de la coordinación entre las principales iniciativas de desarrollo de IA. Esta coordinación se considera crucial para garantizar la seguridad de la tecnología de IA y su perfecta integración en la sociedad. Los gobiernos pueden considerar establecer un proyecto o llegar a un consenso sobre la regulación del avance de la IA.
  • autoridad internacional: Una autoridad internacional ha sugerido que los proyectos de IA con un cierto nivel de capacidad deberían estar sujetos a regulación, similar a la Agencia Internacional de Energía Atómica (OIEA) para la energía nuclear. Se ha propuesto una autoridad para supervisar la inspección de los sistemas, el cumplimiento de las normas de seguridad y la implementación de restricciones en el despliegue y la seguridad.
  • Investigación de seguridad: A medida que avanza el desarrollo de la superinteligencia, los expertos piden que se preste más atención a la seguridad de esta tecnología. La investigación técnica se considera un componente crucial para garantizar que la superinteligencia se desarrolle de manera segura. OpenAI y otras organizaciones continúan estudiando esta área.
Recomendado:  James Gunn defiende a Marvel después de las críticas a Coppola y Scorsese

Altman ha enfatizado que el desarrollo de modelos de IA por debajo de un cierto umbral de capacidad no debe ser sofocado por la regulación. Según el usuario, las empresas y los proyectos de código abierto deberían poder crear modelos sin enfrentar una regulación excesiva.

Según los expertos, la gobernanza de los sistemas de IA más potentes debe implicar una sólida supervisión pública. Las personas en todo el mundo deberían tomar decisiones democráticamente sobre el despliegue y las limitaciones de varias medidas. OpenAI está planeando experimentar con el desarrollo de un mecanismo para el aporte público, aunque aún no se han diseñado los detalles exactos de este mecanismo.

En una publicación reciente en el blog de OpenAI, Altman y sus colegas autores explicaron por qué la organización continúa desarrollando esta tecnología a pesar de los riesgos potenciales. Los defensores afirman que la implementación de esta solución dará como resultado un panorama global significativamente mejorado, abordando problemas de manera efectiva y mejorando las comunidades.

Detener el avance de la superinteligencia plantea un desafío formidable, mientras que las ventajas potenciales son demasiado sustanciales para pasarlas por alto. Por lo tanto, es imperativo manejar su progreso con la máxima precaución.