Todas las Noticias en Películas, Avances de Películas y Reseñas.

Sam Altman de OpenAI amenaza con salir de la UE en medio de conversaciones sobre regulación de IA

CEO de Open AI sam altman continúa su alcance internacional, aprovechando el impulso generado por sus recientes apariciones ante el Congreso de los Estados Unidos. Sin embargo, el enfoque de Altman en el extranjero difiere del clima amigable con la IA en los Estados Unidos, ya que insinúa la posibilidad de reubicar sus empresas tecnológicas si no se cumplen las reglas.

El viaje trotamundos de Altman lo ha llevado desde Lagos, Nigeria a varios destinos europeos, culminando en Londres, Reino Unido. A pesar de enfrentar algunas protestas, se involucra activamente con figuras prominentes de la industria tecnológica, las empresas y los legisladores, y enfatiza las capacidades del modelo de lenguaje ChatGPT de OpenAI. Altman busca reunir apoyo para las regulaciones pro-IA mientras expresa su descontento por la definición de sistemas de “alto riesgo” de la Unión Europea, como se discutió durante un panel en el University College London.

El Ley de IA propuesta por la Unión Europea introduce una clasificación de tres niveles para los sistemas de IA basada en los niveles de riesgo. Las instancias de IA que presentan un “riesgo inaceptable” al violar los derechos fundamentales incluyen sistemas de puntuación social y IA manipuladora de ingeniería social. Por otro lado, los “sistemas de IA de alto riesgo” deben cumplir con estándares integrales de transparencia y supervisión, adaptados a su uso previsto.

Sam Altman expresó su preocupación con respecto al borrador actual de la ley, afirmando que tanto ChatGPT como el próximo GPT-4 podrían entrar en la categoría de alto riesgo. En tales casos, sería necesario el cumplimiento de requisitos específicos. Altman enfatizó la intención de OpenAI de luchar por el cumplimiento, pero reconoció que existen limitaciones técnicas que pueden afectar su capacidad para hacerlo. Como reportado por el tiempo, afirmó, “Si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar… Lo intentaremos. Pero hay límites técnicos a lo que es posible”.

Recomendado:  Blink Charging Co. se asocia con Bridgestone Retail Operations para suministrar cargadores de vehículos eléctricos en las ubicaciones de Firestone

La Ley de IA de la UE se actualiza a medida que la IA sigue mejorando

Originalmente destinada a abordar las preocupaciones relacionadas con el sistema de crédito social y el reconocimiento facial de China, la Ley de IA se ha enfrentado a nuevos desafíos con el surgimiento de OpenAI y otras empresas emergentes. Posteriormente, la UE introdujo disposiciones en diciembre, dirigidas a “modelos fundamentales” como los modelos de lenguaje grande (LLM) que impulsan los chatbots de IA como ChatGPT. Recientemente, un comité del Parlamento Europeo aprobó estas regulaciones actualizadas, haciendo cumplir los controles de seguridad y la gestión de riesgos.

A diferencia de los Estados Unidos, la UE ha mostrado una mayor inclinación a examinar OpenAI. El Junta Europea de Protección de Datos ha estado monitoreando activamente el cumplimiento de ChatGPT con las leyes de privacidad. Sin embargo, es importante tener en cuenta que la Ley de IA aún está sujeta a posibles revisiones, lo que probablemente explica la gira mundial de Altman, que busca navegar por el panorama en evolución de las regulaciones de IA.

Altman reiteró puntos familiares de su reciente testimonio ante el Congreso, expresando preocupaciones sobre los riesgos de la IA y el reconocimiento de sus beneficios potenciales. Abogó por la regulación, incluidos los requisitos de seguridad y una agencia rectora para las pruebas de cumplimiento. Altman pidió un enfoque regulatorio que logre un equilibrio entre las tradiciones europeas y estadounidenses.

Sin embargo, Altman advirtió contra las regulaciones que podrían limitar el acceso de los usuarios, dañar a las empresas más pequeñas o impedir el movimiento de IA de código abierto. La postura en evolución de OpenAI sobre la apertura, citando la competencia, contrasta con sus prácticas anteriores. Vale la pena señalar que cualquier nueva regulación beneficiaría inherentemente a OpenAI al proporcionar un marco para la rendición de cuentas. Las verificaciones de cumplimiento también podrían aumentar el costo de desarrollar nuevos modelos de IA, lo que le da a la empresa una ventaja en el competitivo panorama de la IA.

Recomendado:  Tinder ahora ofrece verificación de antecedentes a través de Garbo

Varios países han impuesto prohibiciones en ChatGPT, siendo Italia uno de ellos. Sin embargo, después de que OpenAI mejorara los controles de privacidad de los usuarios, el gobierno de extrema derecha de Italia levantó la prohibición. Es posible que OpenAI deba continuar abordando las preocupaciones y haciendo concesiones para mantener una relación favorable con los gobiernos de todo el mundo, especialmente teniendo en cuenta su gran base de usuarios de más de 100 millones de usuarios activos de ChatGPT.

¿Por qué los gobiernos actúan con cautela sobre los chatbots de IA?

Hay una serie de razones por las que los gobiernos pueden imponer prohibiciones en ChatGPT o modelos de IA similares por varias razones:

  1. Desinformación y noticias falsas: Los modelos de IA como ChatGPT pueden generar información engañosa o falsa, lo que contribuye a la difusión de información errónea. Los gobiernos pueden imponer prohibiciones para evitar la difusión de contenido inexacto o dañino.
  2. Contenido inapropiado u ofensivo: Los modelos de IA tienen el potencial de generar contenido inapropiado, ofensivo o que viola las normas y valores culturales. Los gobiernos pueden prohibir ChatGPT para proteger a los ciudadanos de encontrar material objetable.
  3. Preocupaciones éticas: Los modelos de IA plantean cuestiones éticas relacionadas con la privacidad, el consentimiento y el sesgo. Los gobiernos pueden imponer prohibiciones para abordar las preocupaciones sobre la privacidad de los datos, el posible uso indebido de la información personal o la perpetuación de sesgos en el contenido generado por IA.
  4. Cumplimiento normativo: Los modelos de IA deben cumplir con las leyes y regulaciones existentes. Los gobiernos pueden imponer prohibiciones si descubren que ChatGPT no cumple con los requisitos reglamentarios, como la protección de datos o los estándares de contenido.
  5. Seguridad Nacional y Estabilidad Social: Los gobiernos pueden percibir los modelos de IA como una amenaza potencial para la seguridad nacional o la estabilidad social. Pueden imponer prohibiciones para evitar el uso indebido de la tecnología de IA con fines maliciosos o para mantener el control sobre el flujo de información.
Recomendado:  Microsoft obtuvo el control de 7 dominios utilizados por un APT ruso

Vale la pena señalar que las razones específicas de las prohibiciones impuestas por el gobierno en ChatGPT pueden variar según las jurisdicciones, y las decisiones están influenciadas por una combinación de factores legales, éticos, sociales y políticos. Para conocer algunos riesgos actuales y consecuencias no deseadas de los chatbots de IA, consulte estos últimos artículos: