Todas las Noticias en Películas, Avances de Películas y Reseñas.

La agencia de espionaje de Corea se prepara para revelar directrices de seguridad sobre ChatGPT y otras tecnologías de inteligencia artificial

La agencia de espionaje de Corea, el Servicio Nacional de Inteligencia (NIS), está lista para revelar pautas de seguridad para el uso de ChatGPT y otros chatbots de inteligencia artificial, abordando las preocupaciones en torno a la tecnología, según un informe de Los tiempos de Corea.

NIS está listo para publicar pautas de IA

El NIS planea publicar las directrices a los departamentos y agencias gubernamentales este mes, luego de un proyecto iniciado en abril en colaboración con expertos en el campo. El objetivo es aprovechar los beneficios de la tecnología de inteligencia artificial y al mismo tiempo minimizar las posibles complicaciones.

Las principales preocupaciones que rodean a los chatbots de IA incluyen la filtración de información personal o relacionada con el trabajo y la difusión de “noticias falsas” realistas.

A pesar de sus defectos y limitaciones, la tecnología de inteligencia artificial ha demostrado ser útil en varios ámbitos, lo que genera una combinación de expectativas y preocupaciones sobre su impacto en la vida diaria.

Kwon Tae-kyoung, un académico de la Universidad de Yonsei involucrado en el proyecto, enfatizó la importancia de desarrollar normas de seguridad junto con la tecnología misma. Destacó la importancia de utilizar la tecnología de IA en el marco de las políticas de seguridad.

Las próximas directrices del NIS se actualizarán continuamente para salvaguardar los intereses nacionales del posible uso indebido de las capacidades de la IA, incluso por parte de aquellos con intenciones maliciosas.

Si bien varios países, como Rusia, China y Cuba, ya han prohibido el uso de ChatGPT debido a preocupaciones sobre la privacidad, Italia impuso temporalmente una prohibición antes de levantarla después de que OpenAI implementara los cambios necesarios para cumplir con las regulaciones italianas.

Recomendado:  El juego de mesa alcanza su objetivo de kickstarter

Mientras tanto, Estados Unidos, la UE y otros países están trabajando actualmente para proporcionar un marco legal que regule la IA.

Primera Cumbre de IA

En noticias relacionadas, el Reino Unido se está preparando para albergar una cumbre sobre IA a finales de este año con el objetivo de fomentar la colaboración internacional en la gestión de los riesgos y maximizar los beneficios de esta tecnología que avanza rápidamente.

El primer ministro Rishi Sunak anunció la cumbre durante su visita a Washington, enfatizando la necesidad de un desarrollo y utilización seguros de la IA.

La cumbre, prevista para otoño, se centrará en evaluar y mitigar los riesgos asociados con la IA, incluidos los sistemas fronterizos. Su objetivo es establecer un enfoque compartido entre los países para abordar estos riesgos.

Dado que el rápido avance de la IA presenta desafíos y oportunidades, el gobierno del Reino Unido ha tomado la iniciativa de garantizar el desarrollo y la adopción seguros y responsables de la tecnología de IA.

La cumbre sobre seguridad de la IA, prevista para este otoño, se centrará en evaluar y mitigar los riesgos asociados con la IA, incluidos los sistemas fronterizos. Servirá como plataforma para que los países trabajen juntos y establezcan un enfoque compartido para abordar estos riesgos.

Las conversaciones entre el Primer Ministro y los líderes empresariales, incluidos los directores ejecutivos de OpenAI, DeepMind y Anthropic, influyeron en la agenda de la cumbre y resaltaron la importancia de la cooperación internacional para garantizar el avance seguro y responsable de la tecnología de IA.

En particular, el director ejecutivo de Google DeepMind, Demis Hassabis, expresó su apoyo a los esfuerzos del Reino Unido y destacó el papel fundamental de la cooperación internacional en el desarrollo de la IA de forma segura y responsable.

Recomendado:  Black Widow – Florence Pugh celebra el final de la filmación y muestra el anillo de Yelena Belova

ⓒ 2023 . .

Tabla de Contenido