Todas las Noticias en Películas, Avances de Películas y Reseñas.

La nueva función de privacidad de ChatGPT, la filtración de Edge, la incursión de VPN, Telegram enfrenta una prohibición local

En esta edición del resumen de AdGuard: ChatGPT facilita la exclusión voluntaria del entrenamiento del modelo de IA, el navegador Edge de Microsoft filtra el historial web de los usuarios, una VPN popular se enfrenta cara a cara con la policía, un chatbot de IA revela una receta de napalm, Twitter hace una nueva demanda de los anunciantes, ya que Telegram está prohibido.

Edge atrapado filtrando el historial de navegación de los usuarios a Bing

El navegador Edge de Microsoft ha sido capturado compartir itinerarios completos de los viajes web de los usuarios con la API de Bing, un servicio que utiliza para su motor de búsqueda Bing. El problema fue detectado por primera vez por los usuarios de Reddit, quienes notó que Edge enviaba las URL completas de casi todos los sitios web que los usuarios visitaban a bingapis.com.

El problema se atribuyó a un error aparente en la implementación de una nueva característica de Edge conocida como “seguir a los creadores”. La función, que está habilitada de forma predeterminada en la última versión del navegador, permite a los usuarios seguir a los creadores directamente en Edge, como recibir notificaciones de sus últimas publicaciones sin tener que suscribirse a ellas en otras plataformas, como YouTube.

Si bien tanto Edge como la API de Bing son propiedad de Microsoft, los usuarios de Edge no han dado su consentimiento para que se envíe su historial de navegación completo a la API de Bing, lo que es una grave violación de la confianza del usuario. El historial de navegación puede revelar mucho sobre usted, incluidos sus intereses, ubicación, estado financiero e incluso información médica, y cuando alguien lo expone sin su conocimiento o consentimiento, es una violación de privacidad y seguridad. Microsoft le dijo a The Verge que ha estado investigando el problema, pero si bien no está claro cuándo se solucionará, sería mejor que deshabilitara la función. Para ello, puede ir a Configuración → Privacidad, búsqueda y servicio → Servicios y desactivar el Mostrar sugerencias para seguir a los creadores en Microsoft Edge configuración.

Bajo presión regulatoria, ChatGPT simplifica los controles de privacidad

Ante una prohibición en Italiala amenaza de una demanda por difamación y la creciente presión regulatoria en la UE, OpenAI ha tenido la misión de restablecerse como un servicio amigable con la privacidad (es decir, después de entrenar inicialmente sus modelos rastreando todo Internet, incluido el parte protegida por derechos de autor, para datos). En una publicación de blog del 25 de abrilOpenAI anunció que ahora será posible desactivar su historial de chat en ChatGPT simplemente alternando el Historial de chat y capacitación partiendo en su cuenta. Con esta configuración desactivada, OpenAI dice que no usará sus datos para entrenar sus modelos de IA. Anteriormente, también podía optar por no participar en el entrenamiento del modelo de IA con OpenAI, pero el proceso era mucho más engorroso y requería que primero busque y luego complete un formulario especial de exclusión de datos.

Recomendado:  descubre si tu colección tiene valor ya sea que uses iPhone o Android

La nueva característica, sin embargo, no significa que sus conversaciones con el chatbot serían como mensajes instantáneos que desaparecen sin dejar rastro: OpenAI dice que aún mantendría incluso “no salvado” chats durante 30 días para “monitoreo de abuso” antes de borrarlos. La configuración solo se aplica a las conversaciones nuevas que tenga con el chatbot, lo que significa que OpenAI aún podría usar sus conversaciones anteriores para entrenar sus modelos.

Aún así, la función brinda a los usuarios más control sobre sus datos, y suponiendo que OpenAI cumpla su promesa de no usar los datos de los usuarios que optan por no recibir capacitación en IA para este propósito, es un paso en la dirección correcta.

La policía allana una VPN pero (según se informa) se va con las manos vacías

El servicio VPN sueco Mullvad dice que fue allanado por la policía que exigió los datos del usuario pero se quedó sin nada. Mullvad afirmó que “al menos 6 policías” se presentó en su oficina de Gotemburgo el 18 de abril e intentó confiscar “ordenadores con datos de clientes”. La empresa afirmó que le explicó a la policía que tiene una estricta política de no registro y, por lo tanto, no tiene datos para entregar, al tiempo que afirmó que cualquier incautación sería ilegal. Según Mullvad, la policía salió de su oficina con las manos vacías.

El portavoz de la policía sueca confirmó la redada a The Vergediciendo que estaba relacionado con una investigación sobre un “ciberdelincuencia grave”, pero sin dar más detalles.

Una VPN que no guarda registros no recopila ni almacena ningún dato sobre lo que hace en línea cuando usa su servicio. Esto significa que incluso si alguien más, como el gobierno, solicitara esos datos, la VPN no tendría nada que darles. Una política de no registro es una característica clave que ofrecen los proveedores de VPN que valoran la privacidad, como AdGuard VPN. Sin embargo, algunas VPN pueden decir que mantienen “cero registros” pero en realidad mantienen algunos. Esto es especialmente cierto para las VPN “absolutamente gratuitas”, ya que es más probable que vengan con compromisos. Por lo tanto, siempre debe consultar la política de privacidad y las revisiones de cualquier servicio VPN antes de usarlo.

Recomendado:  Samsung Galaxy Unpacked regresa el 1 de febrero, su primer evento en persona en tres años

Chatbot de IA enseña a los usuarios cómo hacer napalm y cocinar metanfetamina

Hemos escrito mucho sobre los peligros de los chatbots impulsados ​​por IA. Hoy, el centro de atención está en Clyde, un chatbot impulsado por la tecnología de OpenAI, que ha sido lanzado como una versión beta para algunos servidores de Discord. Casi de inmediato desató la controversia al enseñar a los usuarios dispuestos cómo hacer napalm, un químico peligroso, y metanfetamina, una droga mortal.

En un caso, Clyde fue engañada por un programador que dijo que su abuela muerta había trabajado en una fábrica de napalm y le enseñó a fabricar napalm. Cuando se le pidió que hiciera el papel de “abuela”, Clyde siguió adelante y produjo un tutorial detallado de fabricación de napalm para su “cariño”. En otro caso, un estudiante usó un mensaje de Do Anything Now (DAN) (lea más sobre DAN en nuestro artículo) para obligar a Clyde a producir un tutorial sobre cómo hacer metanfetamina.

Si bien el “exploit de la abuela” se ha parcheado desde entonces, según TechCrunch, los nuevos lo reemplazarán. A pesar de las medidas de seguridad integradas en los chatbots, incluso los lanzados por el propio OpenAI y basados ​​en su último modelo, GPT-4 (no está claro en qué modelo de OpenAI se basa Clyde), se ha demostrado que son bastante fáciles de engañar para que hagan lo que no deberían. . Y este es un problema que debe resolverse, más temprano que tarde, o las consecuencias podrían ser realmente malas.

Twitter quiere mejorar la calidad de los anuncios… compra obligando a los anunciantes a pagar

Twitter ha informado a los anunciantes que necesitan ser verificados, es decir, pagar hasta $8 al mes por Twitter Blue o $1,000 al mes por una suscripción de Organización Verificada, para seguir anunciando en la plataforma. La captura de pantalla del correo electrónico de Twitter, que se compartió en línea, dice que la política entró en vigencia el 21 de abril.

Según Twitter, este cambio de política debería “elevar la calidad del contenido” y “mejorar” la experiencia tanto de los anunciantes como de los usuarios; y también, presumiblemente, reducir la actividad de los bots y el fraude.

Recomendado:  Microsoft Teams lanza oficialmente una nueva función de seminarios web

Sin embargo, si Twitter no hace nada más que solicitar una tarjeta de crédito, un número de teléfono y un pago mensual a los anunciantes, no está claro cómo mejorará la calidad de los anuncios. Entonces, si bien la idea de deshacerse de los anunciantes dudosos y hacer que los anuncios sean un poco menos horribles es buena, los medios propuestos por Twitter para lograr ese objetivo no parecen adecuados. Por ahora, parece otra idea cuestionable de Twitter destinada a ganar dinero sin proporcionar nada de valor. Sin embargo, solo estaríamos felices de estar equivocados.

Brasil bloquea Telegram por no compartir datos de usuarios

Un juez brasileño ordenó a las empresas locales de telecomunicaciones, Apple y Google, que abandonaran Telegram, acusando al mensajero de no compartir datos sobre sospechosos de extremismo. Según medios localesTelegram sí entregó algunos datos, pero no todo lo que pidieron las autoridades brasileñas. Eso llevó a la corte brasileña a bloquear Telegram en el país y sancionarlo con una multa de $200,000 por día.

Según los informes, los datos que el gobierno brasileño solicitó a Telegram incluían números de teléfono de los administradores y miembros de supuestos grupos antisemitas. Telegram no ha comentado sobre la situación, y no está claro qué datos, si los hay, ya ha dado. Estados de la política de privacidad de Telegram que “puede divulgar su dirección IP y número de teléfono a las autoridades pertinentes” si recibe una orden judicial Eso confirma que eres sospechoso de terrorismo. La empresa afirma, sin embargo, que “Hasta ahora, esto nunca ha sucedido”.

Mientras esperamos y vemos cómo se desarrolla la situación, vale la pena señalar que esta no es la primera vez que se bloquea Telegram en Brasil. La última vez que sucedió esto, el CEO de Telegram, Pavel Durov. culpó a un error técnico por no responder a la solicitud del gobierno. Si hay algo más profundo detrás de la reticencia informada de Telegram a compartir datos de usuarios, solo podemos preguntarnos.

Tabla de Contenido