Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los científicos del MIT expresan su preocupación por la IA: compartirla genera ‘juicios más duros’ que los humanos

A medida que la Inteligencia Artificial (IA) se convierte en un aspecto cada vez más importante de nuestras vidas, apenas ahora comenzamos a comprender cómo puede interpretar el mundo que nos rodea. Un nuevo estudio del Instituto Tecnológico de Massachusetts (MIT) ha descubierto que la IA puede ser mucho más dura que los humanos a la hora de juzgar si se han infringido las reglas.

Los riesgos de que la IA tome medidas basadas en infracciones interpretadas

Según el relato de MSNlos investigadores advierten que esto podría llevar a que la IA se exceda en cuanto a castigos dependiendo de la información con la que haya sido programada.

El estudio analizó cómo la IA interpretaría las infracciones percibidas de un código, en particular utilizando el ejemplo de imágenes de perros que pueden violar una política de alquiler de viviendas contra razas agresivas.

Los participantes se dividieron en dos grupos; Se pidió al equipo descriptivo que indicara si se presentaban tres características objetivas en la imagen o el texto, como por ejemplo si el perro parecía agresivo.

Mayor riesgo de sesgo humano al utilizar la IA en entornos políticos

El grupo normativo, por el contrario, recibió información sobre la política general sobre perros y se le asignó la tarea de determinar si la imagen la había violado y por qué. La investigación encontró que el equipo descriptivo tenía un 20% más de probabilidades de declarar una infracción del código que el equipo normativo, lo que demuestra que los datos utilizados pueden afectar significativamente el resultado.

Esto tiene implicaciones importantes, ya que el uso de este tipo de datos en un entorno político podría conducir a castigos más severos -como sentencias más largas o fianzas más altas- que los decididos por humanos.

Recomendado:  Los mejores generadores de nombres de correo electrónico para usar en presentaciones profesionales [2023]

Para evitar el riesgo de que la IA muestre prejuicios humanos, los investigadores sugieren la necesidad de una mayor transparencia de los datos y de que los datos utilizados coincidan con el contexto previsto. Si la IA se va a utilizar en procesos humanos, como entornos legales y médicos, entonces es importante que se utilicen expertos en esos campos para la entrada de datos.

La necesidad de transparencia y supervisión humana en la toma de decisiones sobre IA

Esto garantizará que la IA pueda interpretar los matices de manera más efectiva y lograr resultados más justos. Esta investigación ha revelado la importancia de que los programas sean transparentes con respecto a qué datos se han utilizado para entrenar la IA, de modo que se puedan considerar posibles sesgos.

Dado que la IA se está volviendo cada vez más común en nuestras vidas, es esencial que se realicen más investigaciones para garantizar que no se haga un mal uso y que se tenga en cuenta el juicio humano cuando sea necesario.

Comprender los riesgos de la inteligencia artificial y cómo mitigarlos

Para solucionar el problema, los expertos del MIT han pedido una mayor transparencia en la recopilación de datos, señalando que saber cómo se recopilan y utilizan los datos puede ayudar a evitar que los modelos de IA sean demasiado estrictos. Otro artículo de Cuadro comparte los riesgos de la inteligencia artificial.

Se necesita más conciencia sobre las implicaciones del uso de la IA para la toma de decisiones y la importancia de utilizar datos normativos en lugar de datos descriptivos. El Instituto Nacional de Estándares y Tecnología También publicó un marco de gestión de riesgos de IA en colaboración con los sectores público y privado.

Recomendado:  Japón conquistará el metaverso con sus avatares de anime kawaii

ⓒ 2023 . .