Todas las Noticias en Películas, Avances de Películas y Reseñas.

El uso de IA puede conducir a atajos arriesgados para tareas complejas, afirma un nuevo estudio

La inteligencia artificial ha avanzado rápidamente en varios sectores y sus aplicaciones también se han vuelto expansivas. Sin embargo, los investigadores sostienen que a pesar de su avance, nunca estará a la altura de la capacidad de procesamiento visual de un ser humano.

En las aplicaciones de IA del mundo real, las redes neuronales convolucionales profundas (DCNN) pueden no percibir las cosas de la misma manera que los humanos debido a la percepción de formas configurables, dice el profesor James Elder, coautor de un estudio de la Universidad de Nueva York publicado en el periódico iCiencia.

Modelos de aprendizaje profundo

Como informó primero Ciencia y tecnología diarialos modelos de aprendizaje profundo no logran capturar la naturaleza configural de la percepción de la forma humana, según un estudio dirigido por Elder, quien ocupa la Cátedra de Investigación de York en Visión Humana y por Computadora.

Los hallazgos ilustran por qué los modelos de IA profunda fallan en escenarios específicos y enfatizan la necesidad de tener en cuenta actividades distintas al reconocimiento de objetos para comprender cómo el cerebro procesa la información visual, según Elder.

Elder enfatiza que cuando se intenta resolver problemas de reconocimiento desafiantes, estos modelos profundos frecuentemente utilizan “atajos”.

Aunque estos recortes rápidos pueden ser efectivos en muchas situaciones, el autor señala que pueden ser riesgosos en algunas aplicaciones de IA del mundo real que ahora estamos desarrollando con socios industriales y gubernamentales.

Un ejemplo de este uso son los sistemas de seguridad por vídeo del tráfico. Elder señaló que “los objetos en una escena de tráfico intenso (los vehículos, las bicicletas y los peatones) se obstruyen entre sí y llegan a la vista del conductor como un revoltijo de fragmentos desconectados”.

Recomendado:  El acorde de entrada para bicicleta eléctrica más nuevo de Urtopia es a la vez la bella y la bestia en el pavimento

Enfatizó que el cerebro debe categorizar correctamente esos fragmentos para identificar categorías y ubicaciones precisas de los objetos. Afirma que un sistema de inteligencia artificial para el control de la seguridad en el tráfico solo percibirá esos fragmentos individualmente, lo que finalmente fracasará en su tarea.

Elder dijo que esto podría dar lugar a “posibles riesgos de malentendidos” para los usuarios de la vía.

Según el equipo de investigación, las redes deben capacitarse para manejar problemas de objetos más complejos que solo la clasificación de categorías para que coincidan con la sensibilidad configurable humana.

Sesgo en la IA

En otro estudio reciente publicado En Filosofía y Tecnología, investigadores del Centro de Estudios de Género de Cambridge afirman que las herramientas de reclutamiento de IA son superficiales y comparables a la “pseudociencia automatizada”.

Afirman que es un ejemplo peligroso de “tecnosolucionismo”, que definen como el uso de la tecnología para abordar problemas difíciles como la discriminación sin hacer las inversiones necesarias o cambios en la cultura organizacional.

De acuerdo a un comunicado de prensa Desde la universidad, los investigadores trabajaron con un grupo de estudiantes universitarios de informática en Cambridge para crear una herramienta de inteligencia artificial en línea para desacreditar las afirmaciones de que la inteligencia artificial elimina los prejuicios en el lugar de trabajo.

La “Máquina de la Personalidad” demuestra cómo los cambios arbitrarios en la expresión facial, la vestimenta, la iluminación y el fondo pueden dar como resultado lecturas de personalidad radicalmente diferentes, lo que podría significar la diferencia entre ser rechazado y ser contratado entre la actual generación de solicitantes de empleo que compiten por puestos de posgrado. .

Recomendado:  El ejecutivo de Activision dice que las preocupaciones del regulador del Reino Unido sobre la adquisición de Microsoft se centran sólo en Sony

El equipo de Cambridge afirma que cuando la IA se utiliza para reducir los grupos de candidatos, ya que está diseñada para encontrar el candidato ideal para el empleador, en última instancia puede promover la uniformidad en lugar de la variación en la fuerza laboral.

ⓒ 2023 . .