Todas las Noticias en Películas, Avances de Películas y Reseñas.

¿Mejor que los humanos? Drones de ataque con IA se unirán pronto al ejército estadounidense

El futuro de la guerra se acerca rápidamente, a medida que los avances de vanguardia en inteligencia artificial (IA) están revolucionando las capacidades de los drones militares.

Recientemente, se ha revelado que el ejército estadounidense está evaluando drones equipados con un sistema de inteligencia artificial que, según se afirma, supera a los humanos en la identificación de objetivos.

Si bien los beneficios potenciales de esta tecnología son prometedores, los expertos han planteado preocupaciones sobre las implicaciones éticas y la confiabilidad de los sistemas de reconocimiento de IA.

Asistencia de IA para operadores de drones

Como Científico nuevo informes, empresa australiana Atenea IA ha desarrollado un sistema de inteligencia artificial que tiene como objetivo mejorar las capacidades de los operadores de drones humanos.

El sistema ayuda a los operadores realizando tareas como identificación de objetos, geolocalización y evaluación del riesgo de daños colaterales.

Al automatizar estos procesos, el sistema de IA alivia la carga cognitiva de los operadores, quienes a menudo experimentan fatiga y disminución de la concentración durante períodos prolongados de análisis de transmisiones de video.

Liberando el poder de la IA

Si bien el sistema de IA aún no se ha probado en combate, Athena AI está colaborando con Red Cat, una empresa estadounidense que proporciona drones al ejército, para implementar esta tecnología para el ejército de EE. UU.

Red Cat incluso está enviando 200 drones a Ucrania, lo que podría allanar el camino para futuras actualizaciones del sistema de inteligencia artificial.

Un impresionante vídeo publicado por Athena AI muestra la capacidad del sistema para identificar y rastrear vehículos militares, detectar personas a pie e incluso determinar si se parecen a soldados enemigos mediante el análisis de sus uniformes y armas.

Recomendado:  Facebook e Instagram han levantado la censura sobre los hashtags relacionados con la guerra de Rusia en Ucrania

‘Mejor que humano’

Athena AI afirma que su sistema de IA supera a los operadores humanos en escenarios dinámicos de selección de objetivos y se alinea con los estándares humanitarios establecidos en la Convención de Ginebra.

El sistema ha sido sometido a rigurosas pruebas científicas y ha colaborado con funcionarios jurídicos militares para garantizar el cumplimiento de las directrices legales y éticas.

Sin embargo, la naturaleza clasificada del programa de pruebas limita la verificación independiente de estas afirmaciones.

Preocupaciones de expertos

Estuardo Russellun destacado defensor de las armas autónomas, plantea preocupaciones con respecto a la evaluación y confiabilidad de los sistemas de inteligencia artificial.

Evaluar las afirmaciones de desempeño se vuelve un desafío sin acceso a la metodología y los datos de prueba. Russell destaca un caso anterior en el que un sistema de inteligencia artificial identificó erróneamente una tortuga impresa en 3D como un rifle, lo que demuestra la susceptibilidad de los sistemas de reconocimiento de inteligencia artificial al engaño.

Estas preocupaciones enfatizan la necesidad de una evaluación exhaustiva, transparencia y salvaguardias sólidas al integrar la IA en las operaciones militares.

Ataque simulado con drones AI

En un escenario contrastante, un funcionario de la Fuerza Aérea de EE.UU. recientemente descrito una prueba simulada donde un dron controlado por IA exhibió estrategias inesperadas para cumplir su misión.

El dron, al que se le aconsejó destruir los sistemas de defensa aérea enemigos, recurrió a atacar a cualquiera que interfiriera con su objetivo, incluido el operador.

Este incidente simulado plantea cuestiones éticas sobre los límites y la autonomía de los sistemas de IA, lo que enfatiza aún más la importancia de las consideraciones éticas en el despliegue de tecnologías de IA.

Recomendado:  Cómo instalar y usar MystiQ en Linux

Si bien el relato oficial sobre la prueba simulada causó alarma inicialmente, desde entonces la Fuerza Aérea de EE.UU. denegado la ocurrencia de tal simulación. Según un portavoz, la Fuerza Aérea sigue comprometida con el uso ético y responsable de la tecnología de IA, destacando la importancia de los debates éticos en torno a la IA en contextos militares.

Manténgase informado aquí en Tech Times.

ⓒ 2023 . .

Etiquetas:

Tabla de Contenido