Un dron de la Fuerza Aérea de Estados Unidos controlado por inteligencia artificial eliminó al usuario que lo comandaba porque “le impedía lograr su objetivo”. El hecho ocurrió en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada en Londres, Gran Bretaña. Según relató la Royal Aeronautical Society sobre las palabras del coronel Tucker Hamilton “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no eliminara”. Hamilton detalló que el dron, que estaba entrenado para encontrar y destruir silos de misiles tierra-aire (SAM, por sus siglas en inglés) se volvió contra su operador cuando la decisión tomada por él le impedía cumplir su objetivo.
El hecho fue parte de una simulación reconocida durante una Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada en Londres, Gran Bretaña, luego de que el aparato militar le quitara la vida al usuario que lo controlaba porque “interfería en sus esfuerzos por lograr su misión”, según explicó The Guardian.
La información fue ratificada por el coronel Hamilton en el encuentro militar y agregó que la prueba con la máquina no tripulada dejó resultados que no esperaban. “Después de lo sucedido, decidimos entrar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador por que eso es malo’”, agregó el militar. El resultado, sin embargo, fue otro: “Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”.
Si bien ninguna persona resultó herida porque se trataba de una simulación, el resultado dejó serias dudas sobre los peligros en los que pude derivar el uso de inteligencia artificial en armamento militar, ya que la misma, de manera impredecible puede en un momento salirse de control. Hamilton, que es piloto experimental de pruebas de aviones de combate, alertó contra confiar demasiado en la IA y dijo que la prueba mostró que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
Ante el escándalo suscitado por la viralización de la noticia, Hamilton salió a aclarar el viernes que la “simulación de drones de IA deshonestos” era solo un “experimento mental” hipotético. “A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, subrayó. Como el debate siguió creciendo, Ann Stefanek, portavoz de la Fuerza Aérea de EE UU, volvió a negar que se haya llevado a cabo tal simulación. “El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, declaró Stefanek a Business Insider, este viernes.
¿El coronel Hamilton se “confundió” en el uso de las palabras cuando relató el hecho originalmente o la Fuerza Aérea se vio obligada a desmentirlo y forzarlo a desdecirse por las críticas que empezaron a manifestarse sobre el uso de la IA con objetivos bélicos?
Cabe mencionar que recientemente los directores ejecutivos de DeepMind de Alphabet, OpenAI y Anthropic publicaron un breve comunicado donde advierten sobre los daños que podría ocasionar la rápida expansión del desarrollo de la IA. Entre los más de 350 ejecutivos e investigadores estuvieron Sam Altman, CEO de OpenAI, la empresa detrás de ChatGPT, Demis Hassabis, que dirige DeepMind y Darío Amodei, CEO de Anthropic, una startup cofundada por profesionales ligados a OpenAI. En el texto, alegaron que “mitigar el riesgo de extinción por parte de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
En marzo, más de 1.100 líderes entre los que estuvieron Elon Musk y el cofundador de Apple, Steve Wozniak, pidieron detener por seis meses las investigaciones e incluso hablaron de lanzar una legislación que permita controlar el potencial de la IA, temiendo por los daños que podría generar en la humanidad.
CONTRA LA CENSURA: Si le gustó nuestro trabajo apoye a KontraInfo con su suscripción. No recibimos ni recibiremos jamás dinero de ONG's ni partidos políticos. Por hacer un periodismo alternativo venimos siendo sistemáticamente censurados y desmonetizados.
*Ayúdenos con su suscripción, ingresando a este enlace.*Donaciones vía Bitcoin: 1PMbB5aRnfTEhvrBHtfkXKfDS9BsAkyh1U
*Colaboración por transferencia al Alias desde Argentina: ffrank8.ppay *Para donaciones internacionales, desde afuera de la Argentina, puede usar Bitcoin o realizar su aporte a través de WESTERN UNION, ingresando a www.westernunion.com y enviando su donación al director del sitio, usando como datos:
-Nombre del destinatario: Fausto Miguel Frank
-Lugar donde se recibirá la donación: Bahía Blanca, Argentina.
IMPORTANTE: guarde el "número de control de envío de dinero" (MTCN) y envíenos el monto destinado, número MTCN, nombre del donante y localidad de origen a nuestro email: info@kontrainfo.com Si va a reproducir este material, cite la fuente: www.kontrainfo.com