
OpenAI ha reconocido que su popular modelo de traducción impulsado por inteligencia artificial, Whisper, puede inventar textos que nadie ha dicho, incluso añadiendo comentarios raciales y retórica violenta.
Los militares llevan años contratando a empresas privadas para construir armas autónomas personalizadas. Sin embargo, las recientes guerras de Israel marcan un ejemplo destacado de uso de modelos comerciales de IA programados en Estados Unidos en una guerra activa a pesar de las preocupaciones de que no se desarrollaron originalmente para ayudar a decidir quién vive y quién muere.
El ejército israelí utiliza IA para examinar enormes cantidades de datos de inteligencia, comunicaciones interceptadas y vigilancia para encontrar discursos o comportamientos sospechosos y conocer los movimientos de sus enemigos. Después del ataque sorpresa de Hamás el 7 de octubre de 2023, su uso de la tecnología de Microsoft y OpenAI se disparó.
La investigación también reveló nuevos detalles de cómo los sistemas de IA seleccionan objetivos y las formas en que pueden fallar, incluidos datos defectuosos o algoritmos erróneos. La investigación se basa en documentos internos, datos y entrevistas exclusivas con funcionarios israelíes actuales y anteriores y empleados de las empresas en cuestión.
El objetivo de Israel tras el ataque, en el cual unas 1.200 personas perdieron la vida y más de 250 fueron tomadas como rehenes, era erradicar a Hamás, y su ejército ha calificado la IA como un «factor decisivo» que permite localizar objetivos con mayor rapidez. Desde que comenzó la guerra, más de 50.000 personas han muerto en Gaza y el Líbano y casi el 70% de los edificios de Gaza han quedado destruidos, según los ministerios de salud de Gaza y el Líbano.
«Esta es la primera confirmación que hemos obtenido de que los modelos comerciales de IA se están utilizando directamente en la guerra», dijo Heidy Khlaaf, científica jefa de IA en el AI Now Institute y exingeniera de seguridad en OpenAI. «Las implicaciones son enormes para el papel de la tecnología a la hora de permitir este tipo de guerra poco ética e ilegal en el futuro».
Entre las empresas tecnológicas estadounidenses, Microsoft ha tenido una relación especialmente estrecha con el ejército israelí durante décadas.
Esa relación, junto con las que mantiene con otras empresas tecnológicas, se intensificó después del ataque de Hamás. La respuesta de Israel a la guerra tensó sus propios servidores y aumentó su dependencia de proveedores externos, según una presentación del año pasado de la coronel Racheli Dembinsky, la principal oficial de tecnología de la información del ejército. Mientras describía cómo la IA había proporcionado a Israel una «eficacia operativa muy significativa» en Gaza, los logotipos de Microsoft Azure, Google Cloud y Amazon Web Services aparecieron en una gran pantalla detrás de ella.
El uso de la inteligencia artificial de Microsoft y OpenAI por parte del ejército israelí se disparó en marzo pasado a casi 200 veces más que antes de la semana previa al ataque del 7 de octubre, descubrió AP al revisar la información interna de la empresa. La cantidad de datos que almacenó en los servidores de Microsoft se duplicó entre ese momento y julio de 2024 a más de 13,6 petabytes, aproximadamente 350 veces la memoria digital necesaria para almacenar todos los libros de la Biblioteca del Congreso. El uso de los enormes bancos de servidores informáticos de Microsoft por parte de los militares también aumentó casi dos tercios solo en los dos primeros meses de la guerra.
Microsoft se negó a proporcionar ningún comentario para esta historia y no respondió a una lista detallada de preguntas escritas sobre los servicios de inteligencia artificial y nube que proporciona al ejército israelí.
En una declaración extensa en su sitio web, la empresa dice que «respetar los derechos humanos es un valor fundamental de Microsoft» y está comprometida «a defender el papel positivo de la tecnología en todo el mundo». En su Informe de transparencia de IA responsable de 40 páginas para 2024, Microsoft se compromete a «mapear, medir y gestionar los riesgos de la IA generativa a lo largo del ciclo de desarrollo para reducir el riesgo de daño», pero no menciona sus lucrativos contratos militares.
Los modelos avanzados de IA se proporcionan a través de OpenAI, el programador de ChatGPT, a través de la plataforma en nube Azure de Microsoft, donde son comprados por el ejército israelí, según muestran los documentos y los datos. Microsoft ha sido el mayor inversor de OpenAI.
OpenAI dijo que no tiene una asociación con el ejército de Israel y que sus políticas de uso establecen que sus clientes no deben usar sus productos para desarrollar armas, destruir propiedades o dañar a personas. Sin embargo, hace aproximadamente un año, OpenAI cambió sus términos de uso de prohibir el uso militar a permitir «casos de uso de seguridad nacional que se alineen con nuestra misión».
El ejército israelí se negó a responder preguntas escritas detalladas de AP sobre su uso de productos comerciales de inteligencia artificial de empresas tecnológicas estadounidenses, pero dijo que sus analistas usan sistemas habilitados con inteligencia artificial para ayudar a identificar objetivos y examinarlos de forma independiente junto con oficiales de alto rango para cumplir con el derecho internacional, sopesando la ventaja militar frente a los daños colaterales.
«Estas herramientas de inteligencia artificial hacen que el proceso de inteligencia sea más preciso y más efectivo», dijo un comunicado militar israelí a AP. «Hacen que más objetivos se alcancen más rápido, pero no a expensas de la precisión, y muchas veces en esta guerra han podido minimizar las bajas civiles», argumentó.
Google y Amazon brindan servicios de computación en la nube e inteligencia artificial al ejército israelí en el marco del «Proyecto Nimbus», un contrato de 1.200 millones de dólares firmado en 2021, cuando Israel probó por primera vez sus sistemas internos de orientación impulsados por inteligencia artificial. Las FDI han utilizado granjas de servidores o centros de datos de Cisco y Dell. Red Hat, una subsidiaria independiente de IBM, también ha proporcionado tecnologías de computación en la nube al ejército israelí, mientras que Palantir Technologies, un socio de Microsoft en contratos de defensa de Estados Unidos, tiene una «asociación estratégica» que proporciona sistemas de inteligencia artificial para ayudar a los esfuerzos bélicos de Israel.
Después de que OpenAI cambiara sus términos de uso el año pasado para permitir fines de seguridad nacional, Google siguió su ejemplo a principios de este mes con un cambio similar en su política de ética pública para eliminar el lenguaje que decía que no usaría su inteligencia artificial para armas y vigilancia. Google dijo que está comprometido con el desarrollo y la implementación responsable de una inteligencia artificial «que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional».
Las Fuerzas de Defensa de Israel utilizan Microsoft Azure para recopilar información obtenida a través de la vigilancia masiva, que luego transcribe y traduce, incluidas llamadas telefónicas, mensajes de texto y de audio, según un oficial de inteligencia israelí que trabaja con los sistemas. Esos datos pueden luego cotejarse con los sistemas de selección de objetivos internos de Israel y viceversa.
Dijo que confía en Azure para buscar rápidamente términos y patrones dentro de enormes cantidades de texto, como encontrar conversaciones entre dos personas dentro de un documento de 50 páginas. Azure también puede encontrar personas que se dan instrucciones entre sí en el texto, que luego se pueden cotejar con los propios sistemas de inteligencia artificial del ejército para determinar ubicaciones.
Los datos de Microsoft que revisó AP muestran que, desde el ataque del 7 de octubre, el ejército israelí ha hecho un uso intensivo de herramientas de transcripción y traducción y modelos OpenAI, aunque no detalla cuáles. Por lo general, los modelos de inteligencia artificial que transcriben y traducen funcionan mejor en inglés. OpenAI ha reconocido que su popular modelo de traducción impulsado por inteligencia artificial, Whisper, que puede transcribir y traducir a varios idiomas, incluido el árabe, puede inventar textos que nadie ha dicho, incluso añadiendo comentarios raciales y retórica violenta.
Los errores pueden ocurrir por muchas razones que involucran a la IA, dijeron oficiales militares israelíes que han trabajado con los sistemas de selección de objetivos y otros expertos en tecnología. Las llamadas telefónicas interceptadas vinculadas al perfil de una persona incluyen la hora en que la persona llamó y los nombres y números de las personas que participaron en la llamada. Pero se necesita un paso adicional para escuchar y verificar el audio original, o para ver una transcripción traducida.
El ejército israelí dice que se supone que una persona que sabe árabe debe verificar las traducciones. Aun así, un oficial de inteligencia dijo que había visto errores de selección de objetivos que dependían de traducciones automáticas incorrectas del árabe al hebreo.
Be the first to comment