China advirtió ayer un escenario al que muchos le temen. El país comunicó al gobierno estadounidense que un uso desmesurado de la inteligencia artificial (IA) en el ámbito militar podría sumir al mundo en el apocalipsis de la película “Terminator”, donde las máquinas toman el poder.
Estados Unidos mantiene actualmente un intenso debate ético sobre las aplicaciones militares de la IA. El gobierno del presidente Donald Trump está inmerso en un pulso con la “start-up” estadounidense Anthropic, a la que impuso sanciones.
Esta empresa, especializada en IA, se niega a permitir que el ejército de su país utilice su tecnología sin restricciones, tal y como exige la administración, en particular para la vigilancia masiva de la población o la automatización de ataques y bombardeos con consecuencias mortales.
Según varios medios, los modelos tecnológicos de Anthropic se utilizaron en la preparación de la ofensiva israel-estadounidense contra Irán que desató una guerra en Oriente Medio.
“Continuar sin límites con la militarización de la inteligencia artificial, utilizarla como instrumento para violar la soberanía de otras naciones, permitir que influya excesivamente en las decisiones bélicas y dejar que los algoritmos tengan poder de vida o muerte sobre los seres humanos no solo socava los fundamentos éticos y las responsabilidades en tiempo de guerra, sino que también corre el riesgo de provocar una pérdida de control tecnológico”, señaló ayer Jiang Bin, portavoz del Ministerio de Defensa chino.
“Una distopía como la que se describe en la película estadounidense ‘Terminator’ podría convertirse algún día en realidad”, subrayó en un comunicado, en respuesta a una pregunta sobre la voluntad de Washington de dar al ejército estadounidense acceso ilimitado a la IA.
“Terminator” se estrenó en 1984, con el actor Arnold Schwarzenegger como protagonista. Describe un futuro apocalíptico en el que, en 2029, unos robots controlados por una inteligencia artificial superior luchan contra los seres humanos.
El Departamento de Defensa estadounidense agregó la semana pasada a Anthropic a su lista de empresas que suponen un “riesgo para la seguridad nacional en materia de suministros” elaborada por el Pentágono, en respuesta a la negativa de la empresa a levantar las restricciones de uso de su IA.
Esta inclusión obliga a todos los proveedores a prescindir inmediatamente de Anthropic y de su asistente de IA generativa Claude en el marco de sus servicios a la dependencia gubernamental.
DEBATE EN GUERRA
La guerra en Oriente Medio ilustra la creciente importancia de la inteligencia artificial en los conflictos, especialmente para el análisis de información y la selección de objetivos, pero su fiabilidad y su papel en el proceso de decisión de los ataques siguen siendo objeto de acalorados debates.
Guerra en Gaza, en Ucrania, la captura de Nicolás Maduro: la IA se convirtió en un componente esencial en toda operación militar.
Por ahora se desconocen los usos concretos de la IA en el conflicto actual en Oriente Medio. Sin embargo, según los expertos, es probable que Israel y Estados Unidos, que llevaron a cabo miles de bombardeos contra Irán desde el inicio de la guerra el 28 de febrero, la hayan utilizado, especialmente para acelerar la realización de las operaciones.
Hoy en día, “todas las potencias militares importantes invierten enormemente en las aplicaciones militares de inteligencia artificial”, afirmó Laure de Roucy-Rochegonde, del Instituto Francés de Relaciones Internacionales.
“Prácticamente todas las funciones militares pueden potenciarse con la IA”, agrega la investigadora, citando entre otras “la logística, el reconocimiento, la observación, la guerra de información, la guerra electrónica, la ciberseguridad”.
LA “KILL CHAIN”
Además de su aplicación en drones de ataque y armas semiautomáticas, uno de los usos más conocidos de estas tecnologías es la reducción de lo que los militares llaman la “kill chain”, es decir, el tiempo entre la detección de un objetivo y el ataque.
El ejército estadounidense utiliza la plataforma Maven Smart System (MSS), creada por Palantir, que le permite identificar objetivos potenciales y clasificarlos jerárquicamente.
Según The Washington Post, el modelo IA de Anthropic, Claude, está integrado en Maven y aumenta sus capacidades de identificación y simulación.
Las empresas Palantir y Anthropic no respondieron a las solicitudes de AFP.
Los algoritmos “nos permiten procesar la información mucho más rápido y, sobre todo, ser más exhaustivos”, explicó Bertrand Rondepierre, que dirige la agencia encargada de desarrollar la IA en el ejército francés (Amiad).
La IA permite analizar enormes cantidades de datos, “desde imágenes de satélite, radar, electromagnéticas, sonido, imágenes de drones, hasta videos en tiempo real en ocasiones”, agregó el ingeniero.
“¿QUIÉN ES RESPONSABLE?”
El uso de la IA plantea sin embargo numerosas cuestiones morales y jurídicas, en particular sobre el control humano de estas tecnologías.
El debate surgió especialmente con la guerra en Gaza, donde los israelíes utilizaron un programa bautizado “Lavender” para identificar objetivos en el territorio palestino, con un margen de error.
Lavender pudo utilizarse en Gaza, según Laure de Roucy-Rochegonde, “porque se trataba de un territorio muy reducido” y estaba “asociado a un sistema de vigilancia en masa” de los habitantes del enclave costero. “Parece menos probable que un sistema de esta envergadura se haya implantado en Irán”, considera.
“Si algo sale mal, ¿quién es responsable?”, señaló Peter Asaro, presidente de la oenegé Comité internacional para el control de las armas robotizadas.
Asaro citó el presunto bombardeo de una escuela en Irán, en la ciudad de Minab, que causó 150 muertos según las autoridades iraníes. Ni Estados Unidos ni Israel reconocieron ser los autores de este ataque, pero Washington señaló que está investigando.
La ONU exigió que la investigación sea “rápida” y “transparente”, y esperó que “los responsables rindan cuentas”.
Varios medios, entre ellos The New York Times, afirman que el edificio se encontraba cerca de dos emplazamientos de los Guardianes de la Revolución iraníes.
“No distinguieron la escuela de la base militar como deberían haber hecho (…) pero ¿quiénes son?”, se pregunta Peter Asaro. ¿Humanos o máquinas?
Si se utilizó la IA, la cuestión clave, según él, es saber “cuál es la antigüedad de los datos” empleados y si se trata de un “error de base de datos”.
“CONFIANZA” Y “CONTROL”
Para Bertrand Rondepierre, pensar que las IA “operan sin que nadie tenga el control” es “ciencia ficción”. En Francia, “el mando militar está en el centro de la acción y de la concepción de estos sistemas”, señaló.
“Ningún responsable militar aceptaría utilizar la IA si no tiene confianza y control sobre lo que hace”, agregó. “Saben qué riesgos conlleva, cuáles son los márgenes de maniobra de estos sistemas y en qué contexto pueden utilizarlos, con qué nivel de confianza”, aseguró Rondepierre.
El uso de la IA por parte de los ejércitos se encuentra, en cualquier caso, en una fase “muy inicial”, explicó Benjamin Jensen, del centro de reflexión CSIS en Washington, que participó durante los últimos diez años en experimentos sobre la IA y la toma de decisiones militares.
Los ejércitos aún no han “replanteado fundamentalmente la forma en que planifican y llevan a cabo las operaciones para aprovechar al máximo estas innovaciones”, agregó. “Probablemente hará falta toda una generación para que comprendamos realmente cómo explotar todo esto”.(Semana)
La entrada China alerta que IA en terreno militar crearía apocalipsis como “Terminator” se publicó primero en El Diario – Bolivia.
China advirtió ayer un escenario al que muchos le temen. El país comunicó al gobierno estadounidense que un uso desmesurado de la inteligencia artificial (IA) en el ámbito militar podría sumir al mundo en el apocalipsis de la película “Terminator”, donde las máquinas toman el poder. Estados Unidos mantiene actualmente un intenso debate ético sobre
La entrada China alerta que IA en terreno militar crearía apocalipsis como “Terminator” se publicó primero en El Diario – Bolivia.
China advirtió ayer un escenario al que muchos le temen. El país comunicó al gobierno estadounidense que un uso desmesurado de la inteligencia artificial (IA) en el ámbito militar podría sumir al mundo en el apocalipsis de la película “Terminator”, donde las máquinas toman el poder.
Estados Unidos mantiene actualmente un intenso debate ético sobre las aplicaciones militares de la IA. El gobierno del presidente Donald Trump está inmerso en un pulso con la “start-up” estadounidense Anthropic, a la que impuso sanciones.
Esta empresa, especializada en IA, se niega a permitir que el ejército de su país utilice su tecnología sin restricciones, tal y como exige la administración, en particular para la vigilancia masiva de la población o la automatización de ataques y bombardeos con consecuencias mortales.
Según varios medios, los modelos tecnológicos de Anthropic se utilizaron en la preparación de la ofensiva israel-estadounidense contra Irán que desató una guerra en Oriente Medio.
“Continuar sin límites con la militarización de la inteligencia artificial, utilizarla como instrumento para violar la soberanía de otras naciones, permitir que influya excesivamente en las decisiones bélicas y dejar que los algoritmos tengan poder de vida o muerte sobre los seres humanos no solo socava los fundamentos éticos y las responsabilidades en tiempo de guerra, sino que también corre el riesgo de provocar una pérdida de control tecnológico”, señaló ayer Jiang Bin, portavoz del Ministerio de Defensa chino.
“Una distopía como la que se describe en la película estadounidense ‘Terminator’ podría convertirse algún día en realidad”, subrayó en un comunicado, en respuesta a una pregunta sobre la voluntad de Washington de dar al ejército estadounidense acceso ilimitado a la IA.
“Terminator” se estrenó en 1984, con el actor Arnold Schwarzenegger como protagonista. Describe un futuro apocalíptico en el que, en 2029, unos robots controlados por una inteligencia artificial superior luchan contra los seres humanos.
El Departamento de Defensa estadounidense agregó la semana pasada a Anthropic a su lista de empresas que suponen un “riesgo para la seguridad nacional en materia de suministros” elaborada por el Pentágono, en respuesta a la negativa de la empresa a levantar las restricciones de uso de su IA.
Esta inclusión obliga a todos los proveedores a prescindir inmediatamente de Anthropic y de su asistente de IA generativa Claude en el marco de sus servicios a la dependencia gubernamental.
DEBATE EN GUERRA
La guerra en Oriente Medio ilustra la creciente importancia de la inteligencia artificial en los conflictos, especialmente para el análisis de información y la selección de objetivos, pero su fiabilidad y su papel en el proceso de decisión de los ataques siguen siendo objeto de acalorados debates.
Guerra en Gaza, en Ucrania, la captura de Nicolás Maduro: la IA se convirtió en un componente esencial en toda operación militar.
Por ahora se desconocen los usos concretos de la IA en el conflicto actual en Oriente Medio. Sin embargo, según los expertos, es probable que Israel y Estados Unidos, que llevaron a cabo miles de bombardeos contra Irán desde el inicio de la guerra el 28 de febrero, la hayan utilizado, especialmente para acelerar la realización de las operaciones.
Hoy en día, “todas las potencias militares importantes invierten enormemente en las aplicaciones militares de inteligencia artificial”, afirmó Laure de Roucy-Rochegonde, del Instituto Francés de Relaciones Internacionales.
“Prácticamente todas las funciones militares pueden potenciarse con la IA”, agrega la investigadora, citando entre otras “la logística, el reconocimiento, la observación, la guerra de información, la guerra electrónica, la ciberseguridad”.
LA “KILL CHAIN”
Además de su aplicación en drones de ataque y armas semiautomáticas, uno de los usos más conocidos de estas tecnologías es la reducción de lo que los militares llaman la “kill chain”, es decir, el tiempo entre la detección de un objetivo y el ataque.
El ejército estadounidense utiliza la plataforma Maven Smart System (MSS), creada por Palantir, que le permite identificar objetivos potenciales y clasificarlos jerárquicamente.
Según The Washington Post, el modelo IA de Anthropic, Claude, está integrado en Maven y aumenta sus capacidades de identificación y simulación.
Las empresas Palantir y Anthropic no respondieron a las solicitudes de AFP.
Los algoritmos “nos permiten procesar la información mucho más rápido y, sobre todo, ser más exhaustivos”, explicó Bertrand Rondepierre, que dirige la agencia encargada de desarrollar la IA en el ejército francés (Amiad).
La IA permite analizar enormes cantidades de datos, “desde imágenes de satélite, radar, electromagnéticas, sonido, imágenes de drones, hasta videos en tiempo real en ocasiones”, agregó el ingeniero.
“¿QUIÉN ES RESPONSABLE?”
El uso de la IA plantea sin embargo numerosas cuestiones morales y jurídicas, en particular sobre el control humano de estas tecnologías.
El debate surgió especialmente con la guerra en Gaza, donde los israelíes utilizaron un programa bautizado “Lavender” para identificar objetivos en el territorio palestino, con un margen de error.
Lavender pudo utilizarse en Gaza, según Laure de Roucy-Rochegonde, “porque se trataba de un territorio muy reducido” y estaba “asociado a un sistema de vigilancia en masa” de los habitantes del enclave costero. “Parece menos probable que un sistema de esta envergadura se haya implantado en Irán”, considera.
“Si algo sale mal, ¿quién es responsable?”, señaló Peter Asaro, presidente de la oenegé Comité internacional para el control de las armas robotizadas.
Asaro citó el presunto bombardeo de una escuela en Irán, en la ciudad de Minab, que causó 150 muertos según las autoridades iraníes. Ni Estados Unidos ni Israel reconocieron ser los autores de este ataque, pero Washington señaló que está investigando.
La ONU exigió que la investigación sea “rápida” y “transparente”, y esperó que “los responsables rindan cuentas”.
Varios medios, entre ellos The New York Times, afirman que el edificio se encontraba cerca de dos emplazamientos de los Guardianes de la Revolución iraníes.
“No distinguieron la escuela de la base militar como deberían haber hecho (…) pero ¿quiénes son?”, se pregunta Peter Asaro. ¿Humanos o máquinas?
Si se utilizó la IA, la cuestión clave, según él, es saber “cuál es la antigüedad de los datos” empleados y si se trata de un “error de base de datos”.
“CONFIANZA” Y “CONTROL”
Para Bertrand Rondepierre, pensar que las IA “operan sin que nadie tenga el control” es “ciencia ficción”. En Francia, “el mando militar está en el centro de la acción y de la concepción de estos sistemas”, señaló.
“Ningún responsable militar aceptaría utilizar la IA si no tiene confianza y control sobre lo que hace”, agregó. “Saben qué riesgos conlleva, cuáles son los márgenes de maniobra de estos sistemas y en qué contexto pueden utilizarlos, con qué nivel de confianza”, aseguró Rondepierre.
El uso de la IA por parte de los ejércitos se encuentra, en cualquier caso, en una fase “muy inicial”, explicó Benjamin Jensen, del centro de reflexión CSIS en Washington, que participó durante los últimos diez años en experimentos sobre la IA y la toma de decisiones militares.
Los ejércitos aún no han “replanteado fundamentalmente la forma en que planifican y llevan a cabo las operaciones para aprovechar al máximo estas innovaciones”, agregó. “Probablemente hará falta toda una generación para que comprendamos realmente cómo explotar todo esto”.(Semana)
La entrada China alerta que IA en terreno militar crearía apocalipsis como “Terminator” se publicó primero en El Diario – Bolivia.
Internacional archivos – El Diario – Bolivia
