III. RESPONDER A LOS RETOS, TENER ÉXITO CON EL SCAF
Debido al gran número de ámbitos que engloba, los avances tecnológicos que se deben realizar, la duración necesaria para su desarrollo y su naturaleza de proyecto llevado a cabo en cooperación internacional, el programa SCAF constituye un reto tanto para las autoridades públicas como para los industriales encargados de llevarlo a cabo.
A. NO EQUIVOCARSE DE PROYECTO
Todos los actores del proyecto lo afirman con convicción: e l SCAF no es un proyecto de avión de combate sino un proyecto de “sistema de sistemas”, en el que el avión es sólo uno de los elementos . Ciertamente elemento central, pero no el más innovador, ya que la novedad radica más en que conecta y anima las plataformas para el combate colaborativo (la nube de combate y la inteligencia artificial, pero también los sensores, etc.) que en las propias plataformas. Por otra parte, mientras muchos otros países tienen programas de aviones de combate, muy pocos tienen este tipo de programas de “sistema de sistemas” de combate aéreo.
En cualquier caso, es importante tener en cuenta, en cada etapa del proyecto, su naturaleza de “sistema de sistemas”, cuyo valor añadido estará vinculado principalmente a su capacidad para encarnar la noción de combate colaborativo en una serie de plataformas y tecnologías innovadoras. Además, es necesario proyectarse mucho después 2040 , hasta 2080: el SCAF no debería quedar obsoleto en cuanto se ponga en servicio.
1. Situar la inteligencia artificial y las capacidades de autonomía en el centro del desarrollo del SCAF
El HLCORD, documento único de expresión de la necesidad para el SCAF, prevé que el NGF (next generation fighter) podrá tener un piloto a bordo o ser pilotado “opcionalmente”.
Por el momento, como ya se ha dicho, el cometido de los drones y de los remote carriers, por importante que sea, se ha diseñado como subordinado respecto al NGF que, en principio, será pilotado . Para los más avanzados de estos drones, el modelo es el del “Loyal Wingman”, es decir, un dron que acompaña o precede a los aparatos de combate pilotados para realizar una variedad de tareas: ataque, vigilancia, ataque electrónico, señuelo o incluso la evaluación de los daños en combate (“battle damage assessment”).
Rusia (Sukhoi S-70 Okhotnik-B) y Estados Unidos (Kratos XQ-58A Valkyrie en el marco de un programa lanzado en julio de 2016, el “Low-Cost Attritable Strike Unmanned Aerial System Demonstration”; “Loyal Wingman” de Boeing desarrollado en colaboración con la fuerza aérea australiana), y el Reino Unido (“Lightweight Affordable Novel Combat Aircraft ” inicialmente con la adjudicación de tres contratos de diseño inicial a Blue Bear Systems Research, Boeing Defence UK y Callen-Lenz) desarrollan este tipo de programas de “loyal wingman”.
Considerado como un efector o un sensor deportado, el “loyal wingman” debe seguir siendo controlado por los aparatos pilotados.
En efecto, la posibilidad de hacer que vuele solo un dron, sin acompañamiento de un aparato pilotado, choca, en el caso de espacios disputados 19 ( * ) , con la fragilidad del enlace de datos por satélite, que puede ser pirateado o interferido . El dron se volvería incontrolable. Al permanecer integrado en la formación dirigida por el avión pilotado, el dron puede beneficiarse de una red local, que ciertamente también puede ser interferida pero que, no obstante, es más resiliente.
Sin embargo, incluso en esta situación, la inteligencia artificial es plenamente necesaria para descargar a los pilotos de las tareas más sencillas, ayudar en la toma de decisiones, o incluso para no perder los drones en caso de corte del enlace de datos.
Estados Unidos está desarrollando de forma acelerada este uso de la inteligencia artificial como apoyo al avión de combate pilotado. La IA se implanta en un loyal wingman, en un caza transformado en dron o directamente en la cabina del avión pilotado. Así, el programa Skyborg está estudiando la posibilidad de tener un caza pilotado in board (que en este caso podría ser un F35 o el nuevo F15EX modernizado) + un “wingman”, dron dotado de inteligencia artificial, que podría ser un XQ-58 Valkyrie.
Por otra parte, una forma de sortear la dificultad del enlace de datos a gran distancia es considerar un dron totalmente autónomo y, por tanto, no dependiente de este enlace de datos. Sin embargo, en este caso se plantean dos cuestiones:
-una cuestión ético/jurídica (véase el recuadro que figura a continuación).
Problemas planteados por los sistemas de armas autónomos letales (SALA)
En cuanto a los drones armados actuales, la elección del blanco y del tiro siempre la realiza uno o más operadores humanos. Esta noción del “hombre en el bucle” es lo que justifica que finalmente se aplique al dron el mismo marco jurídico que a los demás sistemas de armas.
Por el contrario, los “sistemas de armas autónomos letales” (SALA), que aún no existen pero que son objeto de investigaciones científicas y militares, plantean problemas jurídicos y éticos de otra magnitud.
Así, algunos temen que el riesgo de conflictos armados y el uso de la violencia militar aumenten con el despliegue de sistemas realmente autónomos: en efecto, los SALA permitirían eliminar las barreras psicológicas a la utilización de la fuerza letal, lo que no es el caso de los drones que siguen siendo pilotados por un ser humano (de ahí el síndrome postraumático observado a veces en pilotos de drones).
Las dudas también se refieren a la capacidad de los SALA para respetar los principios del derecho internacional humanitario (o derecho de los conflictos). Debido a estas inquietudes, una resolución del Parlamento Europeo recomienda la prohibición del desarrollo de los SALA.
En efecto, el artículo 36 del primer protocolo adicional a los Convenios de Ginebra establece que el estudio, el desarrollo, la adquisición o la adopción de una nueva arma sólo puede hacerse después de haber determinado si podría ser contraria al protocolo u otra norma de derecho internacional.
Más precisamente, el respeto de los principios fundamentales del derecho internacional humanitario (DIH) (distinción entre combatientes y civiles, proporcionalidad y minimización de los daños colaterales, y precaución) requiere capacidades de juicio que por el momento son atributos exclusivos de los seres humanos. Así, en algunos entornos, es muy difícil hacer una distinción entre civiles y militares. En efecto, puede ser necesario analizar el comportamiento de una persona y decidir si es en cierto modo “bueno” o “malo”. Sin embargo, parece poco probable que los algoritmos puedan realizar este tipo de apreciación. Por el contrario, algunos juristas destacan el riesgo de que los soldados humanos contravengan los principios de DIH bajo la influencia del miedo y del estrés, emociones de las que los SALA, a priori, estarán libres. Sin embargo, considerar que las reglas que existen actualmente son suficientes porque los robots podrán respetarlas mejor que los humanos nos conduce a postular que el hecho de que un hombre mate o un robot mate sea éticamente equivalente. Sin embargo, por el contrario, podemos considerar que el desarrollo de sistemas autónomos es un cambio de paradigma que impone nuevas reglas, dado que el DIH se ha inventado para ser aplicado por los seres humanos.
Además, dado que no se temerá (o menos) por la vida de los robots, se podría imaginar que finalmente estarían sujetos a reglas de implementación de la fuerza mucho más estrictas que los humanos: por ejemplo, que sea necesario que una persona exhiba un arma o sea inequívocamente agresiva para que pueda ser considerada como un combatiente y pueda convertirse en un blanco, o incluso que el robot tenga el poder de incapacitar a su blanco humano, pero no de matarlo.
En 2014 se celebró la primera reunión informal de expertos sobre los SALA en el marco de la Convención sobre Ciertas Armas Convencionales (CCAC) de la ONU en Ginebra, por iniciativa y bajo la presidencia de Francia. La tercera edición tuvo lugar en abril de 2016 en presencia de 95 Estados, del CICR, muchas ONG y expertos. Con motivo de esta reunión, la representación francesa se comprometió a no desarrollar ni emplear SALA “a menos que estos sistemas demostraran su plena conformidad con el derecho internacional”. No obstante, también consideró que cualquier prohibición preventiva del desarrollo de los SALA sería prematura. Dado que debate se centra en el ”control humano significativo” al que deberían someterse los SALA, se ha adoptado la expresión de “implicación humana apropiada”, un poco vaga pero aceptable por todos los participantes, a instancias de la delegación alemana. Por último, algunos han cuestionado la coherencia del propio concepto de SALA: para las fuerzas armadas, la autonomía total y la ausencia de enlace con un operador humano no van en contra de la necesidad esencial de control operativo por el mando militar?
En cualquier caso, estos debates en un marco multilateral han permitido llegar a la creación de un grupo gubernamental de expertos. El trabajo de este grupo podría culminar en la elaboración de un código de buena conducta y de buenas prácticas sobre los SALA. Según algunos expertos, un código como éste podría eventualmente incluir:
- la limitación de uso de los SALA a los blancos militares por naturaleza (y no por emplazamiento, destino o utilización) y a algunos contextos (zonas no urbanas y poco pobladas), y en los únicos casos en los que el Hombre no puede tomar la decisión por sí mismo (subsidiariedad);
- una reversibilidad del modo autónomo;
- la programación del “beneficio de la duda” en el SALA;
- el registro de las acciones de los SALA;
- la formación de los operadores de los SALA en el DIH.
El 5 de abril de 2019 en el instituto DATA IA en Saclay, la ministra de las fuerzas armadas Florence Parly presentó la nueva estrategia sobre la inteligencia artificial y la defensa . Durante esta presentación, mencionó la dimensión ético-jurídica al declarar que “ Francia se niega a confiar la decisión de vida o muerte a una máquina qu e actuaría de manera plenamente autónoma y escaparía a cualquier control humano. Este tipo de sistemas son fundamentalmente contrarios a todos nuestros principios. Carecen de interés operativo para un Estado cuyos ejércitos respetan el derecho internacional, y no los desplegaremos 20 ( * ) ” La ministra añade: “ Desarrollaremos la inteligencia artificial de defensa según tres grandes principios: el respeto del derecho internacional, el mantenimiento de un control humano suficiente, y la permanencia de la responsabilidad del mando . 21 ( * ) ”
Sin embargo, cabe destacar que uno de los argumentos de la ministra es que la inteligencia artificial precisamente podría contribuir a una mejor aplicación del derecho internacional humanitario: “ citaré por ejemplo la proporcionalidad de la respuesta, la discriminación entre combatientes y no combatientes, y la minimización de los daños colaterales. La inteligencia artificial no hará mover ninguna de estas líneas. Al contrario, nos permitirá seguir respetándolas en los conflictos del futuro ”.
Por otra parte, el ministerio de las fuerzas armadas creó un Comité de ética de la defensa , al que la ministra encomendó reflexionar para el verano de 2020 sobre las principales orientaciones en materia de aplicación de la inteligencia artificial a los sistemas de armas.
Por último, la cuestión ético-jurídica sigue siendo objeto de debates internacionales, que sin embargo no parecen dar grandes resultados por el momento.
- la cuestión de la eficacia táctica . Algunos creen que la IA sería incapaz de ser más eficaz que el Hombre en un entorno muy discutido por sistemas de denegación de acceso sofisticados, o más generalmente en situación de “fluidez táctica” donde las opciones y las decisiones que hay que tomar son muy numerosas.
En su discurso, la ministra de las fuerzas armadas advierte contra una potencial fragilidad de la IA: “ La manipulación de los datos de aprendizaje, los sesgos cognitivos transmitidos por el Hombre a los algoritmos, los sistemas desorientados y puestos en fallo simplemente con un simple trozo de cinta adhesiva, y los sistemas hackeables a distancia: los factores de riesgo que debemos evaluar y controlar desde el diseño son sumamente numerosos .”
Sin embargo, estas dificultades, reales, podrían superarse ampliamente en 2040 . Recordemos que, en 2016, el instructor con experiencia de la Airforce Gene Lee no pudo conseguir una sola victoria en simulación de combate aéreo contra la inteligencia artificial “Alpha”, implantada en un ordenador barato con una potencia modesta. En la misma línea, un proyecto del Air Force Research Laboratory (AFRL) tiene como objetivo hacer combatir antes de julio de 2021 un don con IA (que puede ser un F16 en una primera etapa) contra un caza con piloto. Este proyecto hace eco a una declaración de Elon Musk, Director ejecutivo de Tesla, sobre el hecho de que un caza con IA derrotaría sin dificultades 22 ( * ) a un caza pilotado.
Los actores del proyecto SCAF son plenamente conscientes de que uno de los retos que deben aceptar es la integración entre sí de sistemas 1) pilotados por humanos a bordo de aeronaves, 2) pilotados a distancia, y 3) autónomos. Se trata de una de las principales problemáticas del SCAF y uno de los principales temas de investigación para los socios del proyecto, y debería ser posible variar en cierta medida la proporción de estos tres elementos en el “producto acabado” según las necesidades que surjan a partir de 2040 y en las próximas décadas .
En efecto, la elección de la IA no es entre su presencia o su ausencia: es una cuestión de grado . Cuando un misil llega a mach 4 en el avión, el piloto no tiene tiempo para tomar una decisión. La reacción está necesariamente automatizada, un poco como cuando el ABS asume el control de los frenos del coche cuando el conductor frena con fuerza antes del obstáculo. En este caso, es inútil que el Hombre esté “en el bucle”. La posición que defiende el ministerio de las fuerzas armadas y que comparte la misión es que el Hombre esté en el bucle global: una máquina puede ser autónoma pero no puede inventarse una misión o modificarla sin pedir la autorización a un ser humano . El Hombre debe conservar la responsabilidad del mando y estar en condiciones de respetar el derecho internacional humanitario . Muchas tareas de autoprotección, de designación automática de blanco o de cálculo de trayectoria global pueden estar automatizadas sin infringir estos tres principios, que generalmente no aparecen, según el ministerio de las fuerzas armadas, como autolimitaciones.
En cualquier caso, en el SCAF, la IA desempeñará como mínimo un importante papel para secundar a los pilotos dentro del sistema formado por el NGWS. Así pues, parece necesario seguir invirtiendo masivamente en la inteligencia artificial ya que el SCAF hará necesariamente un amplio uso aunque no exactamente previsible en la actualidad. Por lo tanto, debemos sentirnos orgullosos, además de la elaboración de la estrategia del ministerio de las fuerzas armadas sobre la inteligencia artificial ya mencionada 23 ( * ) , de que la ministra de las fuerzas armadas haya declarado en su discurso ya citado que: “ Los ejércitos franceses invierten e invertirán en la inteligencia artificial, es una evidencia .” y haya anunciado una inversión de 100 millones de euros al año de 2019 a 2025 para la IA. La ministra menciona seis ámbitos de inversión prioritarios en la materia, entre los que se encuentra el combate colaborativo.
Dado el desarrollo acelerado de esta tecnología por parte de nuestros adversarios, debemos estar preparados para responder en el futuro a países que no siempre respetan las normas éticas y jurídicas que Francia y sus aliados respetan y desean seguir respetando. En efecto, en ausencia de una preparación como ésta, el ejército francés podría encontrarse frente a estos adversarios en la situación de Gene Lee, o en la del mejor jugador de ajedrez del mundo que, según la opinión general, actualmente ya no podría ganar una sola partida contra una inteligencia artificial. Paralelamente, hay que continuar los debates internacionales para hacer que surja sobre estas cuestiones un marco jurídico claro y conforme a nuestra ética y a los principios del derecho internacional humanitario.
Propuesta : Considerar la inteligencia artificial como un “pilar transversal” del SCAF, que debe desarrollarse previendo el campo de aplicación más amplio posible.
Reactivar los debates internacionales sobre los sistemas de armas autónomos letales (SALA) para alcanzar un marco legal claro, de acuerdo con la ética y los principios del derecho internacional humanitario.
2. Importancia crucial de los enlaces de datos y de los pilares nube de combate y sensores
Los enlaces de datos, ya sean enlaces intrapatrulla, enlaces por satélite, ambos de alta velocidad e incluso enlaces ópticos, así como su seguridad y su resiliencia frente a los ciberataques y a la interferencia, serán esenciales. La superioridad informativa que permite la nube permitirá la superioridad de decisión .
Además, es imprescindible que el perímetro de la Nube sea lo más amplio posible, y englobe las fuerzas terrestres y navales. Un apoyo aéreo cercano, por ejemplo, deberá estar conectado con la artillería terrestre y naval. Esto implica particularmente tratar la integración de la nube táctica del SCAF y del nuevo sistema de información del mando SCORPION (SICS), sistema de información y de mando de la máquina de combate hasta el regimiento, que permite el intercambio automático de datos y de alertas hasta el nivel del jefe de grupo desembarcado y optimiza las solicitudes de apoyos de fuego.
En resumen, el “valor añadido” del SCAF reside probablemente tanto o más en la nube de combate, la conectividad y la arquitectura de interoperabilidad, que en el avión de combate y su motor . En este caso, no está prohibido hacer una analogía, salvando las distancias, con la evolución paralela que experimentará el automóvil si se sigue desarrollando el coche autónomo: la parte software, los enlaces y la nube probablemente tendrán más valor añadido que el propio coche. Por este motivo, se deberá seguir con la máxima atención el pilar “Nube de combate”, así como el futuro pilar “sensores”, dirigidos respectivamente por Airbus e Indra. En particular, el pilar “Nube de combate” debe permitir a Thales y a todos sus subcontratistas de la electrónica de defensa contribuir de manera central y esencial en el SCAF .
Propuesta : Considerar el pilar “nube de combate” como una prioridad del mismo nivel que el avión y el motor.
Preparar desde ahora la integración de la nube de combate del SCAF con el Sistema de Información y Mando (SIC) Scorpion.
3. Qué motor se instalará en el demostrador?
El demostrador del nuevo motor no estará disponible antes de 2027, pero, sin embargo, el demostrador del avión deberá volar en 2025 o 2026. Por lo tanto, se ha previsto que el demostrador esté equipado con una versión mejorada del M88, mientras se espera poder reemplazarlo por una versión de demostración del nuevo motor.
No obstante, incluso esta versión mejorada quizá sea insuficiente para animar un demostrador a escala 1. Un demostrador a escala 0,8 por ejemplo, podría paliar este problema. Si se descarta esta última opción, el demostrador podría utilizar un motor ya existente en el mercado. Sin embargo, esta última solución representaría un riesgo para la participación de Safran en la continuación del programa. El J200 del Eurofighter, que entonces podría ser elegido, es fabricado por un consorcio formado por Rolls-Royce (competidor potencial con el Tempest), Avio, ITP y MTU Aero Engines. Al ser preguntado por este tema, Eric Trappier, Director Ejecutivo de Dassault aviation, indicó que una versión mejorada del M88 seguía siendo la principal opción considerada. La misión también prefiere esta solución, conforme al acuerdo industrial inicial.
Propuesta : Equipar el demostrador previsto para 2026 con el motor M88 (motor del Rafale) o una evolución de este último y realizar las inversiones necesarias para ello.
4. La dimensión ambiental
La protección del medio ambiente no es necesariamente lo que primero viene a la mente cuando se piensa en la aviación de combate, ámbito de muy altas prestaciones, que a menudo va acompañado de un consumo energético máximo. El principal objetivo del SCAF es sobrepasar a los adversarios potenciales mediante prestaciones superiores. Además, las dimensiones y el peso del NGF muy probablemente serán superiores a los del Rafale, lo que sugiere un mayor consumo de combustible. Sin embargo, la comparación no es del todo válida ya que más bien habría que comparar el consumo de una formación actual de Rafales con el consumo de una formación del NGWS, que incluirá tantas o más plataformas (teniendo en cuenta los “remote carriers”) pero sin duda menos aviones de combate.
Sin embargo, proyectarse resueltamente después 2040 y hasta 2080 obliga a contemplar, por ejemplo, una posible menor abundancia energética, la necesidad de mejorar la independencia energética, o incluso una ampliación de algunas normas, que habrán sido desarrolladas para la aviación civil, a la aviación militar.
El ministerio de las fuerzas armadas ya ha tenido en cuenta esta preocupación. Emmanuel Chiva, Director de Agence innovation défense, indicó 24 ( * ) que “ los temas de la energía y del medio ambiente son temas de investigación como tales. Se están realizando trabajos de investigación específicos sobre el hidrógeno, en particular con un proyecto de estación de hidrógeno para dron (...) La AID no desconoce los retos climáticos y está implicada al mismo nivel que el conjunto del ministerio ”.
Por otra parte, el 3 de julio de 2020, la ministra de las fuerzas armadas presentó la estrategia energética del ministerio , que prevé esfuerzos de ahorro de energía en todos los ámbitos para reducir la factura energética de los ejércitos, también con el objetivo de reducir su dependencia a los aprovisionamientos de petróleo, que a veces se basan en rutas marítimas inciertas.
Por último, en el ámbito aeronáutico, se están realizando estudios sobre la utilización de biocarburantes. En diciembre de 2017, los grupos Airbus, Air France, Safran, Total y Suez Environnement firmaron con el Estado el compromiso para el crecimiento verde (ECV) sobre los biocarburantes aeronáuticos. El objetivo es introducir una dosis de biocarburantes con el queroseno. Estos biocarburantes podrán respetar las exigencias planteadas por la aviación militar 25 ( * ) . Por otra parte, se están realizando trabajos para ahorrar la potencia eléctrica necesaria en los aviones.
Al igual que para los demás programas de defensa, parece necesario tener en cuenta este aspecto desde el inicio de la puesta en marcha del proyecto SCAF.
Propuesta : Al mismo tiempo que se trata de obtener las mayores prestaciones posibles, integrar las preocupaciones ambientales desde el inicio del programa SCAF.
* 19 al contrario que los espacios poco discutidos como la franja sahelo-sahariana donde los drones MALE pueden sobrevolar el teatro de operaciones sin estar realmente amenazados.
* 20 Ministerio de las fuerzas armadas “Discours de Florence Parly, ministre des Armées : Intelligence artificielle et Défense” (Discurso de Florence Parly, ministra de las Fuerzas Armadas: Inteligencia artificial y Defensa), abril de 2019
https://www.defense.gouv.fr/salle-de-presse/discours/discours-de-florence-parly/discours-de-florence-parly-ministre-des-armees_intelligence-artificielle-et-defense
* 21 Cabe destacar que a finales de 2019, Airbus y el Instituto Fraunhofer para la comunicación, el procesamiento de la información y la ergonomía, (FKIE, Bonn, Alemania) crearon un grupo de expertos independientes con la misión de definir “el uso responsable de las nuevas tecnologías y proponer “protecciones jurídicas éticas e internacionales” en el marco del SCAF.
* 22 El presidente ruso Vladímir Putin también declaró en 2017 acerca de la AI que “ El que se convierta en líder en este ámbito será el dueño del mundo ”, mientras que la empresa Kalashnikov anunció haber desarrollado varios sistemas de armas autónomo letales (SALA). En China existen proyectos similares.
* 23 La Inteligencia artificial al servicio de la defensa. Informe de la Task Force IA, septiembre de 2019.
* 24 Declaraciones recogidas por Michel Cabirol, La Tribune, 11/09/2019.
* 25 En cambio, parece que hay que descartar la pista de aviones eléctricos, ya sean civiles o militares. En efecto, la potencia que se debe proporcionar requeriría baterías con un peso de la misma magnitud que la del propio avión.