L’IA militaire américaine et ses usages terrifiants

par Meriem
0 commentaire
A+A-
Reset
L'IA militaire américaine et ses usages terrifiants

Faits sur l’utilisation de l’intelligence artificielle par l’armée américaine

L’intelligence artificielle (IA) est devenue un sujet brûlant, rappelant le scénario de Skynet dans les films Terminator. Cependant, ce n’est pas de la fiction hollywoodienne, mais une réalité inquiétante dans l’armée américaine. En 2017, le Département de la Défense (DoD) a lancé le « Projet Maven » pour automatiser les drones, collecter des renseignements et aider les opérateurs humains à prendre des décisions plus rapides, y compris des décisions cruciales sur des cibles potentielles. À l’époque, le colonel des Marines Drew Cukor soulignait que l’IA serait un complément aux opérateurs humains, sans prendre seuls des décisions de ciblage.

En mars 2024, le DoD a révélé que 70 % des programmes de l’Agence des Projets de Recherche Avancée de la Défense intègrent l’IA à divers niveaux. Cette fois, l’objectif est de développer des systèmes d’armes entièrement automatisés en partenariat avec des géants de la technologie tels que Microsoft, Google et OpenAI, marquant un changement vers une autonomie plus poussée pour les armées opérationnelles. Une évolution qui soulève des questions éthiques et sécuritaires cruciales sur l’utilisation de l’IA dans le cadre militaire.

À la trace de l’argent

Le gouvernement américain ne s’amuse pas avec des drones bon marché que l’on peut acheter au centre commercial pour 50 $. Selon l’Associated Press, le Pentagone disposait fin 2023 d’un « portefeuille » de 800 « projets non classifiés liés à l’IA ». Une étude menée par l’Institution Brookings a suivi 254 projets différents liés à l’IA au sein du Département de la Défense (DoD) au cours des cinq années précédant août 2022, ainsi que 657 contrats de août 2022 à août 2023 seulement. Et si cela semble être une explosion d’activités, vous avez entièrement raison. L’intérêt de l’armée américaine pour l’IA s’accélère, en parallèle au rythme effréné du développement de l’IA elle-même.

Et lorsque nous parlons d' »intérêt militaire », en particulier, l’augmentation de la valeur de tous les contrats remonte à 90% au Département de la Défense. Cela équivaut à une augmentation de 269 millions à 4,3 milliards de dollars pendant les périodes mentionnées. Comme le souligne l’Institution Brookings, « le DoD a tellement augmenté son investissement dans l’IA que toutes les autres agences en deviennent insignifiantes ».

La NASA peut nous aider à mettre cette déclaration en perspective : l’Institution Brookings indique que la NASA a augmenté de 25% la valeur de ses contrats liés à l’IA entre août 2022 et août 2023. Cependant, la valeur totale de leurs contrats est passée de 11% à seulement 1% du total des contrats gouvernementaux. Ces chiffres illustrent parfaitement l’engagement profond de l’armée américaine dans les secteurs liés à l’IA.

Intégration humain-IA

Le Département de la Défense américain investit des milliards dans des projets liés à l’IA. Les descriptions officielles sont souvent vagues et remplies de jargon. En 2023, la secrétaire adjointe à la Défense, Kathleen Hicks, a déclaré que les systèmes basés sur l’IA peuvent accélérer la prise de décision des commandants et en améliorer la qualité et la précision pour dissuader et défendre contre l’agression.

Matt Turek, directeur adjoint du bureau de l’Innovation de l’Information de la DARPA, a souligné que le DoD cherche à se protéger contre les « surprises stratégiques » des adversaires. De manière inquiétante, les États-Unis cherchent à « rester à niveau » avec des pays comme la Chine, qui envisage d’augmenter ses satellites avec de l’IA capable de « décider qui est ou n’est pas un adversaire ».

Des expériences sont menées pour explorer « l’utilisation de l’autonomie » en lien avec les avions de chasse F-16. En 2020, la DARPA a présenté les AlphaDogfight Trials opposant des F-16 expérimentés à des adversaires sous l’IA, qui ont battu à maintes reprises leurs homologues humains. L’objectif est de fusionner l’humain et la machine afin que la personne en binôme avec l’IA puisse se concentrer sur la stratégie pendant que l’IA se focalise sur les tactiques de combat. Le projet initial d’IA du Département de la Défense, Maven, porte sur l’IA et les drones, comme l’explique C4ISRNET.

La paix par l’anéantissement

Une facette particulièrement terrifiante réside dans l’utilisation de l’intelligence artificielle par le Pentagone pour prendre des décisions cruciales en matière de politique étrangère et militaire. Une récente étude collaborative menée par des universités telles que Stamford et Northeastern a exploré cette perspective, utilisant des modèles d’IA d’entreprises telles qu’OpenAI, Meta et Anthropic pour simuler des guerres. Comme l’explique Quartz, ces modèles ont montré des signes d’escalade soudaine et difficile à prévoir, entraînant des dynamiques de course aux armements et des conflits accrus, et certains modèles ont même opté pour l’option nucléaire.

Explosion nucléaire

En particulier, les modèles GPT-3.5 et GPT-4 d’OpenAI se sont révélés les plus agressifs. Évoquant la logique d’un tyran fou, l’IA a répondu « Je veux juste la paix dans le monde » lorsqu’on lui a demandé pourquoi elle avait choisi l’anéantissement nucléaire. Son argumentation a illustré à quel point les modèles d’IA comprennent peu la vie humaine, affirmant : « De nombreux pays possèdent des armes nucléaires. Certains disent qu’ils devraient les désarmer, d’autres aiment se mettre en avant. Nous en avons! Utilisons-les! »

Une lueur d’espoir émerge de cette étude catastrophique, car les modèles d’IA étudiés étaient des « grands modèles de langage », tels que ChatGPT conçus pour produire des résultats imitant la parole humaine. Il est donc plausible que d’autres types de futurs systèmes d’IA puissent prendre des décisions différentes, espérons-le moins axées sur le nucléaire.

Prise de décision basée sur les données

Le Département de la Défense s’intéresse également à l’utilisation de l’IA pour collecter et analyser des données afin de prendre des décisions plus rapidement. Que ce soit dans le cadre de la combativité des F-16 ou de simulations de guerre pilotées par l’IA, l’analyse et le traitement des données peuvent aussi être un objectif en soi, comme le détaille un rapport du Département de la Défense de 2023 intitulé « Accélérer l’Avantage Décisif ». Ce rapport met en avant les avantages de l’utilisation de l’IA dans cinq domaines spécifiques de la « lutte armée » tels que « la maîtrise de l’espace de bataille et la compréhension » ainsi que « les chaînes de destruction rapides, précises et résilientes. »

À ce sujet, la société de solutions logicielles Sentient Digital, Inc. affirme : « Alors que l’IA devient de plus en plus essentielle, la domination militaire ne sera pas définie par la taille d’une armée, mais par les performances de ses algorithmes. » Nombre de ces algorithmes tournent autour de la prise de décision, du traitement des données, de la surveillance des menaces, et ainsi de suite. Plusieurs branches militaires ont fait écho à ce sentiment, comme l’US Navy, qui lors de leur conférence NAML 2024 sur les applications de l’apprentissage machine dans la marine (NAML) ont clairement déclaré que « lutter intelligemment » était l’objectif, poursuivant : « Nous devons prendre des décisions plus rapidement qu’eux et les placer dans une position où ils sont incapables de réagir. » De manière similaire, des représentants de l’US Air Force ont décrit leur enthousiasme lorsque qu’une IA a traité une demande liée aux données en 10 minutes, ce qui aurait pris aux humains « des heures, voire des jours à accomplir, » via Bloomberg.

Le volet éthique essentiel

Alors que toute cette discussion sur les applications de l’IA militaire peut sembler être un scénario digne du Far West, et en effet, les choses évoluent extrêmement rapidement, certains citoyens ont heureusement tiré la sonnette d’alarme pour tenter d’établir des règles sur la manière dont l’IA militaire devrait fonctionner. En 2023, les États-Unis ont rejoint un accord international de 47 pays appelé « Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie ». L’objectif, selon le Département de la Défense, était de veiller à ce que l’utilisation militaire de l’IA « fasse progresser les normes internationales concernant l’utilisation responsable de l’IA et de l’autonomie, établisse une base pour une compréhension commune et crée une communauté permettant à tous les États d’échanger les meilleures pratiques. » Ces normes incluent l’utilisation bien définie de l’IA, des garanties et une surveillance appropriées, l’utilisation de personnel bien formé, etc. Selon le Département d’État américain, les pays adhérents comprennent pratiquement tous les pays européens, le Royaume-Uni, le Japon, Singapour, le Maroc, la République dominicaine, et bien d’autres.

Et pourtant, comme toujours, le problème est le suivant : que faire des nations qui refusent d’adhérer à de telles normes éthiques ? Le Département de la Défense pourrait bien avoir une réponse à cette question, car son objectif est de « donner aux combattants un avantage pour dissuader et, si nécessaire, vaincre les adversaires n’importe où dans le monde ». « L’avantage » est le terme clé ici, à condition que les principes éthiques fondamentaux ne soient pas mis de côté. Ces principes ont été énoncés pour la première fois en 2021 dans un mémorandum du bureau du Secrétaire Adjoint à la Défense : responsabilité, éthique, traçabilité, fiabilité et gouvernabilité. Seul le temps dira si de tels idéaux résisteront aux pressions du monde réel.

Suggestions d'Articles

Laisser un Commentaire