INTRODUCTION
L’Artificial intelligence (Ai), ou intelligence artificielle (iA) en français, est pratiquement devenue un buzz word de nos jours, à tel point qu’il est utilisé dans tous les aspects de notre vie. Le terme Ai est d’ailleurs largement surexploité à travers le monde, tout d’abord parce qu’il fait vendre. Du smartphone dernier cri, à la nouvelle tondeuse à gazon totalement autonome, l’iA intrigue, sans que l’on ne saisisse forcément de quoi il relève réellement. Tout comme en son temps le PC (Personal Computer, autrefois technologie informatique disponible uniquement au sein de multinationales, ou d’universités prestigieuses) avait amené pour la première fois l’ordinateur au sein de chaque foyer, c’est sans nul doute aujourd’hui l’outil de l’entreprise Open Ai, ChatGPT, qui a démocratisé la technologie d’intelligence artificielle aux yeux du grand public à l’automne 2021. Et pourtant, cela fait de nombreuses années que cette technologie change, sans que l’on n’y prête forcément attention, une quantité innombrable d’aspects de notre vie. Elle a changé la manière dont un médecin parvient à diagnostiquer un cancer sur la base de l’analyse automatisée des imageries médicales (avec un taux de réussite supérieur à l’œil humain). Elle a changé la manière dont nous conduisons, et nous amène parfois à nous faire conduire automatiquement par nos propres voitures (tout en provoquant ça et là des accidents de la route). Plus récemment, elle a changé également la manière dont nos étudiants effectuent leurs recherches et rédigent leurs devoirs, ou mémoire de fin d’année. Le monde civil et économique sont donc profondément marqués par ces changements. Mais l’intelligence artificielle est en train de jouer, sous nos yeux, un rôle central dans la sphère politique et militaire. Sans que cela ne soit pour autant suffisamment souligné et étudié au sein de la recherche académique.
Pour venir pallier cet écueil, il nous semblait donc essentiel de venir traiter de ce sujet. En effet, plus aucun service de renseignement ne saurait aujourd’hui se passer de l’OSINT (Open Source Intelligence), et l’iA vient décupler les capacités des Agences dans ce domaine, permettant ainsi d’agréger et traiter d’énormes quantités de données. Plus aucune armée ne dispose d’un programme d’armement qui ne dispose pas d’un pan entier visant le développement d’un système totalement automatisé, qu’il s’agisse d’un char, d’un avion, ou encore d’une nuée de drones venant submerger l’adversaire. Et enfin, plus aucune grande puissance, qu’elle soit économique ou militaire, n’identifie pas l’intelligence artificielle comme une composante clef permettant de venir influencer drastiquement l’équilibre des forces sur la scène internationale.
Cet engouement pour l’Ai conduit certains pays, tel que les USA, à considérer cette nouvelle technologie duale comme profondément stratégique, allant jusqu’à mettre en place de véritables embargos industriels, en vue de freiner autant que possible son développement par d’autres superpuissances souhaitant la dérouter vers un usage militaire. En effet, tout comme dans le domaine nucléaire, l’usage (en apparence) civil de la technologie peut camoufler l’ambition d’un développement de programme d’armement de pointe. Certaines déclarations de dirigeants présentent d’ailleurs l’Ai comme l’outil permettant, à qui l’obtiendra, d’être demain « le maître du monde »[1]. A tel point qu’une course à l’armement semble être lancée entre les grandes puissances, ce qui n’est pas sans rappeler la course à l’arme atomique ayant eu lieu au milieu du siècle dernier. Les Etats-Unis semblent d’ailleurs, encore une fois, disposer d’un avantage certain dans leur capacité à maitriser avant les autres cette nouvelle technologie, tout en cherchant à en freiner la prolifération dans le reste du monde. Cette avance leur est notamment offerte par la présence de champions industriels sur leur territoire national, ainsi que l’accès à certaines ressources essentielles au développement de microprocesseurs spécialisés dans le traitement de programmes d’intelligence artificielle. Dès lors, la question de l’autonomie stratégique, de l’accès aux terres rares, et de la possibilité d’accéder (ou non) au marché de l’iA (et à une technologie disponible sur étagère) doit être posée sur la table dès aujourd’hui, car elle risque de devenir un point central de la souveraineté des Etats d’ici à 2030. En effet, les USA semblent choisir aujourd’hui qui pourra ou ne pourra pas accéder à l’iA, en refusant l’accès à ce nouveau marché à ses adversaires, tout en poussant ses alliés à son adoption. Ainsi, certains experts estiment aujourd’hui que la Chine accuserait 2 années de retard, faute d’avoir accès à la technologie américaine. Suite à l’embargo imposé par l’administration Biden, le Président chinois Xin Jin Ping aurait d’ailleurs demandé au secrétaire général de l’ONU de venir prendre en main la question de la régulation internationale de l’iA pour venir rééquilibrer le jeu des puissances mondiales[2].
Ainsi, il nous semble essentiel de nous interroger ici sur les enjeux posés par l’intelligence artificielle, la manière dont ils se traduisent dans la sphère politique tout comme militaire, et enfin quelle(s) réponse(s) les gouvernements mettent-ils en œuvre pour diminuer la prolifération de cette nouvelle technologie Ai, dont les Etats semblent tellement dépendants aujourd’hui.
LA SUPPERPOSITION DES ENJEUX : COMMENT VOIR ET ANALYSER L’INTELLIGENCE ARTIFICIELLE
Terme marketing inexistant il y a encore quelques années, et pourtant largement utilisé aujourd’hui, il peut paraitre difficile de comprendre ce qu’il faut entendre par le terme Ai (Artificial Intelligence). Après tout, quel rapport existe-t-il entre ChatGPT utilisé par un étudiant, et un drone militaire opérant des frappes sur une ligne de front ? Si tenté qu’un quelconque rapport existe. Enfin, comme toute technologie informatique, évoluant dans le monde « cyber », l’intelligence artificielle pourrait sembler virtuelle et insaisissable. Pourtant, les grandes puissances se saisissent de ce nouvel outil, essayant de le réguler, tout en développant de nouvelles capacités par son biais.
Ainsi, pour comprendre la manière dont les Etats sont en mesure (ou non) de contrôler cette technologie iA, il nous faut comprendre ce que définit véritablement le terme « d’intelligence artificielle ». Pour ce faire, nous reprendrons ici la dichotomie chère à Olivier Kempf, afin de venir simplifier et analyser l’intelligence artificielle comme toute autre technologie Cyber, en la découpant en trois couches différentes[3] :
La première couche est logicielle (Software), il s’agit du code informatique, l’algorithme qui permet le fonctionnement de l’iA. Certains logiciels, tels que ChatGPT, ont un codage soumis au secret industriel et inaccessible par un tiers (son usage en revanche reste accessible gratuitement en ligne), alors que d’autres entreprises comme le géant Meta (propriétaire de réseaux sociaux facebook, instagram, mais également d’applications telles que whatsapp, et autres entreprises spécialisées dans la Réalité Virtuelle) tendent plutôt vers l’open source, considérant que le code doit pouvoir être accessible au public et utilisable par n’importe qui à travers le monde. Ce dernier a d’ailleurs développé un modèle nommé Llama dont les performances rivalisent, voire dépassent parfois, celles de ChatGPT selon certains experts. Précisons ici qu’une iA ne signifie pas forcément qu’elle prendra la forme d’un « chatbot »[4] à l’image de ChatGPT. Ce dernier, bien que très populaire, ne représente qu’un seul type d’iA que l’on nomme LLM (ou Large Language Model). La méthode de fonctionnement d’un LLM est simple, et se base sur l’analyse probabiliste. Après avoir étudié une quantité colossale de contenus (notamment écrits, mais pas seulement), elle est en mesure de prévoir qu’après chaque mot ou chaque phrase écrite par l’utilisateur, elle doit probablement répondre telle information, comme elle a pu déjà le voir écrit ailleurs. Pour le profane, il faut imaginer une version bien plus complexe du correcteur orthographique de son téléphone portable qui, sur la base de ce que l’on a déjà écrit dans un message en cours de rédaction, nous propose 3 mots qu’il lui semble pouvoir venir à la suite de notre phrase, et ainsi de suite, jusqu’à ce que la réponse du chatbot forme un texte cohérent. Mais toutes les iA ne fonctionnent pas de la même manière, certaines n’auront pas pour mission de répondre à des questions à la manière de ChatGPT, mais simplement d’analyser une carte, ou la topographie d’un lieu, et permettre à une machine de comprendre l’environnement dans lequel elle va être amenée à évoluer (type de terrain, analyse des reliefs, contournement des obstacles, prise de décision en cas d’apparition d’une difficulté sur le trajet du point A au point B et calcul d’une nouvelle trajectoire, etc). Tel est le cas d’une voiture Tesla équipée d’un système de pilotage automatique (après avoir été entrainé, là encore, sur une base constituée de données issues de la conduite de véritables humains). Tel peut être également le cas d’un aéronef autopiloté (avion, drone léger, engin spatial, etc.).
Mais dans tous les cas, peu importe la mission allouée à notre iA, la couche logicielle repose sur l’analyse d’une quantité impressionnante de données, et cet entrainement préalable nécessite une puissance de calcul tout aussi colossale, et donc un materiel informatique de pointe.
La deuxième couche est donc bien evidemment matérielle (Hardware), c’est-à-dire que l’intelligence artificielle repose sur une infrastructure informatique physique, majoritairement des serveurs regroupés dans des « fermes » ou data center, extrêmement coûteuses, tant dans leur construction que dans leur fonctionnement quotidien. En 2023, l’entreprise OpenAi déclarait que le coût journalier de fonctionnement des serveurs de ChatGPT4 avoisinait le million de dollars. Les serveurs, fonctionnant avec des processeurs développés spécialement pour l’iA, consomment en effet une quantité astronomique d’énergie. De plus, le coût de fabrication, et donc d’achat, de ces microprocesseurs se chiffre en centaines de millions de dollars. Si bien que l’entrainement d’un seul modèle se facture à plusieurs milliards. Pour illustration, le Géant Microsoft, partenaire d’OpenAi, a d’ores et déjà annoncé avoir dépensé 14 milliards de dollars rien que pour le premier trimestre de l’année 2024 afin de maintenir « matériellement » le développement de son Ai[5]. Ces coûts incluent l’embauche de nouveaux ingénieurs, le maintien en opération de l’actuel modèle ChatGPT, le développement des prochains modèles, l’ajout de nouveaux serveurs pour faire face à la demande mondiale, et jusqu’à l’installation de nouvelles lignes haute tension pour soulager le réseau électrique américain actuel[6]. Son concurrent direct Google a annoncé débloquer une enveloppe de près de 12 milliards pour la même période. Meta quant à lui, prônant l’usage d’une iA open source, souhaite investir « seulement » 10 milliards sur l’année complète, sans que l’on ne sache véritablement comment l’entreprise espère récupérer cette mise de fond, considérant l’usage libre de sa technologie[7].
L’infrastructure coûteuse de ce type d’iA est donc majoritairement (mais pas uniquement) composée de microprocesseurs ayant à charge les calculs nécessaires à l’entrainement et au fonctionnement du logiciel, pour terminer par le stockage des données ainsi apprises sur des serveurs, le tout reposant sur une infrastructure électrique en mesure d’assurer une forte consommation. Cependant, même le meilleur algorithme, installé sur la plus puissante des machines au monde, n’est d’aucune utilité s’il n’est pas en mesure d’analyser une énorme quantité de données et informations de qualité afin d’entrainer son modèle.
La troisième et dernière composante de l’intelligence artificielle est donc la couche « informationnelle ». Pour s’entrainer, l’iA doit commencer par accéder à une base de données complète (et fiable), lui permettant de lire et d’étudier l’objet sur lequel elle va se spécialiser. Afin d’être en mesure de comprendre ces données et de les recomposer, elle va devoir découper chaque information en « petits morceaux » (que l’on nomme « token »[8]), pour venir recomposer toutes les données et produire un véritable « patchwork » de connaissance. Dans la majorité des cas, pour une iA de type LLM, sa base de donnée sera composée de l’étude de l’ensemble des informations, articles, blogs, enregistrements sonores, photos, vidéos, et tout autre contenu disponible sur Internet. Quid cependant de la qualité des informations sur lesquelles on entraine notre Ai. En effet, et il convient de le rappeler autant qu’il est possible de le faire, toutes les informations disponibles en ligne ne sont pas véridiques. Ces dernières années par exemple, un nombre incalculable d’articles, tweets sur X (autrefois twitter), ou autres informations postées au sein des plateformes vidéo les plus populaires sont en réalité des fake news (fausses informations). Certaines sont inexactes à cause de méconnaissances de leurs auteurs, alors que d’autres le sont de manière volontaire. Il en est ainsi des campagnes de « trolling » perpétrées régulièrement par les services de renseignements d’Etats adverses, qui cherchent (par exemple) à influer sur le cours d’une élection présidentielle au sein d’une démocratie. Ainsi, l’on comprendra très vite que l’accès à une base de données extrêmement étendue (comme Internet) n’est pas le seul enjeu, et que de la qualité des informations qui composent cette base va dépendre la performance du modèle final.
En ce qui concerne le système d’autopilotage des voitures Tesla, le modèle d’intelligence artificielle collecte l’intégralité des données récoltées par sa flotte de véhicules répartis dans le monde, pour s’entrainer et peaufiner sa capacité à se fondre dans la circulation, lire les panneaux, s’adapter aux situations d’urgence[9]. Cependant certaines données peuvent être erronées. Par exemple, le comportement du conducteur derrière le volant du véhicule peut ne pas être approprié, et l’iA viendra apprendre un mauvais comportement. Il est donc essentiel que la base sur laquelle une intelligence artificielle s’entraine réponde à des critères de qualité.
En résumé, tout comme ChatGPT risque de faire des erreurs s’il entraine son système de DeepLearning sur de fausses informations circulant sur internet, un système de pilotage automatique peut être mal entrainé, sur une base de données de mauvaise qualité. Enfin un aéronef tel qu’un drone se dirigeant en parfaite autonomie via une iA spécialisée dans le vol à basse altitude peut voir son fonctionnement passablement perturbé, voire rendu inefficace, si sa base d’entrainement est de qualité médiocre, ou a été corrompue par une tentative « d’intoxication » de la data via l’action de services secrets étrangers. Dès lors, on se rend compte à quel point l’investissement dans le champ informationnel, tant valorisé dès les débuts du Cyber par certains acteurs comme la Russie ou la Chine, et parfois boudé par d’autres Etats comme nos démocraties occidentales, représente aujourd’hui une faille majeure dans le développement de cette technologie Ai. L’information, sa qualité, sa fiabilité, et sa non-corruption, deviennent autant d’éléments essentiels dans l’usage de la technologie iA.
En gardant cette dichotomie venant clarifier notre compréhension de cette nouvelle technologie, il nous convient désormais d’observer la manière dont l’intelligence artificielle vient bousculer la conduite de la guerre aujourd’hui, en s’immisçant dans l’arsenal des Etats.
L’USAGE DE L’A.i. DANS LA CONDUITE DE LA GUERRE MODERNE : LA QUETE D’UNE SUPERIORITE STRATEGIQUE.
L’intelligence artificielle appliquée à la technologie militaire n’est pas un phénomène nouveau, et la plupart des grandes puissances s’y intéressent depuis plus d’une décennie. Les Etats-Unis d’Amérique ont par exemple annoncé inclure l’Ai au sein de leur stratégie à partir de 2014, en vue de maintenir l’avantage stratégique face à leurs adversaires, dans le cadre notamment du développement des munitions sans pilote. Plus récemment, les USA ont publié en octobre 2022 le US National Security Strategy[10], qui décrit l’Ai comme une technologie dans laquelle les Etats Unis et ses alliés devaient investir et promouvoir son déploiement.
La Chine n’est pas en reste, puisqu’elle annonça dès 2019 une nouvelle stratégie militaire, incluant la technologie Ai, supposée permettre à l’Armée Populaire de Libération de prendre le dessus sur la puissance militaire américaine. Les ambitions chinoises dans cette nouvelle technologie sont d’ailleurs identifiées également par l’Union Européenne, qui pointe la volonté affichée par la Chine de dominer le monde sur le plan de l’iA à l’horizon 2030[11]. La Russie quant à elle considère, par le biais de son Président Vladimir Poutine, que le premier pays en mesure de développer une véritable intelligence artificielle serait capable de diriger le monde[12].
De telles déclarations nous permettent ici d’avoir une vision précise de l’ambition que représente cette technologie aux yeux des Etats et de leurs dirigeants. Et c’est d’ailleurs dans le conflit opposant l’Ukraine à la Russie que l’on a vu véritablement apparaitre l’intelligence artificielle dans un cadre opérationnel[13]. L’usage de l’iA a pris bien des formes, passant de la guerre informationnelle, jusqu’aux armes utilisées sur le champ de bataille. Lors des premières heures suivant le démarrage de « l’opération spéciale » en Ukraine, la Russie utilisera par exemple l’iA pour créer une fausse vidéo mettant en scène le Président Ukrainien face à la Nation en annonçant (faussement) vouloir se rendre à la Russie contre la signature d’une paix[14]. En l’espèce, la création d’une telle vidéo (que l’on appelle un deep fake) ne nécessitait pas une maitrise technologique exceptionnelle, et reste à la portée de tout un chacun ayant quelques connaissances avancées en informatique et en montage vidéo, pour peu qu’il dispose d’un accès à des modèles d’iA permettant la création de deep trouvables facilement sur internet.
De l’autre côté, les troupes ukrainiennes utiliseront quant à elles rapidement des systèmes d’intelligence artificielle permettant à leurs drones de voler à basse altitude (tout en évitant les tentatives de brouillage de l’adversaire) pour pénétrer dans la profondeur Russe[15] afin de frapper des dépôts de carburant[16], ou encore des bombardiers supersoniques à capacité nucléaire sur une base aérienne pourtant à plus de 1 800km de la frontière ukrainienne, le tout sans alerter les systèmes de défense anti aérienne[17].
Certes, l’emploi de l’iA sur le champ de bataille actuel n’apparait pas comme un « game changer » et reste de l’ordre du « plus » technologique permettant de gagner un léger avantage sur l’ennemi, ou encore tenter de contrebalancer une infériorité en troupes et en équipement. Aussi gardons-nous de surréagir face à l’apparition de discours venant annoncer l’avènement de la guerre totale à base d’intelligence artificielle nous conduisant à une guerre semblable à celle d’un film de science-fiction de type « Terminator », où des machines dopées à l’intelligence artificielle viennent anéantir des combattants humains. Il s’agit ici pour nous de rappeler que l’apparition d’une technologie nouvelle ne signifie pas forcément son intégration dans l’arsenal militaire (d’autres technologies en ont fait les frais), pas plus que son intégration dans l’arsenal ne signifie forcément qu’elle soit employée au mieux de ses capacités. En ce sens, les nombreuses études et la littérature abondante entourant la Revolution dans les Affaires Militaire (RMA) montrent combien la technologie à elle seule ne suffit pas. Et tout comme l’intérêt de la mobilité offerte par le char d’assaut ne fut mis à profit qu’à partir de 1939 par l’armée allemande durant la Blitzkrieg (soit plus de 20 ans après son invention et son premier emploi en 1917), l’atout stratégique de l’iA dans la conduite de la guerre moderne n’a probablement pas encore émergé dans l’esprit des états-majors. Cependant, à l’aune de ce nouveau conflit mondialisé, il nous est tout de même possible d’explorer l’usage actuel de l’iA, ainsi que son potentiel militaire tel qu’il est envisagé par les Etats dans un futur proche.
Le premier domaine dans lequel la technologie iA vient augmenter les capacités militaires est celui du renseignement. Ces dernières années, l’OSINT (Open Source Intelligence), à savoir l’analyse des données accessibles par tous, a su se faire une place cruciale au sein des agences de renseignements à travers le monde. Désormais, l’iA permet de capter, cataloguer et analyser une multitude de sources telles que les données accessibles via google, contenu de blogs, commentaires sur les réseaux sociaux (facebook, ex twitter [aujourd’hui X] etc.), plateformes de messageries instantanées (whatsapp, telegram), images publiées en ligne sur les réseaux sociaux, vidéos (via les plateformes en ligne comme youtube, snapchat ou tiktok), bandes audios, et autres sources accessibles sur Internet, qui sont autant de données pouvant être consultées, compilées et fusionnées pour créer un renseignement de qualité. Certes, le renseignement (y compris militaire) basé sur l’OSINT n’est pas nouveau, mais jusqu’ici il pouvait être parfois complexe pour un analyste de capter, analyser, et synthétiser une telle quantité de données. C’est alors qu’entre en jeu l’iA, permettant en quelques secondes de faire ressortir l’essentiel des informations, ou répondre à des questions complexes sur la base des données qu’elle a pu collecter. Plusieurs sources militaires indiquent d’ailleurs que si le USA ont été en mesure de prévoir l’attaque de la Russie en Ukraine en février 2022 (alors que l’intégralité des agences de renseignement du monde occidental considérait les mouvements de troupes comme une simple tentative d’intimidation de la part de Moscou, sans intention d’attaquer) c’est entre autres par l’analyse de l’intelligence artificielle de toutes les données accessibles[18]. Au-delà du renseignement militaire fourni notamment par les satellites de surveillance, le pool d’informations américain était constitué de données disponibles publiquement, qu’il s’agisse de photographies postées sur les réseaux sociaux par des militaires russes s’accumulant sur la ligne de front, de messages envoyés par des applications telles que Telegram, ou encore de l’augmentation fulgurante de profils d’hommes russes et de messages échangés sur des applications rencontres telles que Tinder aux abords de l’Ukraine[19].
Plus largement, l’usage de l’iA permet également d’épauler aujourd’hui le travail d’enquête et de renseignement de certaines institutions juridiques internationales, afin de réunir des preuves à charge dans la commission de crimes de guerre, par l’accumulation de données issues de ces différentes sources[20].
L’on voit donc ici combien l’OSINT dopée à l’iA voit son potentiel décuplé, grâce aux nouvelles capacités offertes par cette technologie, ce qui n’échappe pas aux yeux des Etats qui y voient un moyen pratique (et facile) d’accéder à une surveillance étendue.
Deuxième domaine dans lequel l’intelligence artificielle est d’ores et déjà utilisée, celui de la guerre informationnelle que se livrent les Etats, la Russie en tête de proue. Notons d’ailleurs que dans le cadre du développement ces deux dernières décennies de ce que l’on appelle aujourd’hui la « cyberguerre », Moscou s’est très vite (et presque exclusivement) intéressé au champ informationnel, plutôt qu’au domaine hardware ou software. D’autres gouvernements comme celui de Pékin ont également largement investi le champ informationnel, mettant en place un contrôle accru des informations circulant sur ses réseaux, ainsi que celles accessibles sur internet depuis la Chine[21].
Aujourd’hui, l’iA sert régulièrement à propager des Fake News (fausses informations) à travers des « bots farms » (fermes à robots), autrement dit des ordinateurs chargés de diffuser automatiquement de la propagande et de fausses rumeurs, informations, voire images créées de toute pièce, en vue de déstabiliser (notamment) les démocraties, bien plus sensibles que d’autres types de régimes à ce genre d’actions. Certes, ce type d’opérations consistant à diffuser le plus largement possible des fausses informations au sein de nos démocraties n’est pas chose nouvelle, et bien entendu la propagation de rumeurs était déjà au cœur de la guerre de (dés)information que se menaient les services secrets (mission qui a d’ailleurs toujours été une spécialité des services russes, et autrefois soviétiques). Cependant, l’outil iA permet aujourd’hui de faciliter grandement la démarche en automatisant les procédures de création de ces fake news, et leurs diffusions par le biais d’Internet, permettant ainsi d’aller toucher le moindre citoyen jusque dans son foyer. Suite aux déclarations alarmistes du directeur du FBI, le CSIS indique à ce sujet : « désormais l’iA peut créer le message, le modifier pour l’adapter à des audiences différentes, et le distribuer rapidement. La Russie peut pénétrer les discussions pratiquement instantanément »[22]. Ce qui, jusqu’ici, était appelé « campagne de trolling » (comprenez des individus missionnés pour créer manuellement du contenu et des discussions polémiques en ligne sur la base de fausses informations) et qui nécessitait un travail humain intensif pour un public cible restreint, se retrouve désormais totalement automatisé en recourant à l’intelligence artificielle, avec une qualité de contenu accrue, et un public cible largement étendu. De la création de faux messages, articles de blogs, jusqu’aux commentaires sur des réseaux sociaux appuyés avec de fausses images ou vidéos, ces campagnes explosent. Rien que sur la période de Janvier à Mai 2024, certaines sources spécialisées estiment que le nombre de fake news créées par l’iA et publiées en ligne a bondi de plus de 1 000%[23]. Il ressort également qu’à partir de février 2022, le FSB (descendant du KGB) se serait procurait l’infrastructure informatique nécessaire pour faire fonctionner des « bots » (robots), venant créer automatiquement et sur mesure des milliers de profils « crédibles » sur les différentes plateformes et réseaux sociaux, avec description personnelle, contenu et photo de profil, le tout en utilisant des programmes open source comme Faker, ou encore Meliorator. Le but pour ces services étant, selon toute vraisemblance, d’inonder de ces fakes news certains réseaux comme X (anciennement Twitter)[24]. La diffusion de ces messages prenait notamment place dans différents pays incluant l’Allemagne, Israël, les Pays-Bas, la Pologne, l’Espagne, l’Ukraine, ou encore les Etats-Unis. Le CSIS indique à ce sujet que :
« Les gouvernements alliés rapportent que cet outil est capable de créer un grand nombre de personnages convaincants, d'utiliser ces personnages pour publier des informations qui semblent crédibles, d'amplifier les messages d'autres personnages automatisés et de formuler leurs propres messages adaptés aux intérêts apparents de ces faux humains […]Créer une propagande hautement personnalisée est désormais rapide et facile […] Là où la Russie a ouvert la voie, d'autres suivront. Les alliés occidentaux verront sûrement de nombreuses autres tentatives de la part des services de renseignement d'utiliser l'IA pour répandre de la désinformation »[25].
Cette désinformation tend même à influencer les comportements électoraux dans le cadre d’élections présidentielles au sein de nos démocraties occidentales, que ce soit en hexagone, parmi nos partenaires européens, ou encore outre atlantique. Notons d’ailleurs à cette occasion que compte tenu de l’impact avéré de ce travail de désinformation sur les populations civiles dans un cadre électoral, et dans la lignée des travaux canoniques et précurseurs d’Edward SHILS et Morris JANOWITZ, il serait intéressant d’étudier l’impact de cette guerre informationnelle d’un nouveau genre sur les troupes combattantes, et sur leur motivation à aller se battre ou, a contrario, lâcher les armes[26]. Le terrain ukrainien nous semble se prêter parfaitement à l’expérimentation, dans la mesure où il s’agit probablement de la première génération de combattants ayant toujours possédé un smartphone (y compris actuellement sur le champ de bataille), et connectée aux réseaux sociaux, lieu incontournable du partage de contenus à visée « désinformationnelle ». Signalons au passage que l’usage d’appareils mobiles de ce type est devenu, progressivement au cours de ce conflit, une menace identifiée par les différents états-majors, notamment russes, qui ont pris la décision d’interdire leur possession aux troupes présentes sur le champ de bataille[27].
De manière plus tangible, l’iA peut avoir demain un usage de désinformation militaire en décuplant les capacités existantes. Souvenons-nous par exemple en 2022 des vidéos publiées au Mali, provenant selon certaines sources du groupe paramilitaire Wagner, et montrant un charnier supposément laissé (d’après les auteurs de la vidéo) par des militaires des forces françaises. L’armée française avait fini par publier elle-même une vidéo captée par drone du groupe paramilitaire, créant lui-même ce charnier afin de créer son contenu de désinformation en vue d’accuser faussement les troupes de l’hexagone[28]. Compte tenu de l’évolution de l’intelligence artificielle dans la fabrication de contenus vidéos de toutes pièces, avec un taux de réalisme à la limite de l’indétectable, il nous est possible de rapidement imaginer le potentiel d’une telle technologie, permettant de créer demain une vidéo de désinformation à la demande, en quelques minutes, sans même avoir quitté son bureau[29]. La création d’une telle vidéo de charnier ne nécessiterait que quelques dizaines de minutes, sur la base d’un simple « prompt » envoyé à un logiciel de création vidéo basée sur l’iA et décrivant la scène, pour être diffusée dans la foulée sur la toile[30].
Enfin le troisième domaine dans lequel l’intelligence artificielle semble avoir un impact tangible aujourd’hui, c’est celui de l’armement militaire. Selon l’International Institute for Strategic Studies, ce qui était « Autrefois de simples questions stratégiques et éthiques hypothétiques concernant l'application militaire de l'intelligence artificielle (Ai) en temps de guerre, elles deviennent maintenant une réalité concrète, avec les combats en Ukraine et à Gaza, émergeant comme le premier bapteme de feu de cette technologie »[31]. En effet, les deux zones de combats précitées ont vu l’iA entrée en jeu, mais de manières légèrement différentes.
Dans le cas de l’Ukraine, les forces militaires semblent plus spécifiquement utiliser l’iA comme un moyen de contrebalancer leur infériorité en nombre et en materiel. Et il est vrai que cette technologie permet, par exemple, de rendre fluide le comportement des véhicules, aéronefs, drones, et munitions autopilotées évoluant dans un environnement complexe (qu’il s’agisse d’un champ de bataille terrestre, du domaine maritime, ou encore aérien). Comme précédemment cité, tel fut le cas des drones ukrainiens ayant permis de frapper derrière les lignes russes des installations militaires et bombardiers, en autorisant l’aéronef autonome à voler à très basse altitude afin de passer sous les radars ennemis, sans pour autant heurter une installation au sol ou un potentiel relief naturel. Dans la majorité des cas, la guerre en Ukraine mobilise l’iA pour améliorer la précision et l’efficacité des frappes[32].
Un autre usage de l’iA semble également permettre l’amélioration de la prise de décision des autorités militaires (et politiques), en autorisant la prise en considération d’une quantité bien plus importante d’informations et renseignements issues de divers sources, tout en synthétisant une liste de choix et opportunités disponibles. En cela, il s’agirait potentiellement d’un renouveau de la théorie de John Boyd, si chère à l’US Air Force, et de la fameuse boucle OODA (Observe, Orient, Decide, and Act), indiquant que la capacité à prendre une décision plus rapidement que l’adversaire serait plus importante que la quantité ou la qualité de matériel engagé dans un combat[33]. Même si cette théorie semblait à l’origine séduisante, il s’avère qu’elle montra rapidement ses limites dans sa capacité à améliorer drastiquement le « decision making process ». En effet, dans le cadre de la première guerre du Golfe en 1991, la « network centric warfare » (NCW, ou guerre en réseau) réunissant une quantité colossale de données (issues de la reconnaissance satellitaire, de systèmes de positionnement par GPS des déplacements de l’ennemi, ou encore de la collecte / analyse d’une multitude de communications ennemies) a montré que le surplus d’informations pouvait augmenter drastiquement la charge mentale à la fois du personnel combattant (tel qu’un pilote par exemple) mais aussi de la chaine de commandement[34]. A la fin des années 90, forts des enseignements de la première guerre d’Irak, Arthur Cebrowski tentera de moderniser cette théorie par l’implémentation systématique de matériel informatique (notamment au sein de l’US Navy) issu de la société civile et disponible sur étagère, ce qui perpétuera la NCW comme la théorie première au sein de l’appareil militaire américain. Et compte tenu des déclarations américaines de 2014 concernant l’introduction de l’iA dans les forces armées, il est aisé de considérer que l’intégration de cet outil vienne compléter et réaffirmer la place de cette stratégie aux yeux du Pentagone. D’ailleurs le Department of Defense semble tenter aujourd’hui une fusion des théories de Boyd et Cerbowski au sein du concept de Decision Centric Warfare, en mobilisant l’iA et les armes auto pilotées[35].
Et c’est précisément dans cette lignée que le conflit dans la bande de Gaza s’inscrit. En effet, notons qu’en dehors des USA, d’autres pays semblent faire l’usage de l’iA dans le processus décisionnel de l’état-major. Le journal The Guardian révèle à ce titre qu’Israel aurait mobilisé l’intelligence artificielle en tant que support à la décision pour venir analyser une grande quantité de data récoltées, afin d’identifier les cibles prioritaires et sélectionner les bâtiments à frapper au sein de la bande de Gaza[36]. Jusqu’ici, seuls les USA semblaient avoir utilisé l’identification préalable des cibles par l’iA pour effectuer des frappes aériennes via son programme MAVEN [37].
Ainsi, même si l’on pourrait penser ou imaginer qu’il s’agit d’une technologie encore naissante, dont l’usage militaire ne serait que futur et hypothétique, l’intelligence artificielle est en réalité largement mobilisée par de nombreuses forces armées, avec différentes stratégies et niveaux de perfectionnement. Chaque Etat souhaitant capitaliser sur cette nouvelle compétence pour venir tantôt palier une infériorité matérielle et humaine, tantôt améliorer l’efficacité d’un système d’arme, mais aussi effectuer des opérations de déstabilisation en sous-main, ou encore décupler ses capacités de renseignement en vue d’une prise de décision plus rapide et éclairée. Et comme pour tout avantage technologique ou stratégique, chaque acteur (les USA en tête) tente de le développer tout en le refusant à son adversaire. Tel en fut le cas par exemple pour l’arme atomique au sortie de la seconde guerre mondiale, puis durant toute la guerre froide (et jusqu’à nos jours). Tel en est désormais le cas pour les armements basés sur l’intelligence artificielle, comme nous allons le voir.
LE CONTROLE DE LA PROLIFERATION
DES ARMES Ai PAR LES ETATS : LE MOMENT OPPENHEIMER.
Notre comparaison entre le développement de l’arme atomique (et la volonté pour certains Etats d’en diminuer la prolifération) avec celui de la technologie Ai peut paraitre triviale à première vue. Cependant, convenons ici que rares sont les technologies militaires acquises par un des belligérants, qui ne puisse finir rapidement développée par la partie adverse. Or, que ce soit pour des raisons techniques, scientifiques, ou encore d’accès à certaines ressources matérielles, le développement de l’iA, tout comme la bombe atomique, répond à certains critères dont le contrôle repose (du moins, pour l’instant) dans les mains de quelques rares acteurs, les USA en tête. De plus, de la même manière que le nucléaire est venu subitement jouer (et joue encore un rôle) dans les relations entre grandes puissances, l’intelligence artificielle semble devenir aujourd’hui un véritable outil de pouvoir d’un Etat dans la lutte politique sur la scène internationale. Dans ce but, les grandes puissances militaires et économiques du monde tentent aujourd’hui tantôt de s’emparer de cette nouvelle « arme », tantôt d’en freiner autant que possible le développement, afin d’éviter que leurs adversaires ne puisse en tirer un avantage stratégique venant potentiellement remettre en question l’équilibre des forces. Cependant, comme nous allons le voir, le succès de cette mission dépend de la « couche » (parmi les trois précitées) sur laquelle chaque Etat est en mesure d’agir.
En Juin 2021, l’Union Européenne publie un rapport intitulé « Artificial Intelligence governance as a new European Union external policy tool » dans lequel elle identifie l’intelligence artificielle comme un « outil de puissance politique, et un élément de la diplomatie des Etats » indiquant qu’il s’agit ici d’un élément venant « bousculer » la géopolitique, et envisage 6 manières dont l’iA pourrait influencer l’équilibre mondial du pouvoir[38]. Même si l’Union indique qu’elle aborde le sujet du point de vue économique, elle traite également des possibles réglementations qu’elle envisage de mettre en place pour tenter d’endiguer un mésusage de cette technologie, avec les difficultés que cela implique. Et ce n’est d’ailleurs pas la seule entité politique à s’attaquer au sujet. Les Etats-Unis ont eux aussi identifié très tôt le risque d’une technologie d’intelligence artificielle se développant de manière totalement incontrôlable, sans pour autant parvenir à canaliser le phénomène. De plus, certains acteurs (notamment américains) craignent qu’une réglementation trop stricte vienne paralyser l’innovation dans ce nouveau champ, donnant ainsi le temps à de potentiels adversaires (qu’ils soient économiques ou militaires), la Chine en tête de proue, de rattraper son retard voire de prendre une avance certaine dans son développement. D’autre part, le cadre réglementaire s’avère bien souvent peu efficace, voire incapable d’endiguer les problèmes qu’il vise. Dans le cadre de la lutte contre les campagnes de désinformation par exemple, un rapport du CSIS indique en ce sens que :
« Malgré les avertissements précoces, les efforts des États-Unis pour se défendre contre les campagnes de désinformation restent, au mieux, anémiques. Le Global Engagement Center du Département d'État et le Foreign Malign Influence Center du Bureau du Directeur du Renseignement National sont petits et sous-dotés en personnel. Les règles concernant ce que les agences gouvernementales américaines sont autorisées à faire ou non dans le domaine de l'information sont floues et parfois contradictoires. En vérité, le gouvernement américain dépend largement de l'industrie pour éloigner les fermes de bots, et même la capacité du gouvernement à discuter de ces questions avec les entreprises de médias sociaux[39] a récemment fait l'objet d'un débat juridique intense »[40].
Il ressort des publications que malgré l’identification précoce de la menace, les Etats Unis (et leurs alliés) éprouvent la plus grande difficulté à effectuer un contrôle sur la couche informationnelle de l’iA, de sorte que les campagnes de désinformation se poursuivent, voire se perfectionnent. Ainsi, de la même manière que nous avions pu observer, dans d’autres recherches, l’incapacité du gouvernement fédéral américain à créer une politique de cyberdéfense et de cybersécurité sans passer par la coopération avec les entreprises privées (sauf à détourner certains dispositifs législatifs non prévus à cet effet)[41], il semble que le gouvernement des Etats-Unis éprouve quelques difficultés à endiguer le mésusage de l’iA par ses adversaires, sans la coopération active des entreprises et industriels du domaine.
Mais à l’inverse, on observe une tentative de contrôle bien plus forte sur les autres couches, notamment hardware et software.
Dans le domaine matériel (hardware), les Etats-Unis disposent sur leur territoire des industriels parmi les plus avancés en matière de microprocesseurs spécifiquement développées pour l’iA, de sorte que l’administration Biden a décidé, dès 2022, d’imposer un embargo sur l’exportation des puces américaines dédiées à l’intelligence artificielle. L’argument avancé par le Bureau of Industry and Security (BIS) étant que ces semiconducteurs seraient utilisées pour « produire des systèmes militaires de pointe, incluant des armes de destruction massive » [42], en visant spécifiquement la Chine. Une année seulement après ses premières actions, la Maison Blanche viendra combler les failles de son système d’embargo industriel, tout en élargissant ce dernier à d’autres puces moins performantes[43]. La Secrétaire du Commerce américain confirmera les motivations des Etats-Unis en déclarant que: « L'objectif reste le même qu'il a toujours été : limiter l'accès de la République Populaire de Chine (RPC) aux semi-conducteurs avancés qui pourraient alimenter des avancées en intelligence artificielle et des ordinateurs sophistiqués, essentiels pour les applications militaires de la RPC. » [44].
Une telle limitation a d’abord conduit à une levée de boucliers des industriels américains eux-mêmes, qui ont d’ailleurs tenté de contourner ces embargos, en produisant des puces moins performantes pour passer juste en dessous des seuils de limitation de l’administration Biden, et permettre ainsi une reprise du commerce avec la Chine[45]. La mise à jour de la politique de régulation effectuée en 2023 par la Maison Blanche visait, entre autres, à s’adapter à ces tentatives de contournement des industriels. La Semiconductor Industry Association (SIA) s’est également mobilisée pour défendre le domaine industriel qu’elle représente, en demandant au gouvernement de ne pas imposer un contrôle trop « restrictif » pour protéger l’économie de l’iA et son développement. La SIA avançant comme argument que :
« Nous reconnaissons la nécessité de protéger la sécurité nationale et croyons que le maintien d'une industrie américaine des semi-conducteurs en bonne santé est un élément essentiel pour atteindre cet objectif […] Des contrôles unilatéraux trop larges risquent de nuire à l'écosystème des semi-conducteurs aux États-Unis sans renforcer la sécurité nationale, car ils encouragent les clients étrangers à chercher ailleurs »[46].
Dans ce bras de fer avec Washington, les entreprises américaines se voient soutenues par la Chine, puisque Pékin vient régulièrement dénoncer les mesures prises par l’administration américaine[47].
Au-delà de la régulation faite sur l’exportation de la couche matérielle (hardware) de l’iA, il s’avère que le Département du Commerce américain a jusqu’ici éprouvé les plus grandes difficultés à contrôler la couche logicielle et empêcher l’exportation des modèles d’intelligence artificielle (type LLM, mais pas seulement)[48]. En Mai 2024 le Congrès a présenté un Bill donnant de larges attributions au Département en vue de limiter l’exportation de la couche software de certaines iA (qui pourrait porter atteinte à la sécurité nationale notamment), y compris les solutions « open source »[49] comme celles développées par le groupe META, sans que l’on puisse évaluer réellement l’efficacité de cette législation. Ce focus sur l’open source fait suite à la découverte d’un usage croissant de ces modèles par le principal adversaire des Etats-Unis en la matière, la Chine, qui repose de plus en plus sur le modèle Llama[50]. Le législateur intervient également après l’annonce de Microsoft d’investir plus de 1.5 milliards de dollars aux Emirats pour le développement de technologies iA[51].
Toutes ces actions sont autant d’illustrations de la motivation pour l’Etat fédéral américain de venir contrôler au maximum l’exportation et le développement de l’intelligence artificielle, pour en limiter notamment la prolifération à l’étranger. L’iA étant en effet considérée aujourd’hui comme une technologie de pointe, capable de donner un avantage militaire mais également civil. En cela, la démarche rappelle sans nul doute les efforts menés par chaque puissance militaire de se saisir de la bombe atomique et des vecteurs permettant de la délivrer au sortir de la seconde guerre mondiale, pendant que les USA tentaient de gagner cette course à l’armement en maintenant leur avance en la matière.
Plus formellement, le parallèle entre l’arme atomique et l’avènement de l’iA a été entériné lors de la conférence de Vienne en Avril 2024, réunissant des délégués provenant de plus de 143 pays. Plusieurs représentants officiels, dont le ministre des affaires étrangères autrichien, ont en effet déclaré que l’intelligence artificielle venait d’atteindre l’ « Oppenheimer Moment ». L’idée derrière ce discours étant de souligner selon eux l’urgence dans le questionnement de l’éthique entourant l’emploi des armes Ai dans un cadre militaire, ainsi que la régulation de leur usage, comme l’arme atomique en son temps, au regard des dégâts qu’elles pouvaient provoquer (compte tenu des exemples en Ukraine et à Gaza)[52].
Ainsi, la prolifération nuclé.Ai.re semble être lancée. Les programmes militaires américains prévoient d’ailleurs plusieurs milliards de dollars dans le développement de materiel militaire basé sur l’iA (près de 6 milliards rien que pour l’US Air Force)[53]. A l’été 2023, le pentagone annonçait en ce sens vouloir construire des systèmes autonomes capables de « surmonter le plus grand avantage de la chine, qui est la masse » [54]. Dans ce but, une panoplie de programmes voient le jour, comme le développement d’un programme de mise à jour des F-16 américains pouvant être contrôlés totalement par l’iA. L’US Air Force a annoncé vouloir disposer d’une flotte de plus de 1 000 avions sans pilote de ce type d’ici à 2028[55].
La prolifération et l’usage en masse de ce type d’armes est donc actée, et les USA ne sont pas la seule puissance militaire à vouloir se doter de cette technologie, d’où l’empressement de ces derniers à vouloir réguler et limiter autant qu’ils le peuvent sa prolifération.
CONCLUSION
Tout comme le nucléaire, l’intelligence artificielle est une technologie duale, ayant des répercussions tant dans la sphère économique que militaire. Ce nouvel outil de suprématie, comme le nucléaire en son temps, a lancé ces dernières années une course technologique entre Etats qui (selon nous) ne semble pourtant pas attirer l’intérêt académique qu’elle mériterait.
Certes, jusqu’ici les dégâts causés par l’iA n’atteignent absolument pas ceux causés par l’explosion de la première bombe atomique, et les risques que cette technologie fait peser sur le monde sont sans commune mesure, du moins, compte tenu de sa maitrise actuelle. Cependant les investissements colossaux engagés, notamment par les USA, ne sont pas sans rappeler les lourds investissements accordés au projet Manhattan. Et l’on comprend aisément les sommes engagées lorsque l’on se rend compte de la place que prend aujourd’hui l’intelligence artificielle dans le discours politique sur la scène internationale. En effet, si pour le grand public le terme Ai n’est qu’un argument marketing utilisé par la Silicon Valley, il s’agit en revanche d’un véritable outil permettant de devenir demain « le maître du monde » dans l’esprit et le discours des dirigeants. Tel qu’il en était question pour l’arme atomique en son temps. Chaque Etat semble d’ailleurs avoir largement identifié la menace pesant sur lui et ses alliés, dans l’hypothèse ou leurs adversaires viendraient s’emparer de cette technologie avant eux.
Cependant, savoir que son adversaire développe cette technologie ne suffit pas, et vouloir en disposer à son tour encore moins. Certes, accéder aux logiciels d’intelligence artificielle, par le biais de l’Open Source, reviendrait presque à obtenir les plans relatifs au fonctionnement d’une bombe atomique en 1946. Mais l’intelligence artificielle ne se résume pas simplement à du code informatique. C’est une chose de voler les plans expliquant comment enrichir de l’uranium, mais c’est une toute autre affaire de mettre la main sur cet uranium, disposer d’une chaine complète de centrifugeuses capable de venir l’enrichir, puis d’être en mesure de miniaturiser suffisamment la bombe, pour enfin la fixer sur un vecteur capable d’aller projeter sur le terrain son pouvoir destructeur. Et c’est précisément en mettant en place un embargo sur cette chaine complète que les Etats ont jusqu’ici réussi à freiner la prolifération nucléaire dans le monde.
Aujourd’hui, dans cette course à l’arme nuclé.Ai.re, une démarche similaire semble se dérouler sous nos yeux. Les Etats s’arrachent les ingénieurs et scientifiques pionniers dans ce domaine. Les gisements de terres rares sont les nouvelles mines d’uranium. Les fonderies de microprocesseurs sont les nouvelles centrifugeuses. Et les appareils automatisés sont les nouveaux vecteurs capables de venir projeter, sur le terrain, le pouvoir destructeur de l’Artificial Intelligence.
Auteur de la publication:

Adrien MANNIEZ
Docteur en Science Politique
Chercheur politiques publiques, analyse de l'Etat, relations internationales et des politiques de défense.
Consultant et conférencier, il est également fondateur de l'institut InSight.
[1] Miailhe Nicolas, « Géopolitique de l’Intelligence artificielle : le retour des empires ? »,
Politique étrangère, (Automne), 3, 2018, pp.105-117.
[2] En retard sur l'IA, la Chine tente de convaincre l'ONU de réguler cette technologie pour ne pas se faire distancer (latribune.fr)
[3] Pour plus de détails sur l’analyse du cyber en 3 couches : KEMPF Olivier, Introduction à la Cybersécurité, economica, 2012.
[4] Robot conversationnel répondant à différentes questions par écrit.
[5] Big Tech keeps spending billions on AI. There’s no end in sight. - The Washington Post
[6] Voir en ce sens : Big Tech keeps spending billions on AI. There’s no end in sight. - The Washington Post
[7] Compte tenu du caractère open source, la solution informatique de Meta est considérée comme « libre de droits », et peut donc être potentiellement reprise et utilisée par n’importe quel individu, entreprise, voire même Etat dans le monde. Son code est en accès libre, tout comme sa lecture ou sa modification. Par suite, aucun « frais » de fonctionnement ou achat n’est effectué envers l’entreprise Meta en cas d’usage de cette technologie. Le « seul » véritable coût dont l’utilisateur devra s’acquitter, c’est celui de l’entrainement de l’inteligence artificielle, en le faisant fonctionner sur des serveurs. Par suite, deux solutions s’offriront à l’usager utilisant Llama, soit la construction d’une infrastructure capable d’entrainer à grande échelle la solution (ce qui, nous l’avons vu, peut être extrêmement coûteux et ne sera pas à la portée de tout le monde), soit (et c’est probablement une des explications)
[8] Par exemple, dans le cadre d’une iA de type LLM, chaque « token » va représenter un mot, ou un bout de mot, et la puissance de l’iA sera calculée sur sa capacité à analyser et comprendre une quantité finie de Token. Ainsi, dans le cadre de ChatGPT3.5, une suite de 3000 mots va représenter environs 4096 token. Pour plus de détails voir en ce sens : Définition | GPT-4 - ChatGPT Plus - ChatGPT 4 (futura-sciences.com)
[10] Biden-Harris-Administrations-National-Security-Strategy-10.2022.pdf (whitehouse.gov)
[11] EPRS_ATA(2021)696206_EN.pdf (europa.eu)
[12] Miailhe Nicolas, « Géopolitique de l’Intelligence artificielle : le retour des empires ? »,
Politique étrangère, (Automne), 3, 2018, pp.105-117.
[13] Deepfake Zelenskyy surrender video is the 'first intentionally used' in Ukraine war | Euronews
[14] Deepfake presidents used in Russia-Ukraine war (bbc.com)
[15] Ukraine rushes to create AI-enabled war drones | Reuters
[16] Ukraine’s AI-enabled drones are trying to disrupt Russia’s energy industry. So far, it’s working | CNN Business
[17] Ukraine drones reportedly hit Russian airfield in Arctic – POLITICO
[18] Déclarations faites par plusieurs haut gradés et anciens généraux de l’armée française sur plusieurs chaines de télévision dont LCI en Juin 2024.
[19] Des militaires russes draguent l'ennemie sur Tinder | Slate.fr
[20] How can open-source intelligence help prove war crimes? | Context
[21] Creemers Rogier, « Comment la Chine projette de devenir une cyber-puissance »,
Hérodote, (N° 177-178), 2, 2020, pp.297-311.
[22] A Russian Bot Farm Used AI to Lie to Americans. What Now? (csis.org)
[23] How AI fake news is creating a ‘misinformation superspreader’ - The Washington Post
[24] Ibid.
[25] Ibid.
[26] Sur la guerre informationnelle et la manière dont elle peut affecter une unité militaire combattante, voir les travaux de Shils et Janowitz « Cohésion and Désintégration in the Wehrmacht in Word War II » vol. 12, été 1948, pp. 280-315.
Voir également la relecture et l’analyse refaite dans la revue actuelle de : Shils Edward A., Janowitz Morris, « Cohésion et désagrégation de la Wehrmacht pendant la Deuxième Guerre mondiale », Les Champs de Mars, (N° 9), 1, 2001, pp.179-207.
[27] En Ukraine, comment les smartphones sont devenus à la fois des armes et des cibles de la cyberguerre (lefigaro.fr)
[28] Images de charnier au Mali: l’armée française pointe du doigt les mercenaires de Wagner – Libération (liberation.fr)
[29] Pour comprendre l’évolution récente de la technologie iA dans la création de contenu vidéo, consulter les contenus publiés par l’entreprise américaine OpenAi (maison mère de chatgpt) sur le développement de sa nouvelle suite de création vidéo baptisée SORA : https://openai.com/index/sora/
[30] Notons ici que la majorité des iA actuellement contiennent des bridages « éthiques » visant à limiter leur usage dans certains domaines, comme celui-ci. L’entreprise OpenAi a d’ailleurs refusé en 2024 de rendre accessibl sa technologie SORA au public (pourtant assez mature pour une exploitation commerciale potentielle) de peur que l’objectif premier soit détourné à des fins néfastes, y compris dans un contexte d’élection présidentielle américaine sous tension. Enfin, rappelons ici que la vision en 3 couches utilisée dans notre analyse nous permet de comprendre aisément que d’autres modèles iA de création vidéo vont surgir sur le marché, y compris en Open Source (à l’image de Llama), ce qui pourrait permettre à certains auteurs d’en détourner l’usage plus aisément en l’entrainant en local et en modifiant le code informatique ouvert.
[31] AI’s baptism by fire in Ukraine and Gaza offer wider lessons (iiss.org)
[32] Ibid.
[33] Pour rappel, en se basant sur sa propre expérience de pilote au sein de l’US Air Force dans la guerre de Corée, John Boyd théorisa l’idée selon laquelle la capacité d’un pilote à prendre une décision était plus importante que la performance de son avion. L’exemple de la guerre de Corée amena les avions américains F-86 SABRE à se confronter aux MIG-15 de fabrication soviétique et bien plus récents (et performants selon lui, qu’il s’agisse de la puissance du moteur, l’agilité de l’appareil, ou encore l’armement). Pourtant les F-86 ont remporté la majorité des batailles, avec un ratio de 3.7 pour 1. Le F-86 étant en effet équipé d’un radar plus performant, et d’une meilleure visibilité dans le cockpit, permettant ainsi aux pilotes de prendre des décisions rapides mieux informées. La boucle OODA devenant, à son sens, un déterminant permettant de faire la différence entre une victoire et une défaite dans une bataille.
[34] https://www.hudson.org/defense-strategy/artificial-intelligence-future-warfare
[35] Bryan Clark, Dan Patt, and Timothy A. Walton. "Advancing Decision-Centric Warfare: Gaining Advantage through Force Design and Mission Integration," Hudson Institute, July 2021.
[36] ‘The Gospel’: how Israel uses AI to select bombing targets in Gaza | Israel | The Guardian
[37] AI Airstrikes: Pentagon Used the Tech to Find Middle East Targets - Bloomberg
[38] https://www.europarl.europa.eu/RegData/etudes/STUD/2021/662926/IPOL_STU(2021)662926_EN.pdf
[39] Supreme Court sides with Biden administration in social media case : NPR
[40] A Russian Bot Farm Used AI to Lie to Americans. What Now? (csis.org)
[41] MANNIEZ Adrien, dans Conflits, crimes et régulations dans le Cyberespace (sous la direction de Sébastien-Yves Laurent) - Chapitre 9 : Cyberdéfense et politiques de régulations aux Etats-Unis : de l'échec de la "politique globale" au succès de "l'approche sectorielle", ISTE Group, 2021.
[42] https://www.bis.doc.gov/index.php/documents/about-bis/newsroom/press-releases/3158-2022-10-07-bis-press-release-advanced-computing-and-semiconductor-manufacturing-controls-final/file
[43] What to Know About U.S. Curbs on AI Chip Exports to China | TIME
[44] U.S. Tightens China’s Access to A.I. Chips - The New York Times (nytimes.com)
[45] Juste après l'introduction des règles de 2022, l’entreprise américaine Nvidia, leader dans la fabrication de puces dédiées à l’iA, a développé ses nouvelles puces, les A800 et H800, qui étaient moins rapides que ses puces de pointe A100 et H100 mais respectaient les critères pour être vendues en Chine.
[46] What to Know About U.S. Curbs on AI Chip Exports to China | TIME
[47] In first AI dialogue, US cites 'misuse' of AI by China, Beijing protests Washington's restrictions | AP News
[48] US lawmakers unveil bill to make it easier to restrict exports of AI models | Reuters
[49] Ibid.
[50] How dependent is China on US artificial intelligence technology? | Reuters
[51] Microsoft to invest $1.5 billion in Emirati AI firm G42 for minority stake | Reuters
[52] ‘Our Oppenheimer moment’ — In Ukraine, the robot wars have already begun – POLITICO
[53] AI’s ‘Oppenheimer moment’: autonomous weapons enter the battlefield | Artificial intelligence (AI) | The Guardian
[54] An AI-controlled fighter jet took the Air Force leader for a historic ride. What that means for war - POLITICO
[55] Ibid.