Les guerres qui viennent seront formidablement « intelligentes »

En février 2023 s’est tenue à La Haye une réunion rassemblant plus de soixante pays, consacrée aux usages militaires de l’intelligence artificielle (IA). Étaient notamment présents les Etats-Unis et la Chine. À l’issue de cette rencontre a été signé par la majorité des États participants un modeste « appel à l’action » en faveur d’un « usage responsable » de l’IA dans le domaine militaire. Ce texte ne débouche sur aucun « engagement légal » de la part des signataires.

Partant de l’idée que le développement de l’IA risquait de favoriser une montée en puissance des conflits armés dans les temps à venir, les signataires ont mis l’accent sur la nécessité de développer l’IA et d’en faire usage en matière militaire « en accord avec les obligations légales des États » de façon à ce que cet usage ne « sape pas la sécurité, la stabilité et la fiabilité en matière de relations internationales ».

Israël a participé à cette réunion, mais n’a pas signé le texte.
L’Ukraine qui utilise la reconnaissance faciale et des systèmes de guidage de missiles fondés sur l’IA dans sa guerre contre la Russie n’y était pas représentée. Commentaire du rédacteur de l’article diffusé alors par l’agence Reuters : [la signature de ce document] ouvre, pour les États, la voie du développement de l’intelligence artificielle à des fins militaires selon toutes les modalités qui leur conviennent, ceci aussi longtemps qu’ils peuvent les définir comme « responsables ». Où sont les dispositions susceptibles de rendre le mécanisme contraignant ? » [1].

Dans le même temps, le directeur du FBI, Christopher Wray, présent au Forum économique mondial de Davos, s’y déclarait « profondément préoccupé » par le développement des programmes d’utilisation de l’intelligence artificielle en Chine, sous l’égide du gouvernement chinois. Ces programmes « ne sont pas placés sous le signe de l’état de droit (rule of law) », dit-il, alléguant notamment des emprunts massifs ne respectant pas la propriété intellectuel, des vols d’informations s’étendant sur des années et des années. Ces emprunts peuvent être mis au service de toutes sortes d’opérations malveillantes ou brutales – piratage de données, répression contre les dissidents, ajoutant cette remarque générale : « chaque fois qu’apparaît une nouvelle technologie, je me dis : ’Super, on peut faire ça, maintenant !’ - et puis aussitôt, je me reprends : ’Oh mon Dieu, ça veut dire qu’eux aussi [les Chinois] le peuvent... ».

D’où découle, donc, la nécessité d’accélérer le développement de l’IA, notamment en matière d’armes « AI-enabled », de façon à conserver une longueur d’avance sur le concurrent et adversaire systémique désormais clairement désigné comme tel. La figure classique de l’obsession du « gap » à la faveur duquel l’adversaire s’assurerait un avantage décisif en matière d’équipement militaire reprend ici vigueur dans un contexte où le développement tumultueux de l’IA a été d’emblée capté par l’antagonisme désormais surdéterminant entre les Etats-Unis et la Chine ; et où, aussi bien, cet antagonisme inclut, d’emblée aussi, la dimension militaire. Et donc, tout se tient : si les Chinois se situent au même niveau que les Américains en matière d’Intelligence artificielle, ce n’est pas seulement qu’ils vont pouvoir continuer à perfectionner la société de surveillance dans leur espace propre, mais aussi bien maîtriser la technique permettant de fabriquer en série des slaughterbots, des robots tueurs, des drones capables de tuer sans intervention humaine (directe, du moins) – comme nous, dirait le directeur du FBI.

On voit bien ici comment l’intelligence artificielle est, d’ores et déjà, entraînée irréversiblement dans la spirale non seulement des guerres locales qui font rage aujourd’hui (en Ukraine, au Proche-Orient), mais, plus généralement, de la guerre des mondes dont les contours se précisent de jour en jour. La course à l’IA dans sa dimension et ses usages militaires est d’ores et déjà engagée, comme battait son plein la course aux armements nucléaires, aux SS-20 et aux Pershing installés sur le sol européen dans les derniers temps de la guerre froide.

En février 2025 se tiendra à Paris (si Dieu le veut) un sommet pour l’action sur l’intelligence artificielle, rassemblant des représentants de plus de cent pays, des entreprises d’IA, des ONG. Emmanuel Macron a désigné une envoyée spéciale chargée de suivre la préparation de cette conférence et de lui en rendre compte. Celle-ci, Anne Bouverot, est une ingénieure titulaire d’un doctorat en IA et ayant travaillé aux Etats-Unis pour des entreprises comme Orange. Elle a co-présidé la commission de l’IA et été chargée de rédiger un rapport sur les perspectives de développement de cette technologie en France. Au journaliste du Monde qui l’interroge sur les enjeux de ce sommet, elle répond d’emblée : « Dans (…) la conversation globale, le discours principal que j’entends au cours de mes voyages, c’est plutôt une peur de voir l’IA faite par d’autres [je souligne], de ne pas pouvoir se l’approprier » [2].

On voit donc bien, avec cette remarque à l’unisson des réflexions de l’ex-directeur du FBI, l’IA, qu’avant d’être une technologie qui va bouleverser les moyens de conduire les guerres, c’est d’emblée, d’ores et déjà, la guerre. Le développement de l’IA est pris dans une structure de guerre. La spirale de l’accélérationnisme est en place, la course effrénée au développement, au perfectionnement de cette technologie, là où chaque acteur, quel qu’il soit, est habité par l’obsession d’être dépassé par le concurrent, battu, relégué au second rang, voire voué à disparaître. Cette figure nous rappelle par certains traits la course contre la montre effrénée à la Bombe (A) que se sont livrés les Etats-Unis et l’Allemagne nazie à la fin de la Seconde guerre mondiale. Mais ici, ce qui frappe, c’est ceci : cette figure de la guerre enveloppe aussi bien les souveraineté étatiques que les grandes et moins grandes entreprises privées qui occupent les positions de pointe dans l’élaboration des technologies rattachées à l’IA. La guerre de tous contre tous revient par ce biais à l’âge triomphant de l’ultra-libéralisme qui constitue le milieu propice dans lequel a prospéré l’innovation en matière d’IA.

Ici, ce sont les ingénieurs (comme Anne Bouverot) qui donnent le ton et le tempo, et ce qui prévaut, c’est donc le culte de l’efficience, la confiance aveugle en les vertus intrinsèques de l’innovation – on peut le faire, donc on le fait, et on trace son chemin sans se retourner. Rien de surprenant, donc, que la suite de l’entretien avec l’ « envoyée spéciale » de Macron ait la consistance du nuage (du rideau ?) de fumée, mélange inextricable de généralités et de promesses n’engageant que ceux qui veulent bien y croire : « L’IA, comme toutes les technologies, comporte des risques, mais aussi des opportunités (…) nous souhaitons créer les ’communs’ de l’IA (…) l’une des comparaisons possibles est l’électricité : elle peut être utilisée à des fins très positives, mais aussi négatives. Ce n’est pas pour cela qu’on peut l’enfermer (sic) » [3]. On retrouve là un des traits structurels de ce qu’on pourrait appeler la pensée ingénieure ou la pensée-ingénieurs – le gouffre béant entre les réalisations, les performances et la réflexion sur celles-ci, la subjectivation réflexive et critique de celles-ci – tout particulièrement lorsqu’on entre dans la sphère de l’innovation [4]. L’ingénieur, ici, va de l’avant, développe tête baissée les technologies de pointe de l’IA, l’œil rivé sur la concurrence, il est une force qui va – un jour, peut-être, à l’image de ce qui s’est produit avec le digital, il sortira des rangs, tournera la tête en arrière et, comme l’empereur Guillaume II, articulera, accablé : « Das habe ich nicht gewollt ! » [5].

On apprend au passage, dans l’entretien en question que « Macron et Paris » s’opposent à une régulation en matière d’IA, au nom de la promotion de l’innovation en Europe. Aussi bien, la conférence de février 2025 n’aura « pas la légitimité pour proposer de nouvelles régulations ». Ces rassemblements globaux au chevet de l’IA, tels qu’ils se sont multipliés ces dernières années, ont donc pour vocation première, distincte, de jeter de la poudre aux yeux des opinions concernées, de les rassurer – à l’instar sans doute des conférences sur le désarmement naguère rituelles. En vérité, l’innovation (et la concurrence qui va avec) en matière d’IA sont pour l’essentiel en roue libre, les acteurs étatiques s’y trouvant en position de dépendance à l’égard des entreprises qui occupent les positions de pointe en la matière – californiennes, essentiellement, pour ce qui concerne le monde occidental.

L’inflation des discours à propos de l’IA durable et des effets bénéfiques annoncés des nouvelles technologies, en matière de développement de la robotique, par exemple, a pour effet, si ce n’est pour objectif délibéré, de détourner l’attention du public de cet enjeu massif et qui le surplombe comme un pan de montagne sur le point de s’effondrer sur le village-monde : l’IA est appelée, dans les années et les décennies à venir, à transformer profondément les conditions de la guerre – des guerres annoncées. Ce qui peut se dire autrement : les guerres qui viennent, ou plutôt qui ont déjà cours, celles que conduit Israël notamment, ont vocation à être un terrain d’expérimentation privilégié des nouvelles technologies rendues disponibles par l’IA. Ce n’est pas pour rien que, lorsque le journaliste du Monde objecte à l’ingénieure Bouverot qu’elle semble « afficher une vision trop optimiste et techno-business », éludant la dimension militaire du problème, notamment le « risque d’armes autonomes », celle-ci dégage magistralement en touche : « On a (…) beaucoup entendu la comparaison entre l’IA et le nucléaire. Elle ne me paraît pas pertinente parce que cette technologie se développe dans des enceintes fermées. Je préfère la comparaison avec l’électricité, ou avec les médicaments et la chimie. On peut en faire des armes bactériologiques ou du poison, mais aussi vacciner des populations, soigner le cancer. Il faut bien sûr tester les IA et contenir les utilisations négatives, mais aussi, au maximum, permettre le développement des solutions » [6].

En matière de réflexion sur la relation entre innovation, science, technologies et guerre à l’âge de l’IA, on devrait pouvoir faire mieux…

Si le capitalisme ne succombe pas sous le poids de ses « contradictions », comme le pensaient les marxistes orthodoxes au XXème siècle, c’est qu’il se relance d’innovation en innovation. Il court plus vite que ses « contradictions », il est une perpétuelle fuite en avant et l’innovation est le cœur battant de cette perpétuelle échappée – vers où ? - l’abîme, selon toute probabilité, mais cela, nous ne pouvons pas l’affirmer avec certitude (autre différence marquée d’avec les marxistes orthodoxes du siècle dernier), cela se tient hors d’atteinte de nos capacités pronostiques. Le propre des grandes innovations – la dernière en date, le digital et que, déjà, repousse vers le passé l’émergence de l’IA, est de faire époque, de dessiner les contours d’une époque en produisant des effets globaux de reconfiguration du sensible. Mais c’est à tort que l’on confond, souvent, cette propriété des grandes innovations (au sens où l’on parle des « grandes découvertes » d’antan) de faire époque avec celles des révolutions.
Les grandes innovations remodèlent les champs pratiques, transforment les pratiques, les façons de faire, les conduites, influent à ce titre sur le système des mœurs et les rapports sociaux, produisent toutes sortes d’ajustements normatifs, etc. Elles produisent d’infinis déplacements dans le champ du réel, à ce titre, comme dans celui des subjectivités humaines. Mais cela ne fait pas d’elles, pour autant, l’équivalent de révolutions.

Ce qui est en jeu dans une révolution, c’est le renversement de l’institution symbolique du social et du politique, l’assignation des places, la règle du jeu qui définit les rapports entre les classes, entre gouvernants et gouvernés. Le milieu propre à une révolution, c’est l’action des masses, la formation d’un peuple de la rupture radicale et donc de l’événement révolutionnaire. Ce qui est en jeu dans l’innovation, c’est fondamentalement la technique, c’est-à-dire l’appareillage du vivant humain – les appareils, les dispositifs, les prothèses, etc. Une révolution (dont le cours n’est pas interrompu prématurément) ne se contente pas de produire des réajustements ni même des bouleversements dans l’ordre des conduites et des mœurs – elle en transforme la règle même, elle assigne celles-ci à une nouvelle règle.

Avec les irruptions successives du digital puis de l’IA, nous demeurons donc cantonnés dans le domaine de l’innovation et c’est un contresens que de parler à tout-va de révolution à propos de ces objets. Il n’y a pas de révolution de l’IA, juste une manifestation de plus, et ô combien probante, de l’infinie résilience du capitalisme, moins comme système que comme « la Bête », super Léviathan, organisme increvable. Il n’y a pas davantage de raison de parler dans ce contexte de révolution qu’à propos du fordisme. Or, si le fordisme a « révolutionné » la production industrielle dans certains de ses secteurs, ce n’est qu’au sens le plus terre-à-terre du terme.

En contrepartie, ce dont il faut mesurer la juste portée, c’est le caractère englobant, transversal et multipolaire de la grande innovation. Elle engage tous les secteurs de la vie et les bouleverse, à des titres divers, les remodèle. Ce motif nous est devenu familier, puisque nous avons vécu la pseudo-révolution du digital, puisque le digital est désormais partie intégrante de nos subjectivités et nos pratiques. Par conséquent, la question de savoir jusqu’à quel point l’irruption de l’IA est vouée à transformer la pratique de la violence armée, dans les temps à venir, ne saurait être traitée comme une question particulière, soit, plus précisément, comme c’est de mode aujourd’hui, par le petit bout de la lorgnette des drones tueurs. C’est l’ensemble des enjeux de reconfiguration induits par l’irruption de ces technologies qu’il nous faut tenter de saisir pour tenter de comprendre ce qui, du point de vue de la guerre contemporaine (et des agencements de celle-ci sur la techno-science), y est d’ores et déjà en jeu.

Partons donc d’énoncés simples, simplistes, même : dans le temps de l’IA (à l’âge de l’IA, comme il y a eu un âge de la boussole ou des caravelles), on ne fera plus la guerre comme avant, de la même façon que : on n’envisagera plus la question de la traduction comme avant ; on ne passera plus commande au restaurant comme avant ; on ne prendra plus en charge le grand âge comme avant ; on ne fera plus le ménage comme avant ; on ne produira plus le sous-titrage des films comme avant ; on ne distribuera plus les repas dans les cantines d’entreprises comme avant ; on n’assurera plus le service après-vente d’un nombre infini de marchandises comme avant ; on n’assurera plus la réception dans les grands hôtels comme avant ; on n’envisagera plus les « rencontres » sur internet comme avant ; on ne jouera plus sur les écrans comme avant ; on n’envisagera plus la question de la création artistique comme avant ; on n’écrira plus les livres (ou une partie d’entre eux) comme avant - etc.

Les mutations à venir des façons de faire la guerre sont emportées par cette vague géante de l’innovation qui, on le voit, emporte une infinité de façons de faire sur son passage. Et d’emblée, nous voyons bien que cette mise en relation du motif de l’innovation avec celui de la guerre nous jette dans de grands embarras. En effet, la guerre est, de façon immémoriale, domaine d’action par excellence. Or, les façons de faire, cela s’associe plutôt aux conduites qu’à l’action, l’accent étant placé sur le fait que les conduites sont appareillées, plutôt que dirigées. Bien sûr, on parle couramment de conduite de la guerre – mais ce que l’on entend par là, c’est le commandement, la façon dont la guerre est menée, dirigée. Or, ici, ce qu’il faut envisager, c’est autre chose : quelles interactions entre l’irruption de l’IA et les pratiques de la guerre ? C’est un enjeu majeur : le propre de l’action, c’est qu’elle adhère à l’acteur. Quand la Wehrmacht envahit l’Union soviétique en juin 1941, le doute n’est pas permis quant à l’identité des auteurs (notamment le premier d’entre eux) de la décision qui commande l’opération Barbarossa. Sous le régime qui se dessine, où les pratiques de guerre seront variablement placées sous le régime de l’IA, les zones d’ombre vont se multiplier pour ce qui concerne la provenance ou l’origine de telle ou telle action belliqueuse – une cyberattaque destinée à perturber les communications militaires de telle puissance, un tir de missile, un lâcher de drone(s) tueur(s) sur telle cible d’importance stratégique, etc.

Le flou entretenu autour de l’origine de telle ou telle opération (qui a fait quoi ?) va rendre toujours plus complexe, indéchiffrable parfois, l’objet guerre entendu comme champ pratique. Les formes de guerre hybrides vont gagner en extension, au fur et à mesure que l’identification des acteurs des opérations en cours deviendra plus complexe [7]. On n’ira pas jusqu’à dire, bien sûr, qu’à l’ère de l’IA ce sont des machines devenues autonomes qui se font ou se feront la guerre, lorsqu’une attaque massive de drones est déclenchée, cela relève bien d’une décision humaine ; mais, en même temps, lorsque ces machines tueuses sont dopées à l’IA, il est plus que probable qu’elles gagnent une forme d’autonomie induite par leur « intelligence » même, qu’existe donc une marge plus ou moins importante entre l’effet recherché et l’effet produit par leur mise en œuvre et qu’ainsi soit toujours davantage mise à l’épreuve la responsabilité humaine – c’est pas moi, c’est la machine. L’intelligence artificielle, dans ce contexte général, est vouée à devenir un facteur d’escalade, d’aggravation des conflits. Les performances qu’elle permet et permettra toujours davantage en matière de destruction des forces armées, équipement militaires, mais tout autant formes de vie en général dans le camp opposé déborderont toujours davantage les capacités imaginatives et les desseins tactiques et stratégiques de ceux qui y recourront. C’est l’image de la boîte de Pandore qui revient constamment dans les approches alarmistes, pas même nécessairement catastrophistes ou apocalyptistes des effets de dominos de l’irruption de l’IA dans le monde présent [8].

Depuis la Première guerre mondiale, les conflagrations armées majeures, mais aussi bon nombre de conflits et locaux sont placés sous le signe de l’enchaînement des circonstances, de l’autonomisation de la violence et de la brutalisation de l’affrontement dont les effets et les conséquences en viennent à échapper entièrement aux calculs, desseins et visées stratégiques de ceux qui en sont les acteurs. La guerre devient une scène de chaos et d’apocalypse où prévaut la figure d’une violence appareillée par des équipements toujours plus performants et qui tend à perdre toute commune mesure avec les intentions de ceux qui ont mis le feu aux poudres. De Pearl Harbor à Hiroshima, de la première à la seconde guerre d’Irak, cette figure de la guerre toujours davantage émancipée des desseins de ses promoteurs, machine folle en expansion constante, impossible à arrêter n’en finit pas de creuser son sillon sanglant dans l’époque.

Ce ne sont pas les raisons qui manquent de penser qu’à l’âge de l’IA, cette figure va entrer dans une nouvelle ère de prospérité. Pas seulement pour les raisons que nous avons dites jusqu’alors, mais aussi parce que l’époque est, de façon croissante, placée sous le régime de la sécurité globale, cybersécurité, entre autres, laquelle induit l’état d’urgence permanent, la sécurité ainsi entendue étant par définition un enjeu vital. Plus les puissances sont « grandes », et plus elles voient leur sécurité globale comme vitale. Les affinités entre ces obsessions sécuritaires et l’état d’exception sautent aux yeux. En d’autres termes, les chaînes d’équivalence entre sécurité globale, état d’exception et guerre se renforcent. Dans un monde dominé par la figure de la sécurité globale, la ligne de séparation entre guerre et paix devient toujours plus floue. L’IA est appelée à devenir pour les temps à venir l’appareillage adapté aux conditions de cette époque dont la marque distinctive n’est pas « ni paix ni guerre » mais plutôt la guerre de basse intensité et de formes variables (guerre commerciale, guerre électronique, guerre des propagandes déguisées en storytelling, etc.) susceptible, à chaque instant, de devenir ouverte, selon l’adage maoïste : une étincelle peut mettre le feu à la plaine.

Ce qui, depuis le projet Manhattan, marque un tournant dans l’histoire de la guerre, c’est l’amalgame du motif de l’intelligence « pure » avec celui de la violence « pure ». Le motif de la science « détournée » par de mauvaises applications de ses avancées ou de ses découvertes a fait long feu. Les chercheurs s’activant dans les domaines de pointe, ceux qu’on appelait naguère les savants ou les scientifiques, voient leurs recherches préemptées par le complexe militaro-industriel et les fabriques de technologies innovantes [9]. C’est que ces recherches, désormais, dépendent d’investissements financiers colossaux lesquels sont ciblés, c’est-à-dire effectués soit dans l’horizon du marché soit dans celui des débouchés en terme de « sécurité ». Oppenheimer est le parfait exemple de cette captation de la figure du savant (dont le milieu est, supposément, la recherche fondamentale, c’est-à-dire l’intelligence pure) par le complexe militaire – une figure de la mobilisation totale étendue à cette sphère même.
A partir du moment où la recherche fondamentale est subrepticement ou ouvertement orientée vers une fin utile, elle-même placée sous le signe de l’urgence absolue (la production de la Bombe A), la distinction entre science (domaine de pensée, de connaissance, de recherche, d’intelligence) et technique (domaine d’application en vue de la réalisation de fins pratiques) tend à s’effacer et la science « pure » est susceptible de se brancher directement sur la violence « pure » - l’arme nucléaire et, dans la foulée, l’entrée de l’humanité dans l’âge nucléaire (Günther Anders).

Ce n’est plus la figure des applications qui est ici pertinente, mais celle des ensemble intégrés. La connaissance scientifique et le domaine des technologies sont, sur la planète IA, compactées, indissociables. La statistique, entendue comme branche des mathématiques, la théorie des probabilités dans tous ses prolongements ont été littéralement bouffées par l’intelligence artificielle depuis que celle-ci a pris son essor sur le versant ingénieur (« On peut le faire ? On le fait ! ») plutôt que cybernéticien. ChatGPT, produit et mis en circulation par le laboratoire californien Open AI, ce n’est pas de l’application, c’est un dispositif qui est un concentré d’intelligence générative – bien malin qui saura y dissocier la part de la science de celle de la technique. Ce dispositif a pris le monde d’assaut et il présente la propriété de transformer le réel (les conduites humaines, la perception du monde par les sujets humains, leur « vécu...) en passant par le marché. Désormais, la plupart des grandes entreprises ont intégré des chatbots à leur fonctionnement, ce qui suppose de lourds investissements – l’AI est désormais irréversiblement intégrée à la vie du capital et dotée d’un potentiel transformatif dont on ne saurait percevoir les limites. On sait que ce potentiel transformatif est énorme, mais on n’a aucune idée d’où il « nous » (l’humanité) conduit. La connaissance et la recherche scientifiques ne précèdent pas ce mouvement vers l’avant tumultueux (l’IA, c’est, par excellence, la tempête qui soulève les ailes de l’ange benjaminien...), elles y sont totalement embarquées, comme le sont leurs lieux et leurs espaces – les labos (sur ce point : Bruno Latour).

Cela n’est pas fait pour nous surprendre – c’est déjà ce qui nous est arrivé avec l’Internet, à partir de 1996 – utopisé puis dystopisé à mort, et dont on ne sait toujours pas où, au juste, ça nous conduit (comme composante de la « civilisation » contemporaine). Une des raisons en est le placement de ces irruptions transformatrices sous le signe de l’innovation. Or, celui-ci est intrinsèquement accélérationniste (toujours plus ! Toujours plus vite !), ce qui a pour effet le raccourcissement perpétuel de l’intervalle séparant la recherche de la mise sur le marché ou de la militarisation des nouveaux dispositifs – il n’a pas fallu bien longtemps pour que les drones transforment radicalement le paysage de la guerre, de la même façon que, de façon moins spectaculaire mais néanmoins tout aussi tangible, l’apparition d’Internet l’a fait. L’effet de l’accélérationniste est que ce sont les ingénieurs qui tiennent la corde et non plus des chercheurs dans le sens traditionnel du terme. « L’ingénierie domine la recherche au point que les chercheurs ne comprennent ce que font les IA que plusieurs années après la commercialisation de leur mise en ligne » [10]. La transposition, logique autant que légitime, de cette réflexion dans le domaine militaire fait évidemment froid dans le dos – quand ceux qui y font aujourd’hui leur profit des « avancées » en matière d’IA « comprendront » (dans « plusieurs années »...), il sera évidemment trop tard…

Aux origines du développement de l’IA, nous explique-t-on, se confrontent deux desseins, si ce n’est à proprement parler deux idéologies : « altruisme efficace » et « accélérationnisme efficace ». Dans les deux cas, une pensée élitiste, techno-cratique : les premiers se voient « désignés par leurs capacités intellectuelles, financières et techniques supérieures pour hiérarchiser et résoudre les principaux problèmes humains, au premier rang desquels les risques de pandémie, de guerre nucléaire [je souligne] » [11] - rien que ça, l’ingénieur en informatique tenant lieu ici de philosophe-roi... Les seconds sont davantage orientés vers l’apparition d’une « entité suprahumaine » boostée par l’IA, permettant de « faire passer l’espèce à un stade d’évolution supérieure » en tirant parti de toutes les ressources de l’IA et en construisant des agencements toujours plus perfectionnés entre l’humain et le machinique [12].

La différence d’orientation entre les deux perspectives est tangible : dans le premier cas, il convient de voir (encore) l’IA comme un moyen en vue de la réalisation de fins bonnes (ce qui peut induire des formes d’autocontrôle ou de limitation si l’on pressent que les fins bonnes peuvent être menacées par le développement incontrôlé des nouvelles technologies). Dans le second, il s’agit de la laisser se développer et prospérer en toute liberté, dans l’espoir de la voir accoucher d’une humanité améliorée, dopée par les puissances nouvelles de l’IA ; une humanité désormais plus qu’appareillée – l’IA, c’est ce qui vient après les prothèses (Bernard Stiegler), là où prévalent le continuum (des formes intégrées) entre l’humain et le machinique.

Mais ce que ces deux approches (avec, chacune, sa petite musique utopique) ont en commun, c’est l’idée que la greffe de l’intelligence artificielle sur l’humain est, dans son fond et dans son principe, bénéfique.

Or, le principe même de l’intelligence artificielle, c’est l’entrée (massive) de données qui vont subir un certain traitement (fondé sur les mathématiques et l’informatique) et produire, à la sortie, des résultats proprement inconcevables dans le monde d’avant : un livre entier traduit en quelques secondes dans une langue étrangère, un engin tueur qui liquide un ennemi tapi dans un appartement situé à des milliers de kilomètres de l’exécutant (le type qui appuie sur le bouton), une voix artificielle donnant corps à un personnage me dispensant de précieux conseils concernant ma vie sexuelle ou religieuse... Mais ces performances fabuleuses relèvent d’une définition de l’intelligence qui, elle-même, relève typiquement d’une pensée d’ingénieur(s) : à aucun moment la machine ne se pose la question de savoir jusqu’à quel point c’est une bonne chose (ou plutôt : une chose bonne) de dégommer la cible vivante établie dans cette capitale étrangère, ni quelles peuvent être les conséquences, proches et lointaines, de cette opération (qui, une fois encore, se distingue radicalement d’une action). L’intelligence artificielle est mise ici au service de la réalisation de tâches ou de la conduite d’opérations placées sous le signe de la seule efficacité (et du moindre coût).
Ce qui se tient hors de portée de l’intelligence artificielle, c’est le sens, la mise en contexte, la mise en récit – quand ces machines fabriquent des récits, plutôt que des cadavres, ceux-ci résultent purement et simplement de l’assemblage de données par moyens statistiques : « Les énoncés générés ne procèdent que d’analyses statistiques et de la corrélation probabiliste. S’il y a tel terme, alors le terme suivant sélectionné sera celui dont il aura été repéré qu’il est, d’après les historiques d’usage, le plus récurrent à la suite. En cela, a tendance à être formulé ce qui a déjà eu lieu » [13].

En d’autres termes, ce qui se substitue ici à la faculté narrative humaine (l’humain étant le vivant qui raconte et écoute « des histoires »), c’est la génération du texte par des automatismes fondés sur la statistique.

J’essaie d’imaginer un monde où les récits de guerre seraient produits désormais essentiellement selon cette modalité – L’Iliade, La chanson de Roland, Guerre et paix, A l’Ouest rien de nouveau, en version IA … Ce n’est pas une proposition dystopique si gratuite que ça : de vastes secteurs de l’édition sont d’ores et déjà en passe d’être investis par l’IA, la littérature enfantine, les livres de self help (comment soulager son mal de dos... ?), la littérature pornographique, les romans à l’eau de rose naguère confiés à des auteurs prolifiques comme Delly et à leurs armées de nègres... À Hollywood aussi, l’IA a pris pied dans l’écriture des scénarios – elle est l’outil parfait pour déterminer quelles sont les attentes du public…

Et puis, il y a le secteur immense (économiquement) de l’industrie du divertissement, c’est-à-dire de l’occupation du temps disponible – les jeux vidéo notamment. On a dit et redit qu’au temps de l’IA, la guerre tendra à ressembler de plus en plus à un jeu vidéo en grand. L’analogie est facile, mais elle fait mouche sur deux points au moins.

D’une part, l’IA permet de généraliser et systématiser la conduite d’opérations de guerre à distance, à très grande distance. Cette possibilité produit de puissants effets de déréalisation – plus la distance est grande entre l’auteur d’une opération (qui n’est plus une action) et l’effet de celle-ci, plus la guerre tend à devenir une abstraction ou, pour le type qui conduit l’opération dans un bureau, assis devant une console, un casque sur la tête, quelque chose qui ne diffère pas beaucoup d’un jeu – les bâtiments qui s’effondrent, les masses de béton qui s’abattent sur leurs habitants, les cris des blessés, le va-et-vient des ambulances – tout ceci tombe dans le domaine des abstractions.

La guerre appareillée par l’IA, cela tend du coup à devenir le royaume du criminel de bureau, comme on l’a bien vu tout au long de la campagne de destruction de Gaza par l’armée israélienne. Celui-ci devient une sorte d’ingénieur du crime – il faut qu’il maîtrise toutes sortes d’expertises et de savoir-faire directement relatés à l’IA. Et, tout comme le geek de la Silicon Valley qui s’active à mettre au point les dispositifs superintelligents post-Chat GPT, il est établi dans une forme de souveraineté dont la condition est l’émancipation de la réalité dans le sens courant du terme – the tangible world, là où l’on entend les cris de douleur et de panique des gens sur lesquels s’abattent les toits et les plafonds d’un immeuble ciblé par un missile, lui aussi superintelligent…

On peut dire, en ce sens : l’intelligence artificielle, ça sert à faire la guerre dans ce sens particulier et particulièrement dangereux que cela abolit auprès de ceux qui la font en recourant à elle le sens de la réalité – les effets de destruction, de mort, de production du chaos et de la désolation de ce qu’ils font tendent à devenir pour eux des abstractions ; cela fait d’eux, par excellence, des coupables innocents, perclus d’innocence native [14].

D’autre part, mais toujours dans le même sens, il y a les gestes qui s’associent à l’IA et qui, généalogiquement, remontrent à une sorte de scène primitive associée à l’irruption de la « fée électricité » – tout ce qui peut se subsumer sous un intitulé comme : « geste infime, grands effets ». Le geste premier, fondateur, dans cette lignée, c’est donc celui qui consiste à tourner un bouton, appuyer sur un commutateur pour que, dans l’instant, la lumière s’allume dans une pièce. Ensuite, ce geste (on/off) trouve son champ d’application infini tant dans la vie quotidienne que dans la production industrielle ou les pratiques de la guerre moderne, il trouve son acmé dans le geste fatidique (le doigt pressé sur un bouton rouge) par lequel est déclenchée l’apocalypse nucléaire. Désormais, c’est le click sur une souris d’ordinateur – mais c’est toujours le même geste infime. Ce qui est invariant dans ce geste, quel qu’en soit le contexte, quel que soit le dispositif ou l’appareil dans lequel il s’insère, c’est l’absence de commune mesure entre le caractère infime de l’effort, de la puissance (force) physique déployée par celui.celle qui l’effectue et ses effets. Cette disproportion, structurellement, produit des effets de déréalisation, dans la mesure même où le sujet humain s’y trouve toujours en position de démiurge – même quand il allume la lumière en entrant chez lui, geste banal et automatique –, produisant constamment des effets (ou déployant une puissance effective) qui excède ses facultés imaginatives, qui est sans proportion avec ce qu’un corps humain est capable de produire comme effet sur son environnement lorsqu’il lui faut compter sur ses propres forces, équipé d’un appareillage rudimentaire qui n’est que le prolongement primaire de son corps – allumer un feu, couper une bûche, affronter une bête sauvage équipé d’un bâton ou d’un couteau, etc.

Ce n’est pas par hasard que la contrepartie de l’irruption puis la généralisation de cette figure, dans nos sociétés, cette figure « moderne » par excellence, a pour contrepartie ou face obscure l’accident, sous toutes ses formes. Du court-circuit qui met le feu à la maison, à l’accident de voiture (le coup de frein intempestif qui jette la voiture dans le fossé), en passant par l’accident du travail (le mauvais bouton enclenché sur la machine), et, pour finir, le scénario-catastrophe de Dr Folamour... ou Tchernobyl.

Il faut replacer les gestes de l’IA dans cette généalogie, avec la gamme des accidents annoncés et promis dans le domaine des investissements militaires : c’est que la machine, loin d’être infaillible, « comprend » plus souvent qu’à son tour les « ordres » (la commande) de travers, que sa programmation s’est avérée défectueuse ; que, du coup, une cible a été confondue avec une autre, qu’un mariage dans un village a été malencontreusement pris pour un rassemblement de djihadistes…

La « bavure » accompagne le recours à l’IA comme son ombre, mais le pire, c’est qu’elle tend à être intégrée au calcul des utilisateurs – quarante civils, femmes et enfants compris, passant par pertes et profits pour l’élimination d’un chef de faction ennemi, cela tend à devenir, sous ce régime, un ratio (comme ils disent) acceptable. On touche ici du doigt ce désastre mental et moral que constitue cette nouvelle poussée, dans le domaine de la guerre, de la raison ou rationalité statistique, impulsée par l’IA – avant, c’étaient les pertes proprement militaires qui étaient évaluées sur ce mode (pour telle offensive, 10% de perte des effectifs lancés dans la bataille sera considéré comme une proportion acceptables). Avec l’IA, on devient moins regardant et, surtout, dans les guerres asymétriques qu’elle accompagne désormais, la distinction entre ennemis combattants et population tend à devenir de plus en plus floue. L’IA et les conventions de guerre sont deux mondes qui ne communiquent pas.

On voit bien alors que les armes dites intelligentes appareillées (« générées ») par l’IA combinent paradoxalement deux facteurs : elles banalisent à outrance les « bavures » et elles rendent possibles des percées spectaculaires en matière de ciblage des actions homicides à distance. Quelques semaines avant la chute du régime syrien, un article d’Hélène Sallon, dans le Monde, expliquait ainsi la passivité totale du despote Bachar-al-Assad face aux attaques répétées de l’aviation israélienne sur le territoire syrien : les autorités israéliennes lui avaient fait passer le message selon lequel elles avaient les moyens de l’éliminer, lui (et sa famille, pour faire bonne mesure) quand elles voulaient, où qu’il se trouve. La terrible efficacité avec laquelle, au cours des mois précédents avaient été liquidés et les plus hauts dirigeants du Hamas et ceux du Hezbollah montrait alors suffisamment que les Israéliens ne bluffaient pas. La suite des événements (le renversement-éclair de Bachar) devait bien sûr rendre cette menace obsolète, mais celle-ci n’en décrit pas moins un changement radical dans les conditions de la guerre : désormais, lorsque y sont engagés des acteurs disposant d’une maîtrise élevée en matière de « AI-generated weapons », plus aucun chef d’État ou chef de guerre, plus aucune personnalité ou autorité incarnant la puissance adverse n’est en sécurité.

Transposé sur le mode uchronique, ce paradigme peut s’énoncer ainsi : durant toute la Seconde guerre mondiale, ni Hitler, ni les dignitaires nazis ni Rommel, ni, de l’autre côté, Churchill, de Gaulle et Montgomery ne sont en sécurité. Quand on songe à la complexité de l’opération (ratée, de surcroît) du 20 juillet 1944 montée par Stauffenberg et ses complices, on mesure la distance qui sépare les deux topographies guerrières. Les liquidations ciblées des dirigeants du Hamas et du Hezbollah ont exercé un effet de stupeur et d’effroi décisif tant auprès des mouvements concernés qu’auprès des opinions, à l’échelle globale et locale – tout comme, d’ailleurs, l’opération de sabotage à distance des bippers de membres ou sympathisants du Hezbollah. L’impression s’est alors imposée que « décidément, « ils » étaient trop forts, et ce grâce aux avantages décisifs procurés par le recours à l’IA dans la conduite d’opérations du guerre sale, de formes de terrorisme d’État appareillé par l’IA. Les « performances » inédites et stupéfiantes rendues possibles par l’IA permettent de booster la guerre psychologique en même temps que de décapiter la puissance de l’ennemi. L’innovation technologique est ici placée au service de la terreur - terreur d’État, dans sa forme la plus dense, la plus pure. Or, ici, le spectre de la science pure purement et simplement corrompue par l’économie de la guerre rode dans les parages, tout près : en octobre 2024, le prix Nobel de physique a été attribué à deux « pionniers de l’IA » [15].

Le développement de l’IA, tel qu’il se poursuit aujourd’hui à grande enjambées [16]est entièrement embarqué dans une structure de guerre froide, en cours d’échauffement accéléré. La concurrence chinoise en matière d’IA est perçue par les puissances (tant politiques qu’économiques) occidentales, tout particulièrement les Etats-Unis, comme « existentielle ». Sur ce point, les géants de l’IA et l’autorité politique font bloc : « Dans leur plus récent coup porté à Pékin, les Etats-Unis chargeraient (empower) des compagnies comme Google et Microsoft d’agir à l’échelle mondiale comme gardiennes (gatekeepers) des composants de l’intelligence artificielle si fortement convoités, ont déclaré deux personnes familières avec le projet en cours d’élaboration » (dépêche Reuters en date du 15/12/2024, traduite littéralement). Selon ce projet, il s’agirait de bloquer l’accès de Pékin et autres « mauvais acteurs » (Venezuela, Iran, Russie...) à ces composants tout en le facilitant à d’autres, alliés ou réputés fiables (Pays-Bas, Japon, Taïwan...). Le tout au nom, bien sûr, de la cybersécurité.

Curieusement, le catastrophisme qui constitue la musique d’accompagnement de l’irrésistible ascension de l’IA n’est que subsidiairement associé aux figures de la guerre – les mutations en cours dans les pratiques de guerre désormais appareillées par l’IA, la ligne d’horizon des guerres à venir. D’une façon générale, l’irruption des nouvelles technologies promues par l’IA est perçue par les commentateurs davantage comme le dernier clou planté sur le cercueil de l’idéologie du progrès, plutôt que comme une promesse de vie meilleure. L’innovation, trop rapide, tumultueuse, aux conséquences imprévisibles, est plutôt assimilée au désastre possible qu’aux bienfaits du progrès scientifique et technologique. Mais l’imagination (ou l’imaginaire) dystopique qui se déploient ici se nourrit en premier lieu de références soit aux « mauvais acteurs » (Dr Mabuse revisité, un savant fou aux traits asiatiques, éventuellement), soit, plus généralement, de visions d’un monde dans lequel l’intelligence artificielle aurait refoulé l’intelligence humaine, où les grandes firmes maîtresses des nouvelles technologies exerceraient leur dictature sur les pensées et les conduites, où les machines « intelligentes » seraient reines, où les travailleurs auraient été refoulés par les robots, les fausses nouvelles indiscernables des vraies, les images indécidables, le réel toujours plus difficile à distinguer de l’irréel ou de l’imaginaire, etc.

L’accent est placé sur les effets généraux de désorientation et de disruption, susceptibles d’altérer radicalement notre mode de vie, davantage que sur la nouvelle alliance qui se discerne pourtant à l’œil nu entre les nouvelles formes de violence, la brutalisation du monde, les nouveaux dispositifs sécuritaires et répressifs, les nouvelles pratiques guerrières, et l’entrée dans l’âge de l’IA. La crainte première, c’est que l’IA « dépasse l’intelligence humaine » et qu’ainsi elle échappe au contrôle de ses promoteurs et des gouvernants qui persistent à la voir comme un outil placé au service de l’intérêt commun. C’est ici que fait retour le motif des acteurs malintentionnés, qui n’auraient alors pas forcément les traits du supposé despotisme asiatique, et qui pourraient alors transformer l’IA en « moyen de destruction massive ».

La réponse à ces craintes, à ces sensations apocalyptiques, tient un mot : régulation ! Il faut, argumentent sans relâche les esprits positifs, pondérés, les défenseurs des droits de la rationalité gouvernementale, que les États s’engagent en vue de réguler, mettre en place des mécanismes de contrôle de l’expansion proprement anarchique (le marché en roue libre, la libre concurrence...) de l’IA…
Le problème est qu’il en va ici exactement comme de l’ « urgence climatique » – le vent souffle exactement dans la direction opposée, ce sont les géants de l’IA qui donnent le ton et fixent le tempo et eux-mêmes sont engagés dans cette ruée vers l’or en somnambules – ils ne savent pas où ils vont, où cela les mène, et nous avec ceux, mais tant que les affaires marchent, tant que la Bourse accompagne, euphorique, que les gouvernants sont à bord, il n’y a aucune raison pour que ce mouvement impétueux soit régulé de quelque manière que ce soit. Ce qui revient ici en force, c’est la figure du somnambulisme et les somnambules ne marchent pas seulement à tâtons vers une version « mise à jour » dopée à l’IA du brave new world (« le meilleur des mondes »), mais vers la guerre aussi. C’est que, d’emblée, le « capitalisme débridé » à la Elon Musk et consorts [17] qui est le courroie d’entraînement de ces mutations est en prise sur cette structure de guerre qui enveloppe la marche en avant conquérante et prédatrice du technocapitalisme ici à l’œuvre.

Dans cette version hystérique de l’ultra-libéralisme, les démiurges n’ont pas seulement des concurrents, il leur faut des ennemis – d’où la rapidité avec laquelle le développement de l’AI a été problématisé aux Etats-Unis comme un enjeu de guerre des mondes avec la Chine. Par un effet de boucle imparable et infiniment prévisible, les technologies rendues disponibles par l’AI deviennent un moyen de conduire cette guerre dont l’AI elle-même est l’enjeu ou le terreau. L’AI est devenue, dans l’imaginaire conquérant des nouveaux pionniers (colons, en vérité, encore et toujours) qui en sont les promoteurs, la nouvelle frontière de l’époque. Or, il se trouve que cette nouvelle frontière de l’innovation et des technologies rencontre celle, spatiale, géopolitique, où les intérêts hégémoniques des Etats-Unis et de l’Occident entrent en conflit avec ceux de la puissance montante, la Chine.

Ce qui veut dire en clair que le jour où l’échauffourée éclatera en mer de Chine, l’AI en sera un protagoniste majeur, ce qui nous fournira alors l’occasion (si nous y survivons) de méditer sur les paradoxes et les limites de cette stupéfiante « intelligence ». Après tout, il y avait aussi énormément d’intelligence humaine, concentrée dans les bombes qui ont réduit Hiroshima et Nagasaki en ruines et en cendres.


Notes

[1] 18/02/2023.

[2] Le Monde du 10/12/2024.

[3] Ibid.

[4] Selon l’idéologie ingénieure, l’IA doit « faire émerger un ordre naturel capable d’organiser statistiquement le monde de manière plus efficiente, fonctionnelle, rationnelle que les individus et les instances collectives telles que les États (…) [l’IA] est présentée comme l’aboutissement sublime et inéluctable du génie humain plutôt que comme le rejeton dégénéré de l’individualisme américain » (Victor Chaix, Auguste Lehuger, Zako Sapey-Triomphe, « Derrière la forêt des machines, un arbre généalogique », Le Monde diplomatique, novembre 2024. Ici, l’idéologie ingénieure s’oppose à la pensée des cybernéticiens qui, eux, mettent l’accent sur le fait que « le traitement de l’information qui a lieu dans le cerveau est profondément différent de ce qui se passe dans un ordinateur » (Ibidem).

[5] Voir par exemple à ce propos l’essai de Bruno Patino : La civilisation du poisson rouge – petit traité sur le marché de l’attention, Grasset, 2019.

[6] Ibidem, article cité supra.

[7] Sur les guerres hybrides : je me permets de renvoyer ici à mon texte « Notes éparses sur l’inconscient blanc de la démocratie occidentale » in Qu’est-ce qu’un film colonial ?, Eterotopia, 2025.

[8] Voir par exemple : Eric Sadin : « Nous vivons un moment unique de l’histoire qui voit des machines s’emparer de ce qui nous constitue », Le Monde, 5/12/2024.

[9] La question n’est donc pas le risque que les robots, à force de perfectionnement de leur « intelligence », acquièrent une sensibilité et passent ainsi subrepticement du côté de l’humanité, elle serait plutôt que la figure du chercheur se fasse bouffer par celle du businessman. Dans l’IA, il n’y a pas d’espace « pur » qui se situe en amont du marché, du business. Sur ce motif, voir le film d’anticipation de John Badham, Short Circuit (1986). Le « petit génie » qui programme les robots est otage et du business et du complexe militaire.

[10] Victor Chaix, Auguste Lehuger, Zako Sapey-Triomphe : « Pourquoi l’intelligence artificielle voit Barack Obama blanc ? », Le Monde diplomatique, novembre 2024.

[11] Ibid.

[12] Ibid.

[13] Eric Sadin, article cité supra.

[14] Voir sur ce point l’article de Frédéric Lordon « Dominer innocent (un fantasme) », in Contre l’antisémitisme et ses instrumentalisations, collectif, La fabrique, 2024.

[15] Patrick Lecomte : « Face à l’IA, est-il encore permis d’être technocritique ? », Le Monde du 15/12/2024.

[16] Anthony Hié : « Est-on prêt à accueillir la superintelligence ? », Le Monde du 15/12/2024.

[17] « Derrière la forêt des machines, un arbre généalogique », article cité supra, Le Monde diplomatique, novembre 2024.

Commentaires - تعليقات
Pas de commentaires - لا توجد تعليقات