Qui est responsable lorsqu'une arme dotée d'une intelligence artificielle appuie sur la gâchette ?

En 1863, Francis Lieber, juriste prussien-américain chargé par Abraham Lincoln de codifier les lois de la guerre terrestre, écrivait qu'aucun soldat ne pouvait tuer un ennemi « qui avait déposé les armes ». La guerre, aussi brutale soit-elle, devait demeurer un acte accompli par un agent moralement responsable, capable de rendre compte de ses actes et de leurs conséquences.

Le Code Lieber était imparfait. Son application était racialement sélective et ses ambitions humanitaires souvent trahies dans la pratique. Mais son principe fondamental a survécu à deux guerres mondiales, à l'élaboration des Conventions de Genève et au développement de tous les systèmes d'armes, de la mitrailleuse à la munition de précision. Ce principe repose sur l'idée que le recours à la force létale exige un être humain identifiable, interrogeable et responsable de ses actes.

Aujourd'hui, les systèmes de ciblage basés sur l'IA remettent fondamentalement en cause ce principe. Pour la première fois dans l'histoire de la guerre codifiée, l'entité qui décide qui meurt ne peut être traduite en justice ni justifier ses décisions. Ce que Lieber considérait comme la condition permanente des conflits armés – un agent moral au bout de la chaîne de destruction – a été discrètement et délibérément éliminé.

Le commandement central américain (CENTCOM) a affirmé que l'opération Epic Fury, nom officiel de la guerre menée par les États-Unis contre l'Iran , avait frappé plus d'un millier de cibles en seulement 24 heures. Le CENTCOM a attribué cette rapidité opérationnelle aux systèmes d'intelligence artificielle.

Ce nouveau type de guerre consolide une dangereuse évolution dans la prise de décision. Les choix les plus cruciaux concernant les personnes à tuer, les raisons de leur mort et les preuves justifiant leur décès sont désormais délégués à des systèmes d'intelligence artificielle. Ces systèmes raisonnent de manière structurellement opaque, ce qui signifie que les humains censés être aux commandes ne peuvent ni comprendre ni expliquer véritablement ces décisions.

Mais un problème plus fondamental se pose. Les systèmes de ciblage algorithmiques ne se contentent pas de créer de nouveaux risques d'erreur ; ils instaurent un nouvel environnement juridique : un champ de bataille où le fondement de toute décision de ciblage est, par conception même, inconnu des commandants qui l'autorisent, des juristes qui l'évaluent et des tribunaux qui pourraient être amenés à statuer. L'algorithme devient ainsi un générateur d'obscurité épistémique, impossible à remettre en question.

Le droit des conflits armés repose sur le principe fondamental qu'un décideur humain, lorsqu'il attaque une cible, peut justifier les faits qui fondent sa conviction qu'il s'agissait d'un objectif militaire légitime. C'est le fondement de l'analyse de proportionnalité et de la responsabilité pénale individuelle. Sans cette justification, il ne reste qu'un ensemble de normes juridiques dépourvu de mécanisme d'application.

Les systèmes de ciblage modernes basés sur l'IA remettent en cause ce principe fondamental d'une manière spécifique. Les architectures d'apprentissage profond ne produisent pas de décisions accompagnées de chaînes d'inférence compréhensibles. Elles produisent des résultats – scores de probabilité, classifications de menaces – dérivés de l'interaction pondérée de centaines de millions de paramètres au sein d'ensembles de données d'entraînement opaques.

Une étude de 2023 publiée dans Nature Machine Intelligence a révélé que même les développeurs de modèles, disposant d'un accès complet à l'architecture et aux pondérations, ne peuvent reconstituer avec certitude les combinaisons de caractéristiques spécifiques ayant déterminé une décision de classification individuelle. L'agent qui approuve une cible générée par une IA ne vérifie rien ; il ratifie une recommandation dont il ne peut contrôler les fondements.

C’est ce qui rend le fossé éthique entre l’acquisition et le déploiement si lourd de conséquences. Les Principes d’éthique de l’IA du département de la Défense américain de 2020 promettent traçabilité et jugement humain. Or, ils n’expliquent pas ce qui se passe lorsque ces exigences entrent en conflit avec le rythme opérationnel. En clair, il est impossible pour un être humain de vérifier suffisamment de cibles pour mener 1 000 frappes par jour.

Le cas israélien en est l'exemple le mieux documenté. Lavender, qui établissait des listes de cibles pour les frappes israéliennes à Gaza, n'était pas un programme clandestin. Officiellement approuvé, il autorisait les officiers à tuer jusqu'à vingt civils par agent subalterne du Hamas signalé par le système. Selon le magazine 972, la procédure d'approbation se résumait à quelques secondes d'apposition d'un tampon. Les personnes impliquées dans le processus ne faisaient que blanchir les décisions algorithmiques sous un vernis d'autorisation.

Il convient également de noter la diffusion de ce paradigme aux États clients. La littérature sur la guerre par l'IA se concentre de manière disproportionnée sur la compétition entre les États-Unis et la Chine . Elle occulte la manière dont la doctrine américaine et de l'OTAN en matière d'IA, et ses hypothèses sous-jacentes concernant les pertes civiles acceptables, sont exportées vers les armées alliées dans le cadre d'accords de vente militaire à l'étranger, sans le cadre de contrôle éthique censé la limiter dans le pays d'origine.

Lors du conflit du Haut-Karabakh en 2020, l'Azerbaïdjan a intensifié son recours aux drones, déployant des armes turques dotées d'intelligence artificielle. Au Soudan, pendant la guerre civile, certaines parties ont utilisé l'IA pour faciliter le ciblage, ce qui a parfois contribué à des attaques contre des civils, selon un groupe d'experts des Nations Unies . Le Soudan a également informé le Conseil de sécurité de l'ONU que les Forces de soutien rapide (FSR) s'étaient procuré des armes d'origine britannique via les Émirats arabes unis . Certaines de ces attaques ont impliqué des « frappes ciblées », qui consistent à identifier les cibles en fonction de schémas comportementaux plutôt que d'une identification individuelle confirmée.

Tout cela est aggravé par le problème des données d'entraînement. Les affirmations selon lesquelles le ciblage par IA est précis reposent sur l'hypothèse que les données d'entraînement reflètent fidèlement les catégories qu'elles sont censées caractériser. En pratique, ces systèmes apprennent de leurs expériences opérationnelles passées, ce qui codifie les erreurs et les hypothèses stratégiques des conflits antérieurs. Lors des campagnes américaines menées au Pakistan et au Yémen après le 11 septembre, des frappes ciblées visaient parfois des personnes au seul motif qu'il s'agissait d'hommes en âge de porter les armes et résidant dans une ville particulière. L'IA entraînée lors de ces campagnes pourrait reproduire ces abus sans intervention humaine.

En 2015, le Stimson Center a constaté que les « frappes ciblées » semaient la confusion entre les comportements des civils et des combattants dans certains contextes culturels. Cette confusion est désormais intégrée aux systèmes d'intelligence artificielle de ciblage. Laurie Blank, de l'université Emory, parle d'« effondrement temporel de la responsabilité » : des erreurs de classification surviennent lors de l'entraînement du modèle, des années avant une frappe. Au moment où un décès survient, le lien de causalité entre l'erreur humaine initiale et la mort du civil est déjà occulté.

La réponse de la communauté internationale émane principalement du groupe de travail sur les armes létales autonomes de la Convention sur certaines armes classiques (CCW), qui se réunit depuis 2014. Douze ans plus tard, ce groupe n'a toujours pas élaboré d'instrument contraignant, de définition ni de mécanisme de contrôle des armes dotées d'intelligence artificielle. De nombreux pays du Sud souhaitent des restrictions juridiques, tandis que les puissances occidentales privilégient des principes volontaires. Ce processus mobilise l'énergie de la société civile sans pour autant instaurer une véritable gouvernance.

Une véritable responsabilisation exigerait trois éléments : la divulgation obligatoire des algorithmes lors des analyses post-frappe, des enquêtes indépendantes sur les incidents avec un accès contraignant (inspirées des règles de l’OACI en matière d’aviation ), et une responsabilité conventionnelle pour les dommages causés aux civils par l’IA. Elle exigerait également des contrôles à l’exportation sur le ciblage par IA, assortis d’un véritable suivi de l’utilisation finale. Si ces systèmes étaient aussi précis que leurs concepteurs le prétendent, les États qui les déploient accueilleraient favorablement un tel suivi.

Le problème fondamental de la guerre algorithmique n'est pas qu'elle rende les meurtres plus efficaces. Elle sape profondément les lois de la guerre, rendant les conflits opaques dans leur raisonnement, dévastateurs dans leurs conséquences et structurellement incontestables. L'algorithme ne devient pas un alibi ; il devient l'architecture même au sein de laquelle le concept d'alibi devient obsolète.

Poster commentaire - أضف تعليقا

أي تعليق مسيء خارجا عن حدود الأخلاق ولا علاقة له بالمقال سيتم حذفه
Tout commentaire injurieux et sans rapport avec l'article sera supprimé.

Commentaires - تعليقات
Pas de commentaires - لا توجد تعليقات