L’armée israélienne a marqué des dizaines de milliers de Gazaois comme suspects d’assassinat, en utilisant un système de ciblage de l’IA avec peu de surveillance humaine et une politique permissive pour les victimes, +972 et Local Call révèlent.
Par Yuval Abraham3 avril 2024
En partenariat avec
En 2021, un livre intitulé « The Human-Machine Team : How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World » a été publié en anglais sous le nom de plume de « Brigader General Y.S ». Dans celui-ci, l’auteur – un homme que nous avons confirmé être le commandant actuel de l’unité de renseignement israélienne d’élite 8200 – plaide pour la conception d’une machine spéciale qui pourrait traiter rapidement des quantités massives de données pour générer des milliers de « cibles » potentielles pour les frappes militaires dans le feu d’une guerre. Une telle technologie, écrit-il, résoudrait ce qu’il a décrit comme un « goulot d’étranglement humain à la fois pour localiser les nouvelles cibles et pour prendre la décision d’approuver les cibles ».
Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a développé un programme basé sur l’intelligence artificielle connu sous le nom de « Lavender », dévoilé ici pour la première fois. Selon six officiers de renseignement israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle dans la bande de Gaza et qui ont été impliqués de première main dans l’utilisation de l’IA pour générer des cibles d’assassinat, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières étapes de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’elles traitaient essentiellement les sorties de la machine d’IA « comme s’il s’agissait d’une décision humaine ».
Formellement, le système Lavender est conçu pour marquer tous les agents présumés dans les ailes militaires du Hamas et du Jihad islamique palestinien (PIJ), y compris ceux de bas rang, comme des cibles potentielles à la bombe. Les sources ont déclaré à +972 et Local Call que, pendant les premières semaines de la guerre, l’armée comptait presque entièrement sur Lavender, qui a chaborisé jusqu’à 37 000 Palestiniens en tant que militants présumés – et leurs maisons – pour d’éventuelles frappes aériennes.
s’inscrire
Au cours des premières étapes de la guerre, l’armée a donné une large approbation aux officiers pour qu’ils adoptent les listes de meurtre de Lavender, sans qu’il soit nécessaire de vérifier minutieusement pourquoi la machine a fait ces choix ou d’examiner les données de renseignement brut sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne servait souvent que de « tampon en caoutchouc » pour les décisions de la machine, ajoutant que, normalement, ils ne consacreraient personnellement qu’environ « 20 secondes » à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par la lavande est masculine. C’était en dépit de savoir que le système fait ce qui est considéré comme des « erreurs » dans environ 10 % des cas, et est connu pour marquer occasionnellement des individus qui ont simplement un lien lâche avec des groupes militants, ou aucun lien du tout.
De plus, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles étaient chez elles – généralement la nuit alors que toute leur famille était présente – plutôt qu’au cours d’une activité militaire. Selon les sources, c’était parce que, de ce qu’ils considéraient comme un point de vue du renseignement, il était plus facile de localiser les individus dans leurs maisons privées. Des systèmes automatisés supplémentaires, dont un appelé « Où est papa ? » également révélés ici pour la première fois, ont été utilisés spécifiquement pour suivre les personnes ciblées et effectuer des attentats à la bombe lorsqu’elles étaient entrées dans les résidences de leur famille.
Les Palestiniens transportent les blessés et tentent d’allumer un incendie après une frappe aérienne israélienne sur une maison du camp de réfugiés de Shaboura dans la ville de Rafah, dans le sud de la bande de Gaza, le 17 novembre 2023. (Abed Rahim Khatib/Flash90)
Le résultat, comme l’ont témoigné les sources, est que des milliers de Palestiniens – la plupart d’entre eux des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été anéantis par les frappes aériennes israéliennes, en particulier pendant les premières semaines de la guerre, en raison des décisions du programme d’IA.
« Nous n’étions pas intéressés à tuer des agents [du Hamas] uniquement lorsqu’ils étaient dans un bâtiment militaire ou engagés dans une activité militaire », a déclaré A., un officier du renseignement, à +972 et Local Call. « Au contraire, les Tsahal les ont bombardés dans des maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations. »
La machine Lavender rejoint un autre système d’IA, « The Gospel », sur lequel des informations ont été révélées dans une enquête précédente par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquelles l’armée prétend que les militants opèrent, Lavender marque les gens – et les met sur une liste de meurtre.
En outre, selon les sources, lorsqu’il s’agissait de cibler des militants juniors présumés marqués par Lavender, l’armée a préféré n’utiliser que des missiles non guidés, communément appelés bombes « stupides » (contrairement aux bombes de précision « intelligentes »), qui peuvent détruire des bâtiments entiers au-dessus de leurs occupants et faire d’importantes pertes. « Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – c’est très cher pour le pays et il y a une pénurie [de ces bombes] », a déclaré C., l’un des officiers du renseignement. Une autre source a déclaré qu’ils avaient personnellement autorisé le bombardement de « centaines » de maisons privées de prétendus agents juniors marqués par Lavender, beaucoup de ces attaques tuant des civils et des familles entières comme des « dommages collatéraux ».
Dans un geste sans précédent, selon deux des sources, l’armée a également décidé au cours des premières semaines de la guerre que, pour chaque agent junior du Hamas que Lavender a marqué, il était permis de tuer jusqu’à 15 ou 20 civils ; dans le passé, l’armée n’autorisait aucun « dommage collatéral » lors des assassinats de militants de rang inférieur. Les sources ont ajouté que, dans le cas où la cible était un haut fonctionnaire du Hamas avec le grade de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils dans l’assassinat d’un seul commandant.
Les Palestiniens attendent de recevoir les corps de leurs proches qui ont été tués lors d’une frappe aérienne israélienne, à l’hôpital Al-Najjar de Rafah, dans le sud de la bande de Gaza, le 24 octobre 2023. (Abed Rahim Khatib/Flash90)
L’enquête suivante est organisée selon les six étapes chronologiques de la production de cibles hautement automatisée de l’armée israélienne dans les premières semaines de la guerre de Gaza. Tout d’abord, nous expliquons la machine à lavande elle-même, qui a marqué des dizaines de milliers de Palestiniens utilisant l’IA. Deuxièmement, nous révélons le « Où est papa ? » système, qui a suivi ces cibles et a signalé à l’armée lorsqu’elles sont entrées dans leurs maisons familiales. Troisièmement, nous décrivons comment des bombes « stupides » ont été choisies pour frapper ces maisons.
Quatrièmement, nous expliquons comment l’armée a assoupli le nombre autorisé de civils qui pourraient être tués lors du bombardement d’une cible. Cinquièmement, nous notons comment les logiciels automatisés ont calculé de manière inexacte le nombre de non-combattants dans chaque ménage. Et sixièmement, nous montrons comment à plusieurs reprises, lorsqu’une maison a été frappée, généralement la nuit, la cible individuelle n’était parfois pas du tout à l’intérieur, parce que les officiers militaires n’ont pas vérifié les informations en temps réel.
ÉTAPE 1 : GÉNÉRER DES CIBLES
« Une fois que vous devenez automatique, la génération de cibles devient folle »
Dans l’armée israélienne, le terme « cible humaine » faisait référence dans le passé à un agent militaire supérieur qui, selon les règles du département du droit international de l’armée, peut être tué dans son domicile privé même s’il y a des civils autour. Des sources de renseignement ont déclaré à +972 et Local Call que pendant les guerres précédentes d’Israël, puisqu’il s’agissait d’une façon « particulièrement brutale » de tuer quelqu’un – souvent en tuant toute une famille à côté de la cible – ces cibles humaines ont été marquées très soigneusement et seuls les commandants militaires supérieurs ont été bombardés dans leurs maisons, afin de maintenir le principe de proportionnalité en vertu du droit international.
Mais après le 7 octobre – lorsque des militants dirigés par le Hamas ont lancé un assaut mortel contre les communautés du sud d’Israël, tuant environ 1 200 personnes et en en enlevant 240 – l’armée, selon les sources, a adopté une approche radicalement différente. Dans le cadre de l’« Opération Iron Swords », l’armée a décidé de désigner tous les agents de l’aile militaire du Hamas comme cibles humaines, quel que soit leur rang ou leur importance militaire. Et cela a tout changé.
La nouvelle politique a également posé un problème technique pour les services de renseignement israéliens. Lors des guerres précédentes, afin d’autoriser l’assassinat d’une seule cible humaine, un officier a dû passer par un processus complexe et long d’« incrimination » : contre-vérifier les preuves que la personne était en effet un membre de haut rang de l’aile militaire du Hamas, savoir où elle vivait, ses coordonnées et enfin savoir quand elle était à la maison en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines d’agents de haut niveau, le personnel du renseignement pouvait s’occuper individuellement du travail impliqué dans l’incrimination et la localisation.
Les Palestiniens tentent de sauver des survivants et de retirer des corps des décombres après que les frappes aériennes israéliennes ont frappé des bâtiments près de l’hôpital Al-Aqsa Martyrs à Deir al-Balah, dans le centre de Gaza, le 22 octobre 2023. (Mohammed Zaanoun/Activestills)
Cependant, une fois que la liste a été élargie pour inclure des dizaines de milliers d’agents de rang inférieur, l’armée israélienne a pensé qu’elle devait s’appuyer sur des logiciels automatisés et de l’intelligence artificielle. Le résultat, selon les sources, a été que le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires a été mis de côté, et l’IA a fait la plupart du travail à la place. Selon quatre des sources qui ont parlé à +972 et Local Call, Lavender – qui a été développé pour créer des cibles humaines dans la guerre actuelle – a marqué quelque 37 000 Palestiniens comme présumés « mititants du Hamas », la plupart d’entre eux plus jeunes, pour assassinat (le porte-parole de Tsahal a nié l’existence d’une telle liste de meurtres dans une déclaration à +972 et Local Call).
« Nous ne savions pas qui étaient les agents subalternes, parce qu’Israël ne les suivait pas régulièrement [avant la guerre] », a expliqué l’officier supérieur B. à +972 et Local Call, éclairant la raison du développement de cette machine cible particulière pour la guerre actuelle. « Ils voulaient nous permettre d’attaquer automatiquement [les agents juniors]. C’est le Saint Graal. Une fois que vous passez automatiquement, la génération de cibles devient folle. »
Les sources ont déclaré que l’approbation d’adopter automatiquement les listes de mortalité de Lavender, qui n’avait auparavant été utilisée que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que le personnel du renseignement a vérifié « manuellement » la précision d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’IA. Lorsque cet échantillon a constaté que les résultats de Lavender avaient atteint une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation généralisée du système. À partir de ce moment, des sources ont déclaré que si Lavender décidait qu’un individu était un militant au Hamas, on leur demandait essentiellement de traiter cela comme un ordre, sans qu’il soit nécessaire de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données de renseignement brutes sur lesquelles elle est basée.
« À 5 heures du matin, [l’armée de l’air] viendrait bombarder toutes les maisons que nous avions marquées », a déclaré B. « Nous avons sorti des milliers de personnes. Nous ne les avons pas passés en revue un par un – nous avons tout mis dans des systèmes automatisés, et dès que l’un des [individus marqués] était à la maison, il est immédiatement devenu une cible. Nous l’avons bombardé, lui et sa maison. »
« Il était très surprenant pour moi qu’on nous ait demandé de bombarder une maison pour tuer un soldat au sol, dont l’importance dans les combats était si faible », a déclaré une source à propos de l’utilisation de l’IA pour marquer les présumés militants de bas rang. « J’ai surnommé ces cibles « cibles d’ordures ». Pourtant, je les ai trouvés plus éthiques que les cibles que nous avons bombardées juste pour « dissuasion » – des gratte-ciel qui sont évacués et renversés juste pour causer la destruction. »
Les résultats mortels de cet assouplissement des restrictions au début de la guerre ont été stupéfiants. Selon les données du ministère palestinien de la Santé à Gaza, sur lequel l’armée israélienne s’est appuyée presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – près de la moitié du nombre de morts jusqu’à présent – au cours des six premières semaines de la guerre, jusqu’à ce qu’un cessez-le-feu d’une semaine soit convenu le 24 novembre.
La destruction massive est observée dans le district populaire d’Al-Rimal de la ville de Gaza après avoir été la cible de frappes aériennes menées par les forces israéliennes, le 10 octobre 2023. (Mohammed Zaanoun/Activestills)
« Plus il y a d’informations et de variété, mieux c’est »
Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza par le biais d’un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne particulière soit active dans l’aile militaire du Hamas ou de l’AIJ. Selon des sources, la machine donne à presque toutes les personnes à Gaza une note de 1 à 100, exprimant la probabilité qu’elles soient militantes.
Lavender apprend à identifier les caractéristiques des agents connus du Hamas et de la PIJ, dont les informations ont été fournies à la machine sous forme de données d’entraînement, puis à localiser ces mêmes caractéristiques – également appelées « caractéristiques » – parmi la population générale, ont expliqué les sources. Une personne ayant plusieurs caractéristiques incriminantes différentes atteindra une note élevée, et deviendra ainsi automatiquement une cible potentielle pour l’assassinat.
Dans « The Human-Machine Team », le livre mentionné au début de cet article, le commandant actuel de l’unité 8200 plaide pour un tel système sans faire référence à Lavender par son nom. (Le commandant lui-même n’est pas non plus nommé, mais cinq sources en 8200 ont confirmé que le commandant est l’auteur, comme l’a également rapporté Haaretz.) Décrivant le personnel humain comme un « col de bouteille » qui limite la capacité de l’armée pendant une opération militaire, le commandant se plaint : « Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes que vous avez chargées de produire des cibles pendant la guerre – vous ne pouvez toujours pas produire suffisamment de cibles par jour. »
La solution à ce problème, dit-il, est l’intelligence artificielle. Le livre offre un court guide pour construire une « machine cible », similaire en description à Lavender, basée sur l’IA et les algorithmes d’apprentissage automatique. Ce guide contient plusieurs exemples des « centaines et milliers » de fonctionnalités qui peuvent augmenter la note d’un individu, telles que le fait d’être dans un groupe Whatsapp avec un militant connu, de changer de téléphone portable tous les quelques mois et de changer fréquemment d’adresse.
« Plus il y a d’informations, et plus il y a de variété, mieux c’est », écrit le commandant. « Informations visuelles, informations cellulaires, connexions aux médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. » Alors que les humains sélectionnent ces caractéristiques au début, le commandant continue, au fil du temps, la machine en viendra à identifier les caractéristiques par elle-même. Cela, dit-il, peut permettre aux forces armées de créer « des dizaines de milliers de cibles », tandis que la décision réelle de les attaquer ou non restera humaine.
Le livre n’est pas la seule fois qu’un commandant israélien de haut niveau a fait allusion à l’existence de machines cibles humaines comme Lavender. +972 et Local Call ont obtenu des images d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, « Col. Yoav », à la semaine de l’IA de l’Université de Tel Aviv en 2023, qui a été rapportée à l’époque dans les médias israéliens.
Dans la conférence, le commandant parle d’une nouvelle machine à cible sophistiquée utilisée par l’armée israélienne qui détecte les « personnes dangereuses » en fonction de leur ressemblance avec les listes existantes de militants connus sur lesquelles elle a été formée. « En utilisant le système, nous avons réussi à identifier les commandants de l’escouade de missiles du Hamas », a déclaré « le colonel Yoav » dans la conférence, faisant référence à l’opération militaire israélienne de mai 2021 à Gaza, lorsque la machine a été utilisée pour la première fois.
© Yuval Abraham
Cet article un peu confus , vient en contradiction avec ce que l on sait de la politique d eliminations ciblées telle que nous la connaissons depuis longtemps .
Le mossad , mais aussi le shin bet et plus encore Tsahal obeissent a des regles ethiques strictes et incontournables dans lesquelles la protection d eventuelles victimes innocentes joue un role central .
Qu journal ultra gauchiste comme Haaretz puisse etre dans cette boucle est un element decredibilisant .
« …Tsahal obeissent a des regles ethiques strictes et incontournables dans lesquelles la protection d eventuelles victimes innocentes joue un role central… » faut dire ça aux familles des 3 israeliens tués à Gaza alors qu’ils portaient un drapeau blanc et ne constitaient pas une menace. Quelle éthique !!!
Bradave , je suis certain que vous n avez jamais combattu les armes a la mains comme le font nos jeunes actuellement a gaza , vous evoquez une tragique erreur , il y en aura malheureusement d autres car le stress la fatigue generés par une guerre barbares de tueurs cachés sous terre et d immeubles piegés rend les reflexes souvent hasardeux et delicats ,
Savez vous que certains jeunes soldats ont vecus et dormi ( ou essayé de dormir) 30 ou 40 jours a 4 dans un vehicule blindé sans pouvoir sortir autrement que pour combattre au corps a corps ?
L ethique d une armée et d un pays comme le notre est l honneur du peuple juif qui n acceptera jamais de descendre au niveau de ses ennemis sanguinaires et deshumanisés , les realités tragiques sur le terrain sont un autre sujet , qui sans doute , vous echappe .
Si un jour vous venez en Israel , je vous presenterai des soldats qui vous eclaireront sur les moments terribles qu ils ont vecu ou vivent encore .
Effectivement, BraDave.
On pourrait aussi dire ça aux familles des sept employés humanitaires de « WCK ».
Cette guerre est peut-être le premier avertissement majeur sur l’utilisation massive d’une technologie non-maitrisée et mal contrôlée (en l’occurrence AI).
Cela dit, relativisons.
Lors de la deuxième guerre mondiale (exemple au hasard) une absence totale de technologie menait à des centaines de milliers (des millions, en réalité) de morts civils lors des bombardements (aussi et surtout par les « alliés ») de villes. Certes Dresde en Allemagne, Hiroshima et Nagasaki… Mais aussi, entre autres, en Normandie…
L’AI pourrait s’avérer être un moindre mal.