La technologie israélienne a inventé « les Algorithmes du sang »

Israel intelligence agency operator uses program deploying bots on social networks, smearing political opponents. Israeli agent engages in cognitive warfare using troll accounts, camera B

Les lois de la guerre reposent sur un principe fondamental : même en temps de conflit, certaines limites ne doivent jamais être franchies. Le génocide, les crimes contre l’humanité et les crimes de guerre constituent le sommet des interdictions internationales. Ils visent à protéger les sociétés humaines contre l’effondrement de l’ordre moral et juridique. La campagne militaire d’Israël à Gaza et dans le sud du Liban a transgressé ces limites.

Les preuves de ces violations ne se limitent pas aux destructions physiques ou aux témoignages humains ; elles se trouvent également dans l’infrastructure technologique israélienne — en particulier dans ses systèmes d’intelligence artificielle, utilisés pour déterminer, avec une précision remarquable, qui se trouvait à l’intérieur des bâtiments avant leur bombardement. Ces systèmes ont été développés et exploités au sein d’un écosystème plus large, bénéficiant d’un soutien crucial de grandes entreprises technologiques américaines.

L’ampleur des destructions est abondamment documentée. Des dizaines de milliers de Palestiniens ont été tués, un nombre considérable a été blessé et presque toute la population a été déplacée. Une famine a été officiellement déclarée. En janvier 2024, la Cour internationale de Justice a conclu à un « risque plausible » de génocide et a ordonné à Israël de permettre l’acheminement de l’aide humanitaire. Par la suite, la Commission d’enquête des Nations unies a déterminé que des actes de génocide étaient en cours. Le procureur de la Cour pénale internationale a demandé des mandats d’arrêt à l’encontre de hauts responsables israéliens pour crimes de guerre et crimes contre l’humanité, y compris pour l’utilisation de la famine comme méthode de guerre.

En juillet 2024, l’Association internationale des spécialistes du génocide (IAGS) — l’organisme professionnel le plus reconnu dans ce domaine — a adopté une résolution affirmant que les actions d’Israël répondent à la définition juridique du génocide au sens de la Convention des Nations unies sur le génocide. Cette résolution cite des attaques systématiques contre des civils et des infrastructures civiles, la privation d’eau et de nourriture, le déplacement forcé de la population, la destruction d’habitations et de sites culturels, ainsi que le meurtre ou la mutilation de dizaines de milliers d’enfants. Elle a également condamné l’attaque du Hamas en octobre 2023 en tant que crime international, tout en soulignant que l’existence d’une atrocité n’en justifie pas une autre.

Un élément central distingue cette situation : le recours d’Israël à l’intelligence artificielle pour identifier, sélectionner et valider des cibles. Le programme connu sous le nom de Gospel (Habsora) traitait des images satellites, des flux de drones et des données de renseignement pour générer des listes de frappes. Un autre système, Lavender, exploitait les métadonnées téléphoniques et les réseaux sociaux afin de classifier des dizaines de milliers d’hommes palestiniens comme combattants présumés, malgré des taux d’erreur élevés reconnus. Plus significatif encore, Israël utilisait des outils de surveillance téléphonique et de reconnaissance d’images capables d’estimer en temps réel le nombre de personnes présentes dans un bâtiment — réparties entre hommes, femmes et enfants — avant d’autoriser une frappe. Ces outils fournissaient aux commandants militaires un inventaire précis des civils à chaque étape. Ce n’était pas une situation marquée par l’incertitude ; la présence civile était évaluée par des algorithmes et archivée dans des bases de données.

Ces systèmes ne fonctionnaient pas de manière autonome. Des enquêtes menées en 2024–2025 ont révélé que l’infrastructure cloud Azure de Microsoft hébergeait une grande partie des données de surveillance et des processus analytiques qui alimentaient le système de ciblage israélien. L’unité 8200, l’agence israélienne d’élite en matière de renseignement électromagnétique, utilisait Azure pour stocker et traiter des communications palestiniennes interceptées ainsi que des images servant de base aux systèmes Gospel et Lavender. Microsoft n’a pas fourni d’armes, mais l’entreprise a offert l’infrastructure informatique permettant au système de surveillance et de ciblage de fonctionner à grande échelle. Face aux critiques croissantes, elle a discrètement limité certains de ses services aux services de renseignement israéliens, reconnaissant ainsi implicitement les risques juridiques et réputationnels encourus. Selon le droit international, les entreprises peuvent être tenues responsables de complicité de crimes de guerre ou de crimes contre l’humanité si elles fournissent sciemment une assistance facilitant la commission de ces actes. Des précédents historiques, allant des procès du Zyklon B aux affaires contemporaines liées aux technologies de surveillance, montrent que les fournisseurs d’infrastructures ne sont pas à l’abri d’un examen judiciaire lorsque leurs services contribuent à des crimes internationaux.

Le corpus de preuves soutenant les accusations de crimes de guerre est considérable. Le droit international interdit les attaques contre les civils, les bombardements disproportionnés, la famine comme arme de guerre et les attaques contre les hôpitaux ou les travailleurs humanitaires. Le « siège total » imposé par Israël a coupé l’approvisionnement en nourriture, en eau et en carburant à Gaza, provoquant une famine ensuite confirmée par des organismes internationaux de surveillance. Les convois humanitaires ont été bloqués en violation des ordres de la CIJ. Des hôpitaux, des abris des Nations unies et des travailleurs humanitaires ont été pris pour cible. Human Rights Watch et Amnesty International ont documenté l’utilisation de phosphore blanc dans des zones densément peuplées de Gaza et du Liban. Ces actes constituent des crimes de guerre au regard du droit existant. L’utilisation combinée de systèmes d’IA et d’infrastructures cloud montre que les décisions militaires ont été prises en pleine connaissance de la présence de civils, et non dans la confusion.

Ces mêmes éléments soutiennent les accusations de crimes contre l’humanité. De tels crimes supposent une attaque généralisée ou systématique dirigée contre des civils en connaissance de cause. Gaza illustre cette définition : extermination par les massacres et la famine, transfert forcé de la quasi-totalité de la population, persécution par la privation discriminatoire de ressources vitales. L’emploi de l’IA pour classer des individus et accélérer le processus de ciblage illustre la nature systémique de la campagne. Les organes onusiens et les organisations de défense des droits humains ont maintes fois conclu que la conduite d’Israël correspond à la définition juridique des crimes contre l’humanité, tandis que les données issues de l’IA clarifient les éléments d’intention et de connaissance.

L’accusation de génocide est la plus grave. Elle exige la démonstration d’une intention de détruire un groupe, en tout ou en partie, déduite d’actes et de leurs conséquences prévisibles. Le siège israélien a créé des conditions — massacres, famine, effondrement des infrastructures sanitaires, déplacements massifs — que les tribunaux internationaux ont à maintes reprises reconnues comme génocidaires. Cette interprétation est renforcée par les déclarations déshumanisantes de responsables israéliens qualifiant les Palestiniens « d’animaux humains » ou affirmant qu’« une nation entière est responsable ». Dans ce contexte, les systèmes de ciblage par IA deviennent des éléments de preuve cruciaux. Au Rwanda, les procureurs se sont appuyés sur les machettes et la propagande radiophonique ; en Bosnie, sur les camps et les charniers. À Gaza, ils disposeront de données algorithmiques indiquant combien de civils étaient connus comme étant dans les bâtiments avant les bombardements, ainsi que des journaux d’infrastructure cloud retraçant la circulation de ces informations. L’intention génocidaire n’est plus seulement une déduction tirée de schémas d’action ; elle est consignée numériquement.

Israël invoque souvent l’attaque du 7 octobre menée par le Hamas pour justifier ses opérations. L’IAGS elle-même a condamné les crimes du Hamas, mais le droit international est clair : une atrocité n’en excuse pas une autre. L’utilisation de boucliers humains ne libère pas non plus Israël de ses obligations. Lorsque la technologie fournit des informations précises sur la présence civile, l’obligation de protéger ces civils s’en trouve renforcée.

Les implications sont profondes. Les systèmes d’IA d’Israël, présentés comme des outils de précision, deviendront des éléments de preuve centraux dans les futures procédures judiciaires. Ils montrent que les pertes civiles étaient anticipées, enregistrées, et néanmoins acceptées. L’infrastructure de Microsoft, loin d’être périphérique, faisait partie intégrante de l’architecture qui a rendu cela possible. La convergence des conclusions de la CIJ, de la CPI, de la Commission d’enquête de l’ONU, de l’IAGS et des principales organisations de défense des droits humains laisse peu de place à l’ambiguïté. La question qui demeure est celle de l’application de ces interdictions. Les ignorer reviendrait à vider de son sens la promesse de « Plus jamais ça ». Les faire respecter reviendrait à affirmer que le droit conserve sa force, même face à une violence technologiquement sophistiquée.