Israël utilise des systèmes d’IA comme Gospel et Lavender pour générer des cibles à Gaza. Leur rôle exact, le niveau d’automatisation et l’impact humain suscitent une controverse majeure.
En résumé
Depuis 2023, l’armée israélienne assume de plus en plus l’usage de l’intelligence artificielle dans la sélection des cibles à Gaza, à travers des systèmes tels que Gospel et Lavender. Ces plateformes agrègent des volumes massifs de données et produisent des listes de cibles humaines ou d’infrastructures à un rythme sans précédent, parfois des centaines de cibles en quelques jours, là où des analystes humains auraient mis des mois. Les autorités israéliennes affirment que ces outils augmentent la précision des frappes et permettent de réduire les dommages collatéraux en « priorisant » les objectifs militaires. Mais des enquêtes menées en 2024 par +972 Magazine, Local Call, The Guardian et d’autres médias font état d’un usage beaucoup plus agressif, avec des listes d’environ 37 000 personnes marquées comme cibles potentielles et une marge d’erreur revendiquée pouvant atteindre 10%. Ces systèmes auraient été utilisés avec une surveillance humaine minimale, dans un cadre où des niveaux très élevés de pertes civiles étaient acceptés d’emblée. La controverse ne porte pas seulement sur la technologie elle-même, mais sur la façon dont elle accélère le tempo des frappes, dilue la responsabilité individuelle et reconfigure la pratique du ciblage militaire à l’ère de l’IA.
Le recours assumé à l’IA dans le ciblage à Gaza
Israël ne cache plus recourir à des systèmes d’IA pour repérer et prioriser des cibles dans la bande de Gaza, notamment depuis la guerre déclenchée après le 7 octobre 2023. Dès 2021, l’armée israélienne parlait déjà de « première guerre d’IA » à propos d’une opération antérieure, en mentionnant des outils d’aide à la sélection de cibles.
Le système Gospel est présenté par des responsables israéliens comme une plateforme d’analyse qui ingère des données de renseignement multiples – interceptions, imagerie, signaux électroniques, bases de données – pour recommander des cibles : infrastructures de commandement, dépôts d’armes, lance-roquettes, positions de tir. Selon des experts interrogés, un groupe de 20 officiers de renseignement produisait auparavant 50 à 100 cibles en près de 300 jours ; avec Gospel et les systèmes associés, le même volume de 200 cibles pourrait être généré en 10 à 12 jours, soit un facteur d’accélération d’au moins 50 fois.
Dans les premières semaines de la campagne de 2023‑2024, l’armée a revendiqué plus de 22 000 frappes à Gaza, avec jusqu’à environ 250 cibles frappées par jour, alors qu’en 2021, 1 500 cibles seulement avaient été touchées, dont 200 issues de Gospel. L’IA n’est pas le seul facteur de cette intensification, mais elle a été explicitement citée comme un multiplicateur de capacités.
Les systèmes Gospel et Lavender : deux philosophies de ciblage
Derrière le terme générique d’IA militaire, deux systèmes jouent un rôle central : Gospel et Lavender, associés à la division du renseignement responsable des cibles.
Gospel est orienté vers les cibles d’infrastructure. Il repère des bâtiments, complexes, tunnels ou emplacements d’armes suspectés d’abriter des combattants ou des capacités de Hamas ou du Jihad islamique. Il fonctionne comme un système de priorisation : il propose et un humain est censé valider.
Lavender constitue une évolution plus radicale. Dévoilé en 2024 par une enquête de +972 Magazine, Local Call et The Guardian, ce système est un modèle probabiliste qui attribue à chaque individu dans la bande de Gaza un score de 1 à 100 indiquant la probabilité qu’il appartienne aux ailes militaires de Hamas ou du Jihad islamique. Sur cette base, Lavender a identifié jusqu’à 37 000 Palestiniens comme cibles potentielles au début de la guerre, essentiellement des hommes en âge de combattre.
La différence est fondamentale : Gospel cible des lieux, Lavender cible des personnes. Dans les faits, selon les témoignages d’anciens officiers, les recommandations de Lavender auraient été traitées « comme une décision humaine », avec un contrôle de surface limité, parfois de quelques secondes par cible.
Le degré d’automatisation et la place du contrôle humain
Officiellement, l’armée israélienne insiste sur le fait que « l’IA ne décide pas », et que chaque frappe implique une validation humaine pour respecter le droit international humanitaire. Les systèmes comme Gospel ou Lavender sont décrits comme des outils d’aide à la décision qui augmentent l’efficacité de cellules déjà existantes.
Les témoignages internes esquissent un tableau plus automatisé. Des sources israéliennes citées en 2024 expliquent que, pour certaines catégories de cibles, les opérateurs validaient de manière quasi systématique les suggestions de Lavender, se contentant de vérifier que le nom, le sexe et l’adresse correspondaient à un profil attendu, sans reconstituer le raisonnement du modèle.
Des paramètres opérationnels viennent renforcer cette impression d’automatisation poussée :
- Un seuil de score pouvait être abaissé pour élargir rapidement la liste des suspects, au prix d’une marge d’erreur estimée à au moins 10%.
- Des « quotas » ou objectifs de production de cibles auraient été fixés, encourageant une cadence élevée de validation.
- Pour les cibles de faible rang, des règles de dommages collatéraux plus permissives auraient été appliquées, autorisant la mort de dizaines de civils pour neutraliser un combattant de bas niveau.
Ce cadre ne signifie pas que le système frappe seul, mais qu’il transforme le rôle de l’analyste humain en un geste de confirmation rapide au sein d’une chaîne de décision industrialisée, où la machine fixe l’essentiel du champ des possibles.
L’impact sur le terrain : volume de frappes et dommages collatéraux
L’adoption de Gospel et Lavender s’inscrit dans une campagne de bombardements dont le coût humain est sans précédent à Gaza. Fin 2024, les estimations faisaient état de dizaines de milliers de Palestiniens tués, dont une proportion très élevée de femmes et d’enfants, même si les chiffres exacts restent contestés et politisés.
Les enquêtes sur Lavender décrivent un schéma récurrent : la cible principale est frappée à son domicile, souvent la nuit, au moment où la présence de sa famille est la plus probable. Des sources internes évoquent des niveaux de dommages collatéraux acceptés qui pouvaient atteindre plusieurs dizaines de civils pour des combattants de rang intermédiaire, et jusqu’à environ 300 civils pour un haut commandant, comme lors d’un bombardement du 17 octobre 2023.
L’IA, dans ce contexte, joue surtout un rôle sur le volume et la vitesse :
- Des milliers de cibles humaines produites en quelques semaines par Lavender.
- Des frappes massives sur des immeubles résidentiels associés à ces profils, souvent identifiés par des corrélations de données (téléphone, réseau social, emploi public).
- Une multiplication des frappes dites « d’opportunité », lorsqu’un signal jugé suspect est détecté par les algorithmes.
Cette dynamique technologique se superpose à un choix politique : privilégier une stratégie de haute intensité et de neutralisation rapide des cadres de Hamas, au prix d’un niveau de risques civils exceptionnellement élevé. L’IA ne crée pas cette stratégie, mais elle en permet la mise en œuvre à grande échelle.
Les exemples concrets de Gospel et Lavender en action
Plusieurs épisodes emblématiques illustrent l’usage de ces systèmes.
Pendant l’opération de 2021, Gospel a été testé pour détecter des rampes de lancement de roquettes et des positions de tir. L’armée avait annoncé environ 1 500 cibles frappées, dont 200 issues de Gospel, en combinant imagerie et données de renseignement. Cette phase a servi de preuve de concept pour l’intégration de l’IA dans la « chaîne cible ».
En 2023‑2024, Lavender est déployé à l’échelle de la population gazaouie, estimée à 2,3 millions de personnes. Chaque individu se voit attribuer un score ; les hommes entre 18 et 50 ans présentant certains comportements numériques (usage de certains téléphones, contacts, déplacements) sont marqués plus facilement comme combattants potentiels.
Selon les enquêtes, entre le 7 octobre et fin novembre 2023, au moins 15 000 morts à Gaza seraient directement liés aux frappes guidées par Lavender, un chiffre controversé mais cohérent avec l’ampleur des destructions constatées. Les sources interrogées affirment que, dans cette période, les opérateurs « faisaient confiance à la machine » et validaient en bloc des listes de cibles humaines générées chaque jour.
Les arguments en faveur de l’IA militaire dans le ciblage
Les défenseurs de ces systèmes avancent plusieurs arguments structurés.
D’abord, la capacité de traitement. Dans un théâtre densément peuplé et hautement numérisé, l’analyse manuelle de millions de données de communication, de géolocalisation et d’imagerie est impossible à grande échelle. L’IA permet de repérer des schémas – contacts avec des numéros connus, présence répétée sur des sites sensibles – que des analystes humains manqueraient ou identifieraient trop tard.
Ensuite, la possibilité théorique de réduire les erreurs humaines. Les modèles peuvent être calibrés et audités, là où les biais individuels d’un officier sont difficiles à mesurer. Des responsables israéliens soutiennent que Gospel produit des cibles « plus précises » que les méthodes traditionnelles et que l’IA contribue à « minimiser les dommages aux non-combattants », même si ces affirmations restent peu documentées publiquement.
Enfin, pour une armée confrontée à une organisation comme Hamas, qui opère dans les zones urbaines et utilise des infrastructures civiles, la promesse d’augmenter la létalité contre les combattants tout en conservant la supériorité informationnelle est un argument puissant. Cette logique explique pourquoi d’autres forces armées – américaine, britannique, chinoise – suivent de très près ces expérimentations israéliennes.
Les critiques : risques éthiques, juridiques et stratégiques
Les critiques considèrent au contraire que Gospel et surtout Lavender matérialisent une automatisation dangereuse de la violence, difficile à concilier avec le droit international humanitaire. Des experts et ONG soulignent plusieurs points.
Le premier est celui de la proportionnalité. Accepter par avance des seuils de victimes civiles très élevés, y compris pour des cibles de faible importance, reviendrait à instrumentaliser l’IA pour justifier des frappes qui seraient jugées disproportionnées si elles étaient décidées au cas par cas par des humains.
Le deuxième concerne la fiabilité des modèles. Une marge d’erreur de 10% signifie qu’avec 37 000 cibles humaines, plusieurs milliers de personnes n’avaient probablement aucun lien opératif avec Hamas, tout en vivant dans des immeubles densément occupés. À cette erreur s’ajoute la mortalité collatérale, ce qui augmente encore le nombre de civils tués sur la base de recommandations algorithmiques erronées.
Le troisième enjeu est celui de la responsabilité. Si un système comme Lavender produit une liste et que des opérateurs valident en quelques secondes, qui répond de la frappe illégale ? Le concepteur du modèle, le commandant qui a fixé les seuils, l’officier qui a cliqué, la chaîne politique qui a donné les règles d’engagement ? Pour de nombreux juristes, cette dilution complique l’attribution de la faute et pourrait inciter d’autres États à adopter des systèmes similaires pour masquer leurs décisions derrière une « boîte noire » algorithmique.
Enfin, plusieurs analystes soulignent un risque stratégique : l’abaissement du coût politique de l’usage de la force. Si l’IA permet de mener des campagnes massives plus rapidement, avec un sentiment de distance accrue, les décideurs pourraient être tentés de choisir la voie militaire plus souvent, ou plus longtemps, qu’ils ne l’auraient fait avec un processus de ciblage plus lent et plus humain.
Le bilan : une révolution ambiguë de la guerre aérienne
L’usage de l’intelligence artificielle dans les frappes à Gaza, via Gospel et Lavender, représente une rupture majeure dans la manière dont une armée moderne peut industrialiser la production de cibles. Sur le plan strictement technologique, ces systèmes démontrent la capacité de l’IA à traiter des masses de données, à détecter des patterns et à alimenter en temps réel une campagne aérienne d’une intensité sans précédent.
Mais leur déploiement s’est fait dans un contexte où les règles opérationnelles autorisaient un niveau très élevé de pertes civiles, ce qui transforme une promesse de « précision » en vecteur de destruction de masse structurée. L’IA ne neutralise pas les choix politiques ; elle les amplifie.
La question n’est plus seulement de savoir si l’IA peut être utilisée de manière responsable dans le ciblage, mais qui fixera les garde-fous, avec quelle transparence et quelles conséquences pour ceux qui les franchissent. Le précédent israélien, largement documenté mais peu encadré, servira de référence – positive pour certains états-majors, alarmante pour de nombreux juristes – aux futures guerres algorithmiques. Ce débat, qui touche à la fois au droit, à la morale et à la stratégie, ne pourra plus être évité à mesure que l’IA s’impose au cœur de la conduite des opérations militaires.
Retrouvez les informations sur le vol en avion de chasse.
