A Gaza sont testés les armes de demain , pour faire la guerre dans des milieux densément peuplé avec un minimum de soldats ...De quoi intéressé de nombreux dictateurs , clients potentiels pour faire la guerre à leur propre peuple !
«CheckNews» a rassemblé les informations disponibles sur les IA israéliennes qui permettent à l’armée de frapper la bande de Gaza avec une intensité inédite.
Ils permettent à l’armée israélienne d’agréger les données de renseignement, de générer des «kills list» de dizaines de milliers de personnes, et de démultiplier les frappes à un rythme inédit, au point que le nombre de munitions semble être la seule limite. A l’automne, Libération avait expliqué comment l’emploi d’outils d’intelligence artificielle (IA) par l’armée israélienne expliquait l’intensité inédite des bombardements à Gaza. Peu à peu, le détail de cet arsenal d’un nouveau genre est mis au jour. Après une première enquête consacrée au sujet fin novembre, le média israélo-palestinien +972 Magazine a publié début avril un nouveau volet de son investigation, révélant l’existence de nouveaux algorithmes particulièrement dévastateurs.
[...]
Cette IA a été révélée et décrite dans la dernière enquête du média +972 publiée il y a quelques jours.
Là où Gospel désigne des bâtiments à partir de données de renseignement, Lavender désigne des personnes. Selon le média israélo-palestinien, durant les premières semaines du conflit, Lavender aurait «marqué» jusqu’à 37 000 Palestiniens comme «militants présumés», leurs maisons étant cataloguées «en vue d’éventuelles frappes aériennes». L’enquête journalistique affirme (témoignages de militaires ayant utilisé ces outils depuis octobre à l’appui) qu’en pratique, les listes seraient utilisées sans que ne soit exigée de vérification approfondie des raisons pour lesquelles la machine a fait ces choix, ni d’évaluation des données de renseignement traitées par l’IA. Le rôle de l’humain se limiterait donc, en pratique, à «entériner les décisions de la machine».
Une source interrogée par les journalistes précise qu’il consacrait une vingtaine de secondes à l’examen de chaque cible marquée par Lavender, «juste pour s’assurer qu’il s’agit bien d’un homme». Selon +972, l’efficacité de Lavender a été testée, au début du conflit, sur un échantillon de Palestiniens,
avec une efficacité «de 90 %» pour «l’identification de l’affiliation d’un individu avec le Hamas». L’article suggère qu’il pourrait s’agir non seulement de la «sensibilité» de l’IA (sa capacité à identifier un membre du Hamas comme tel), mais également de sa «spécificité» (sa capacité à ne pas accuser à tort un civil d’être affilié au Hamas). Si ce dernier point reste peu clair, les témoignages recueillis affirment que l’IA est connue «pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout». La marge d’erreur dans la spécificité de Lavender serait, quoi qu’il en soit, considérée comme acceptable par l’armée – qui frappe dans tous les cas.
«CheckNews» a rassemblé les informations disponibles sur les IA israéliennes qui permettent à l’armée de frapper la bande de Gaza avec une intensité inédite.
www.liberation.fr