Un rapport de l’ONU ravive les débats éthiques autour des drones de combat

Spread the love

Un rapport de l'ONU ravive les débats éthiques autour des drones de combat

Un drone militaire a-t-il attaqué des humains en Libye sans intervention humaine ? C’est la question que l’on se pose à la lecture d’un rapport de 500 pages de l’ONU sur les conflits en Libye, bien que ce rapport ne fournisse pas de détails sur l’incident présumé ni sur les victimes. Utilisé par le gouvernement d’union nationale libyen, le drone autonome mentionné par les experts de l’ONU aurait été en capacité, semble-t-il, de viser des soldats du maréchal Khalifa Haftar, chef de l’armée nationale libyenne autoproclamée.

Selon le rapport des Nations unies, repéré par New Scientist, un drone pourrait avoir automatiquement attaqué une cible humaine lors d’un combat l’an passé entre les troupes gouvernementales et l’Armée nationale libyenne, sans en avoir reçu l’ordre. Ces observations faites dans la presse sont à prendre avec prudence, car le rapport dit seulement que des combattants en Libye ont été « traqués et engagés à distance par des drones de combat ou des systèmes d’armes autonomes létaux tels que le STM Kargu-2 et d’autres munitions rôdeuses ».

Si cet incident présumé soulève une foule de questionnements éthiques, le rapport de l’ONU interroge l’opacité derrière la prise de décisions de frappe. « Les systèmes d’armes autonomes létaux étaient programmés pour attaquer des cibles sans nécessiter de connexion de données entre l’opérateur et la munition : en fait, une véritable capacité de “tirer, oublier et trouver », indique le rapport.

publicité

Des “drones kamikaze”

Dans une note d’analyse publiée en mars dernier, Stan Brabant, directeur adjoint du Grip en Belgique, le Groupe de recherche et d’information sur la paix et la sécurité, explique que ces armes dotées d’IA ont « la capacité de repérer et d’attaquer par elles-mêmes des cibles ». A cheval entre drones et munitions guidées, ces munitions rôdeuses – parfois surnommées “drones kamikaze” – sont, selon l‘Institut international de recherche sur la paix de Stockholm (SIPRI), « le seul type de système d’armes offensif connu pour être capable d’acquérir et d’engager des cibles de manière autonome ».

Le Comité international de la Croix-Rouge est aussi d’accord avec cette analyse, et décrit les munitions rôdeuses comme « la seule véritable forme d’arme autonome offensive déployée aujourd’hui ». D’après l’organisation humanitaire, ces armes une fois lancées « errent dans les airs pendant un certain temps à la recherche d’une cible, qu’il attaque une fois détectée ».

Cet événement en Libye, documenté par l’ONU, ravive les débats autour de la régulation des armes autonomes. Dans un rapport daté d’automne 2020, Human Rights Watch appelait déjà à la création d’un traité visant à interdire les armes entièrement autonomes. « Un nouveau traité international est le seul moyen efficace d’empêcher la délégation de décisions de vie ou de mort à des machines » déclarait à l’époque Bonnie Docherty, chercheuse principale sur les armes à HRW et coordinatrice de la fameuse campagne “Stop aux robots tueurs“.

Depuis 2018, le secrétaire général des Nations unies, Antonio Guterres, exhorte les Etats à prendre des mesures pour interdire les systèmes d’armes qui pourraient, eux-mêmes, cibler et attaquer des êtres humains. Des dizaines de pays ont à ce jour exprimé leur soutien en faveur d’une nouvelle loi internationale visant à interdire et à restreindre les armes autonomes. Mais les grandes puissances militaires, notamment les Etats-Unis et la Russie, ne se disent pas prêtes à une telle réglementation. Un rapport américain, dévoilé en mars dernier, s’opposait par exemple à une interdiction globale des systèmes d’armement alimentés par l’IA.

Leave a Reply