Soldats robots : au-delà de la recherche technologique, un débat juridique et éthique

Soldats robots : au-delà de la recherche technologique, un débat juridique et éthique

Les députés Claude de Ganay et Fabien Gouttefarde ont présenté, ce mercredi, les conclusions de leur mission d’information sur les systèmes d’armes létale autonomes (SALA). On est encore loin, globalement, de l’image d’un Terminator ou d’un “robot tueur”, précisent-ils. « Ces systèmes sont inexistants à ce jour, et pourraient ne jamais voir le jour », ont prévenu les co-rapporteurs devant la Commission de la défense nationale et des forces armées. « Si nul ne peut nier que la robotique sera amenée à jouer un plus grand rôle sur les théâtres d’opérations, cela ne signifie pas que l’on assistera à l’émergence de Terminator. La France s’oppose farouchement au développement de SALA entendu comme des armes pleinement autonomes et nous ne pouvons que soutenir cette position. »

Mais les inquiétudes liées au « renforcement de l’automatisation du champ de bataille et l’image sensationnaliste des robots tueurs » qui viennent nourrir « nombre de craintes irrationnelles » gagnent du terrain, s’accordent à dire les co-rapporteurs.

Et le point d’achoppement du débat porte, pour l’essentiel, sur les cafouillages sémantiques qu’entraîne le terme “autonome”. Si les députés estiment que l’autonomie dont il est question quand on parle des SALA est « nécessairement pleine et entière » – c’est-à-dire que l’humain n’intervient pas dans la prise de décision – certaines puissances étrangères, en revanche, peuvent être tentées d’inclure dans la définition de ces systèmes autonomes une approche plus large de l’« automatisation », où l’action humaine est toujours requise à des niveaux divers, comme dans le cas des drones.

Certains chercheurs vont même jusqu’à faire la distinction entre des système télé-opérés, des systèmes semi-autonomes ou pleinement autonomes, détaillent les députés. « Nous pensons que doivent être considérés comme SALA seuls les systèmes 100 % autonomes », tranchent ces derniers, pour qui de tels systèmes n’existent pas aujourd’hui (pas même le robot militaire sud-coréen SGR-A1 conçu par Samsung, que les députés apparentent à un système automatisé et non autonome).

publicité

Une innovation « technologiquement envisageable », selon les députés

Même si la menace de voir apparaître des SALA pleinement autonomes semble très peu probable dans un avenir proche, cela reste une éventualité tangible au vu des récents progrès de l’intelligence artificielle, soutiennent les auteurs du rapport d’information. Les députés distinguent deux générations de technologies : « les technologies entièrement programmées, qui ont donné naissance aux armements actuellement utilisés et qui reposent sur des applications modélisées, programmées et prédictives », d’une part, et « les systèmes d’apprentissage (machine learning) qui ont connu un renouveau et permettent de confier à une machine la réalisation de fonctions dites cognitives » de l’autre.

Les co-rapporteurs reconnaissent par ailleurs le développement de systèmes autonomes « inéluctables » pour des raisons de performance. « Un homme réagit en quelques secondes, là où la machine réagit en quelques millisecondes, voire moins. La machine est capable d’opérer avec constance sur des temps très longs », expose Claude de Ganay.

Les députés admettent en revanche que même si la conception d’armes létales autonomes est « technologiquement envisageable », leur emploi opérationnel l’est « beaucoup moins ». Le déploiement de tels systèmes entièrement autonomes remettrait en effet en question les règles du combat militaire, puisque « le chef militaire doit être en mesure de reprendre la main sur une machine à tout moment », jugent-ils.

Des enjeux éthiques

Le déploiement opérationnel de telles armes suscitent des interrogations éthiques, sociales et juridiques, pointe le rapport parlementaire.

« La délégation à une machine de la décision de tirer pour tuer touche au principe de dignité humaine. Cela suppose aussi de transcrire en algorithmes des fondements moraux », soulignent les co-rapporteurs. Parmi les parts d’ombres, « la boîte noire de l’IA empêche de reconstituer le processus de prise de décision de la machine », observent-ils, ajoutant que ces processus peuvent « présenter des risques de biais involontaires ».

Les conséquences juridiques sont donc importantes. Des discussions sont d’ailleurs engagées à Genève depuis 2013, rappellent les auteurs du rapport. Un groupe d’experts gouvernementaux a été mandaté en 2017 pour définir et encadrer les SALA, et la communauté internationale est parvenue à formuler 11 principes immuables. Malgré de timides avancées, « les discussions internationales sont particulièrement tendues et opposent plusieurs pays, la France faisant partie du groupe modéré », détaillent les parlementaires. Ils précisent que ces sujets font aussi l’objet d’une « vive attention » de la part de la société civile, à l’instar de l’ONG Stop Killing robots.

Nouvelle course à l’armement ?

Les députés ne perdent pas de vue que l’essor de l’intelligence artificielle de défense fait l’objet d’une compétition marquée au niveau mondial. Pour les députés, la France et l’Europe ne doivent pas se laisser distancer dans cette course technologique car « l’éventualité de voir les puissances étrangères développer des systèmes autonomes ne respectant pas les principes du droit international humanitaire ne peut être écarté ».

L’échiquier géopolitique est d’ailleurs très inégalitaire et un trio de tête apparaît. « Les Etats-Unis, la Chine et la Russie se trouvent en avance, tant d’un point de vue technologique qu’opérationnel », constatent les députés, qui évoquent notamment le Sea Hunter, un projet américain de navire de surface sans équipage et autonome dédié à la lutte sous-marine. La Chine et les Etats-Unis sont autant capables, l’un comme l’autre, de s’appuyer sur une industrie civile technologique robuste, ajoutent-ils. Car l’une des particularités des SALA es d’être « très liée au monde des GAFA et de la data, qui est la brique initiale nécessaire à leur développement », analyse Fabien Gouttefarde.

Les députés préconisent d’accroître les efforts de recherche et pensent qu’il est nécessaire d’investir deux domaines scientifiques stratégiques pour éviter le décrochage technologique : les systèmes de collecte et de traitement de données (en amont) et la modélisation et l’évolution des algorithmes d’apprentissage (en aval).

« Il nous faut aussi veiller à mieux accompagner le développement de pépites nationales du secteur de la robotique qui font l’objet d’appétit vorace de la part de nos compétiteurs. »

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading