Dans la Genève internationale, il aurait été surprenant de ne pas aborder le digital sous l’angle de la gouvernance internationale et de l’humanitaire. C’est chose faite avec l’intervention de Maya Brehm, ancienne déléguée du CICR, chercheuse à l’Académie de droit international humanitaire et de droits humains à Genève et conseillère auprès de l’ONG Article 36, qui se préoccupe de la possible prolifération d’armes autonomes. Maya Brehm s’intéresse au côté éthique de l’autonomisation des armes de guerre et s’interroge sur les scénarios qui méritent que l’on tire la sonnette d’alarme. La difficulté est dans la définition du terme «autonome». Depuis la guerre froide, des systèmes autonomes sont en place, principalement dans le domaine de la défense antimissile. Ils peuvent faire feu automatiquement en cas de détection d’un missile balistique ennemi, par exemple, pour l’intercepter et le détruire en vol.
Cependant, depuis quelques années, on a vu se perfectionner des systèmes autonomes qui se déclinent sous toutes les formes. Les prouesses de l’intelligence artificielle couplées avec celles de la robotique font craindre l’apparition de robots tueurs. La menace est suffisamment sérieuse pour qu’un groupe d’une centaine de pionniers de l’intelligence artificielle et de la robotique, dont le CEO de Tesla Elon Musk, se soient fendus d’une lettre adressée aux Nations unies afin de demander l’interdiction des armes autonomes.
Attitude proactive de la communauté internationale
Maya Brehm ne nie pas la possible existence de robots tueurs, mais elle tient à préciser qu’il ne s’agit pas d’imaginer un futur de science-fiction. Les systèmes d’armes létaux autonomes (SALA) risquent de prendre des formes multiples, comme par exemple une plateforme fixe capable de prendre seule la décision d’ouvrir le feu ou un système balistique capable de repérer et d’engager une cible sans intervention humaine. «La différence avec les drones déjà en service est que pour les SALA, il n’y a plus d’intervention de l’humain dans la prise de décision.» Cela pose des questions complexes: qui décide des règles d’engagement programmées dans ces armes? Comment s’assurer que l’intelligence artificielle est capable d’apprendre de ses expériences passées, que les règles programmées à l’origine seront toujours respectées?
Autant de questions qui inquiètent Maya Brehm, qui se félicite pourtant de l’attitude proactive de la communauté internationale par rapport à ces questions. «Des gens travaillent sur cette thématique depuis les années 1980 et, depuis 2014, de vraies discussions ont lieu sur le sujet à l’ONU. C’est une bonne chose, car le problème est complexe, au point que nous n’arrivons pas toujours à en poser les termes.» Une clairvoyance nécessaire à propos de ce qui pourrait bien être la troisième révolution militaire, après la poudre à canon et l’arme nucléaire.
Jeremy Stanning
Paru dans Entreprise romande du 2 février 2018
