Comment faire face à l'arrivée des machines de guerre?

September 19, 2019

La robotisation et l’intelligence artificielle vont marquer le XXIe siècle. Ce deuxième volet de la série se demande comment assurer l’interdiction des robots tueurs autonomes et s’il le faut.

Le robot tueur est à nos portes. Terminator s’en vient. Reste à savoir si on le laissera entrer en humanité, où, quand et comment.

 

L’armée russe a développé une gamme de machines de guerre parvenues à différents degrés d’automatisation.

Un inquiétant (ou fascinant) robot humanoïde russe baptisé FEDOR peut tirer du pistolet des deux mains en même temps. Il est présenté comme « un outil pour l’exploration spatiale ». Comment en douter ?

 

Dans un rapport de février, le département de la défense des États-Unis a reconnu son intérêt pour l’usage militaire de l’intelligence artificielle, notamment pour résoudre des problèmes d’espionnage ou de logistique tout en ajoutant être « loin de la question de la pleine autonomie [des armes] à laquelle semblent penser la plupart des gens ».

 

Il y a certainement de la propagande derrière ces réalisations concrètes et certains appels au calme. Il y a aussi une évidence : la course aux armements autonomes est bel et bien commencée. L’ONG pacifiste néerlandaise PAX a publié en mai un rapport spécial sur le sujet.

« La nation qui sera en avance sur l’intelligence artificielle contrôlera le monde », a clairement déclaré Bob Work, secrétaire adjoint à la Défense des États-Unis, en novembre 2017.

 

Le président russe, Vladimir Poutine, a rajouté à peu près en même temps que « l’État qui disposerait d’une arme aux capacités surhumaines, littéralement, du point de vue de la force, de résistance et de précision, jouirait en théorie d’un avantage décisif ».

 

Un point de bascule

Un drone contrôlé par un humain tuant à des milliers de kilomètres, c’est déjà quelque chose. Un drone totalement libre de décider de tirer ou pas — et cette possibilité existe bel et bien — fait basculer dans une autre réalité éthique, légale et politique.

« On peut parler de robot tueur quand l’humain n’est pas dans la boucle de décision, explique François Laviolette, professeur titulaire du département d’informatique et de génie logiciel de l’université Laval. Ce n’est pas la même chose que l’inclure dans un système informatique pour appuyer la décision humaine. ».

Le philosophe Karl Jaspers parlait d’une « situation limite » avec l’apparition de la bombe atomique capable de détruire la vie et l’humanité. En voici une autre avec l’arme autonome. Les théoriciens de la guerre identifient d’ailleurs maintenant un troisième temps de la technique militaire, après l’ère de la poudre à canon et l’âge nucléaire.

 

La résistance s’organise. Le Comité international pour le contrôle des armes robots a lancé une campagne mondiale en avril 2013 pour « stopper les robots tueurs ». Son manifeste milite en faveur d’un usage pacifique de la robotique et d’une interdiction des armes totalement autonomes par un traité.

« Cinq protocoles existent déjà pour interdire certaines armes chimiques ou bactériologiques par exemple : on en veut un 6e sur les armes robotisées », a expliqué Noel Sharkey lors d’une conférence sur le thème des Killerroboter donnée en juin à l’université Bauhaus de Weimar à laquelle a assisté Le Devoir.

« Plus de 110 ONG, les plus grandes, sont de notre côté. Des Prix Nobel. Des grandes compagnies en intelligence artificielle aussi disent qu’on va faire des erreurs à coup sûr. On veut une seule loi disant simplement qu’on ne devrait pas permettre à des machines de traquer, sélectionner et abattre une cible sans un contrôle humain. »

Un robot criminel de guerre ?

 

Au moins quatre nations bloqueraient les négociations, la Russie, les É.-U., Israël et l’Australie. Un rapport de l’Organisation du traité de l’Atlantique Nord rendu public le 9 juillet (IA : impact sur les forces armées de l’OTAN) établit aussi que « certains experts doutent de la sincérité de la Chine » tout en soulignant qu’un consensus existe dans la communauté internationale pour « conserver un contrôle digne de ce nom » sur tous les systèmes autonomes.

« Les lois qui gouvernent la guerre ne seront pas respectées par les nouvelles armes, dit le juriste Thomas Chengeta de l’université Oxford, interviewé à Weimar. Le droit de la guerre implique la possibilité de poursuivre un criminel de guerre. Mais comment poursuivre une machine ? »

 

L’ancienne espionne de l’armée américaine Kara Frederick a été la seule du débat à ne pas jouer les Cassandres tout en restant relativement inquiète. Diplômée en « war studies » du King’s College de Londres, chercheuse associée au Center for a New American Security, think tank de Washington, elle a été analyste des services de renseignement pour le commandement de la marine américaine.

 

Elle a aussi été déployée trois fois plutôt qu’une en Afghanistan pour appuyer les forces d’opérations spéciales.

« Il y a des raisons d’être inquiets et d’autres raisons d’être optimistes, a dit Mme Frederick. La technologie pour identifier et suivre des cibles existe. Elle pourra même bientôt prendre des décisions. Si on veut se protéger, il faut le faire maintenant. Je suis une ancienne praticienne. J’ai utilisé ces armes. Il y a une façon de faire, de telle sorte qu’une machine ne décide pas par elle-même et que des principes de décision existent. Mais oui, bien sûr les risques sont énormes. »

 

Cette publication a été adaptée par Cédric Giboulot pour les lecteurs de Centraledrones.com. Le blog de Centraledrones est une sélection des meilleures articles concernant l'aérien, les sous marins, et les drones terrestres sur le web.

 

 

Please reload

La Poste ouvre une nouvelle ligne de livraison par drones

December 14, 2019

1/8
Please reload

Recent Posts
Please reload

Archive

CENTRALE DRONES

Get the best by the best

Fuel your drone's passion...

CENTRALE DRONES