Le monde doit s’unir pour agir contre les robots tueurs ou armes autonomes, indique un nouveau rapport.
Selon un nombre croissant de pays, les armes totalement autonomes doivent faire l’objet d’une interdiction afin d’éviter l’avènement de robots tueurs, précise un document de l’ONG de défense des droits humains, Human Rights Watch (HRW).
Situation inacceptable
Pour les chercheurs de HRW, nous sommes face d’une situation qui serait inacceptable si des systèmes d’armes devenaient capables de sélectionner et d’anéantir des cibles sans surveillance humaine.
L’étude de Humain Rights Watch indique que 30 pays ont exprimé le souhait d’introduire un traité international qui stipule que le contrôle humain sur l’emploi de la force doit être maintenu.
Ce nouveau rapport intitulé « Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control » examine les politiques de 97 États ayant mené des débats publics au sujet des robots tueurs depuis 2013.
Action internationale urgente
Mary Wareham, directrice du plaidoyer auprès de la division des armes chez Human Rights Watch et coordinatrice de la Campagne pour arrêter les robots tueurs, a déclaré qu’une action internationale urgente sur la question était nécessaire, car la technologie telle que l’intelligence artificielle continue de se répandre.
« Le retrait du contrôle humain de l’usage de la force est désormais largement considéré comme une menace grave pour l’humanité qui, comme le changement climatique, mérite une action multilatérale urgente », a-t-elle déclaré.
« Un traité d’interdiction international est le seul moyen efficace pour faire face aux graves défis posés par les armes entièrement autonomes. Tous les pays doivent réagir d’urgence en ouvrant des négociations sur un nouveau traité d’interdiction internationale. »
Selon le rapport, plusieurs organisations internationales et de pays soutiennent la campagne. Toutefois, un petit nombre de puissances militaires telles que les États-Unis et la Russie, ont fermement rejeté les propositions concernant cette nouvelle réglementation.
« De nombreux gouvernements ont fait part de leurs préoccupations sérieuses concernant le fait de permettre aux machines de prendre la vie humaine sur le champ de bataille, et leur souhait de contrôle humain fournit une base solide pour une action collective », a encore déclaré Wareham.
Les technologies autonomes responsables d’atrocités de masse
Selon de nombreux experts, des robots intelligents et autonomes programmés pour cibler des humains et les éliminer pourraient être responsables d’atrocités de masse à l’avenir, à moins que l’on décide de l’implémentation d’un traité international pour que la robotique et l’intelligence artificielle soient utilisées de manière responsable.
Les chercheurs en apprentissage automatique et en technologie militaire indiquent qu’il serait technologiquement possible de construire des robots qui prennent des décisions au sujet de qui cibler et tuer sans impliquer de contrôle humain.
Selon les scientifiques, la reconnaissance faciale et les algorithmes de prise de décision sont de plus en plus puissants et la création de tels types de robots serait plus facile.
Les chercheurs en IA et en politiques publiques tentent de faire valoir que les robots tueurs sont une mauvaise idée dans la vraie vie. Selon eux, la création d’armes entièrement autonomes entraînerait de nouveaux dilemmes techniques et moraux.
C’est la raison pour laquelle de nombreux scientifiques et militants ont poussé les Nations Unies et les gouvernements mondiaux à reconnaître le problème et à envisager une interdiction préventive.
L’IA peut-elle être utilisée comme arme ?
La réponse est oui. Comme toute autre technologie existante, l’intelligence artificielle peut être utilisée pour le bien, mais aussi pour tuer, indique le site spécialisé Interesting Engineering.
La reconnaissance faciale et la reconnaissance d’objets sont des technologies qui se sont améliorées au cours des dernières années. Elles sont devenues beaucoup plus précises, mais elles sont loin d’être parfaites.
La reconnaissance faciale et la reconnaissance d’objets sont des compétences susceptibles de devenir essentielles dans le cadre d’une boîte à outils pour les armes létales autonomes. Cependant, il est également assez facile de tromper ces technologies, si l’on souhaite vraiment y parvenir.