L’homme serait incapable de contrôler des machines super-intelligentes
18/01/2021Depuis plusieurs années, l’humanité se fascine pour les systèmes d’intelligence artificielle capables de réaliser plusieurs actions telles que conduire des voitures, créer des chansons ou encore réussir à vaincre l’homme au jeu de GO.
Toutefois, alors que l’on assiste à un nombre croissant d’avancées en matière d’intelligence artificielle (IA), des philosophes et des scientifiques ont mis en garde contre l’émergence d’une IA super-intelligente qu’il serait impossible de contrôler.
Dans une étude publiée dans la revue scientifique Journal of Artificial Intelligence Research, des chercheurs du Center for Humans and Machines de l’Institut allemand Max Planck de développement humain ont réussi à montrer, via des calculs théoriques, qu’il ne serait pas possible d’avoir la mainmise sur une IA super-intelligente.
Menace pour l’humanité ?
Imaginons qu’une personne procède à la programmation d’un système d’IA doté d’une intelligence dépassant celle des humains. Ce système serait capable d’apprendre de manière autonome. À l’aide d’une connexion à Internet, l’IA pourrait accéder à l’ensemble des données humaines. Tous les programmes existants pourraient être remplacés par cette IA. Cette dernière pourrait en outre contrôler tous les dispositifs en ligne du monde.
Aboutirions-nous à une utopie ou à une dystopie ? Cette IA permettrait-elle de guérir du cancer ? Mènerait-elle à la paix dans le monde ? Empêcherait-elle un désastre climatique ? Ou est-ce qu’elle procèderait par contre à la destruction de l’humanité et la contrôlerait ?
Pour répondre à ces questions, un contingent international de chercheurs a eu recours à des calculs théoriques. Ils ont découvert qu’il serait impossible d’aboutir au contrôle de cette IA super-intelligente.
Deux possibilités
« Une machine super-intelligente contrôlant le monde a des airs de science-fiction. Cependant, nous sommes déjà en présence de machines réalisant des tâches essentielles de manière autonome. Elles le font sans que les programmeurs ne comprennent totalement comment elles y sont parvenues. Il faut donc se demander si à un moment donné cette machine pourrait devenir incontrôlable et risquée pour l’humanité », a expliqué Manuel Cebrian, co-auteur de l’étude et responsable du Center for Humans and Machines de l’Institut Max Planck de développement humain.
Pour cela, les scientifiques ont réalisé des recherches sur deux facettes différentes pour contrôler une IA super-intelligente.
D’une part, on pourrait limiter les facultés de l’IA super-intelligente. On pourrait par exemple l’isoler d’Internet et de tous les autres dispositifs technologiques. De cette manière, elle n’aurait aucun contact avec le monde extérieur. Toutefois, cela rendrait l’IA super-intelligente beaucoup moins performante. Elle ne serait en outre pas capable de satisfaire les recherches des sciences humaines.
L’IA pourrait être programmée initialement pour ne poursuivre que des objectifs éthiques.
Cependant, selon les chercheurs, ces idées et concepts contemporains et historiques pour dominer l’IA super-intelligente sont l’objet de limitations.
Algorithme de confinement théorique
Les scientifiques ont élaboré un algorithme de confinement théorique. Celui-ci permet de garantir qu’une IA super-intelligente ne soit pas en mesure de nuire aux personnes. Pour cela, il faudrait procéder à une simulation du comportement de l’intelligence artificielle. Celle-ci serait arrêtée si elle s’avère nuisible. Cependant, dans le système informatique actuel, il est impossible de construire un tel algorithme, font valoir les chercheurs.
« Si vous décomposez le problème en règles de base issues de l’informatique théorique, il s’avère qu’un algorithme ordonnant à une IA de ne pas anéantir le monde pourrait mettre un terme par inadvertance à ses propres actions. Si cela arrivait, il serait impossible de savoir si l’algorithme de confinement poursuit toujours l’analyse de la menace ou s’il s’est stoppé pour maitriser l’IA néfaste. On ne peut donc pas avoir recours à l’algorithme de confinement », a déclaré Iyad Rahwan, directeur du Center for Humans and Machines.
Via ces calculs, le problème de confinement n’est pas calculable. Il n’y a aucun algorithme capable de savoir si une intelligence artificielle causerait des dégâts au monde.
Enfin, selon les chercheurs, il n’est même pas possible de savoir lorsque nous aboutissons aux machines super-intelligentes. En effet, déterminer si les performances d’une IA dépassent celles des humains est une question qui s’assimile au même problème de confinement.