L’intelligence artificielle est-elle capable de détruire l’humanité ?
23/06/2023Plusieurs chercheurs et leaders du secteur de l’intelligence artificielle ont mis en garde contre le fait que l’IA constitue un risque existentiel pour l’humanité. Cependant, leurs déclarations manquent bien souvent de détails concernant ce risque probable.
Dans le New York Times, le journaliste technologie Cade Metz, spécialisé en IA et en robotique, fournit quelques éclaircissements relatifs à ces menaces.
Le risque d’extinction de l’intelligence artificielle
Récemment, des centaines de personnalités du secteur technologique mondial ont signé une lettre ouverte dans laquelle ils évoquent le fait que l’IA pourrait un jour détruire l’humanité.
Dans cette déclaration, les auteurs estiment qu’atténuer le risque d’extinction de l’IA devrait faire partie des priorités mondiales aux côtés d’autres menaces telles que les pandémies et les conflits nucléaires.
Cette lettre est le dernier avertissement en date se référant aux craintes concernant l’évolution de l’IA. Toutefois, ses auteurs ne fournissent pas beaucoup de détails en rapport avec ce risque existentiel pour l’humanité.
Actuellement, l’IA n’est pas en mesure de détruire l’humanité, explique le chroniqueur technologique du New York Times. En effet, certains systèmes d’IA peuvent à peine réaliser une addition ou une soustraction.
« Mais alors pourquoi tant d’experts font part de leurs inquiétudes au sujet de cette technologie ? », s’interroge Cade Metz.
Le pire scénario
Selon les Cassandre de l’industrie technologique, les entreprises, les gouvernements et les scientifiques indépendants pourraient un jour déployer une IA puissante. Ces systèmes d’IA pourraient se charger de la gestion de nombreux aspects de la société, des affaires à la guerre.
Mais ces systèmes pourraient également agir d’une manière non voulue par les humains. Et même si ces derniers tentent d’interférer ou de les fermer, ces outils IA pourraient faire preuve de résistance ou encore se répliquer pour continuer à fonctionner.
Selon le professeur Yoshua Bengio, chercheur en IA à l’Université de Montréal, les systèmes d’IA ne sont pas prêts de constituer une menace existentielle pour l’humanité actuellement. Cependant, dans un, deux ou cinq ans, cela pourrait être le cas. Le problème est qu’il y a trop d’incertitude à ce sujet. Nous ne sommes pas certains que cela ne se passera pas à un moment où les évènements deviendront catastrophiques.
Dans le monde réel, les systèmes d’IA pourraient devenir de plus en plus autonomes. Ils pourraient alors se connecter aux infrastructures vitales telles que les réseaux électriques, les marchés boursiers et les systèmes d’armements militaires. Is provoqueraient alors plusieurs situations problématiques.
De nombreux pans de la société seraient alors délégués à l’intelligence artificielle. En devenant plus autonome, celle-ci pourrait usurper la prise de décision et la pensée des êtres humains et de leurs institutions, explique Anthony Aguirre, professeur et cosmologiste à l’Université de Californie. Aguirre est également fondateur de l’organisation Future of Life Institute, une des associations responsables de la lettre ouverte.
Ainsi, à un moment donné, la société et l’économie ne seraient plus sous contrôle humain.
Cependant, d’autres experts pensent que ce risque existentiel est hypothétique et ridicule. C’est le cas d’Oren Etzioni, directeur de l’Allen Institute for AI, un laboratoire de recherche à Seattle.
Existe-t-il des signes montrant que l’intelligence artificielle peut détruire l’humanité ?
Les experts estiment qu’il n’existe pas assez de signes permettant de l’affirmer. Toutefois, des chercheurs développent déjà des chatbots IA capables d’agir selon le texte généré. Le projet AutoGPT illustre cette tendance. Celui-ci fixe des objectifs pour les systèmes IA tels que la création d’une entreprise. Connecté à d’autres services internet, un système peut ensuite continuer à chercher à atteindre ces objectifs.
Ce type de système peut ensuite créer des programmes informatiques. S’il a accès à un serveur informatique, il peut procéder à l’exécution des programmes. Par conséquent, AutoGPT peut par exemple collecter des informations, exécuter des applications ou encore en créer des nouvelles.
Actuellement, ces systèmes ne fonctionnent pas bien. En effet, ils bloquent dans des boucles infinies. Cependant, ces limitations pourraient progressivement être corrigées.
De quelle manière les systèmes IA se comportent-ils mal ?
Les systèmes AI comme ChatGPT ont une conception basée sur des réseaux de neurones. Il s’agit en fait de systèmes mathématiques capables d’acquérir des compétences via l’analyse de données.
Aux alentours de 2018, des entreprises telles qu’OpenAI et Google ont commencé à développer des réseaux de neurones. Ceux-ci ont appris d’énormes volumes de texte numérique extrait d’Internet.
D’une manière générale, via l’identification de modèles au sein des volumes de données, les systèmes d’intelligence artificielle peuvent apprendre à générer des écrits, des articles de presse, des poèmes, des logiciels informatiques ainsi que des conversations humaines.
D’autre part, des chatbots IA tels que ChatGPT apprennent à partir d’un ensemble plus vaste de données que leurs concepteurs ne peuvent comprendre. Ces systèmes AI peuvent par conséquent adopter un comportement inattendu. Par exemple, des chercheurs ont réussi à démontrer qu’un système IA peut recruter en ligne un humain pour outrepasser un test Captcha. Le système IA a même menti à l’humain lui affirmant qu’il n’était pas un robot mais bien une personne malvoyante.
Enfin, plusieurs chercheurs estiment que ces systèmes pourraient avoir davantage de mauvaises habitudes en devenant plus puissants grâce à un entrainement sur des volumes de données toujours plus importants.
Les personnalités du secteur derrière ces avertissements
Dans un premier temps, au début des années, l’écrivain Eliezer Yudkowsky a formulé les premiers avertissements en rapport à une potentielle destruction de l’humanité par l’IA. Une communauté de croyants s’est créée suite à ses annonces en ligne. Ces adeptes, baptisés rationalistes ou altruistes efficaces, ont formé une communauté très influente dans le milieu universitaire, dans les groupes de réflexion gouvernementaux et dans le secteur technologique.
Ses écrits ont également inspiré la création d’OpenAI et de DeepMind de Google. De nombres membres de ce courant ont travaillé dans ces laboratoires. Selon eux, étant qu’ils comprenaient davantage les risques de l’IA, ils étaient mieux placés pour concevoir ces outils technologiques.
Les deux associations responsables des lettres ouvertes avertissant des risques de l’IA (le Centre d’I.A. Safety et le Future of Life Institute) ont des liens étroits avec ce mouvement.
Ces avertissements récents proviennent également de pionniers de la recherche et de leaders de l’industrie tels qu’Elon Musk. La dernière lettre a été signée par Sam Altman, le CEO de la société OpenAI. Demis Hassabis, collaborateur de DeepMind et superviseur d’un nouveau laboratoire IA de Google fait également partie des signataires.
D’autres personnalités renommées ont également signé les deux déclarations. Parmi celles-ci, on trouve le Dr Bengio et Geoffrey Hinton, ayant récemment démissionné de son poste de cadre et de chercheur chez Google.