Le Livre blanc sur l’IA, apparu le 19 février, met d’abord en exergue l’aspect essentiel des droits fondamentaux des citoyens. Ainsi, le livre avertit par exemple du danger face aux anormalités au niveau des algorithmes de recrutement. Cela peut par conséquent engendrer des discriminations. La capitale belge, Bruxelles, conseille vivement aux systèmes d’IA modernes à haut danger (par rapport à la santé notamment) d’être certifiés, sécurisés et testés, au même titre que le sont les véhicules ou les habits par exemple.
Néanmoins, des professionnels du milieu s’inquiètent de cette emphase par rapport aux valeurs et à la morale. Un dirigeant d’une PME d’IA en France a déclaré que beaucoup de cadres et d’énergie sont mis dans le domaine pour au final ne pas tellement progresser. L’éthique est utile pour les pouvoirs actuels (grosses sociétés ou institutions) en tant qu’outil afin d’aborder le sujet de l’IA mais sans réellement la pratiquer. Ce même patron affirme que cela est regrettable puisque durant ce temps-là des pays tels que par exemple le Canada, la Chine et évidemment les États-Unis avancent dans le domaine. Il suggère qu’en lieu et place de plans conséquents, il serait déjà préférable de progresser sur l’usage de l’IA par rapport à la maintenance prédictive des moteurs d’avions (se servir de l’intelligence artificielle afin de prédire les pannes et agir en amont). Ici, il y a peu de soucis liés à l’éthique.
Les valeurs : une véritable arme de stratégie ?
Un professeur d’une école de management très réputée (Insead) a donné un avis avec l’appui de divers chercheurs, mettant en garde face aux dangers d’une approche trop basée sur les valeurs en Europe. Ce dernier affirme que l’Europe se sert de ses valeurs en tant qu’arme de stratégie. Le but ? Rattraper les deux puissances américaines et chinoises. L’Europe souhaite également être attractive dans la lutte internationale à l’IA. Or, pourquoi penser que des pays non-européens se tourneront davantage vers des IA formées et se basant sur des valeurs européennes ? Pas certain que cela fonctionne …
Concernant le fameux Livre blanc, ce dernier met « l’explicabilité » en tant que valeur cardinale. Cela signifie qu’il doit être possible de savoir pourquoi une IA parvient à un tel résultat. Cette situation peut par exemple s’appliquer lors d’un refus de crédit. Cependant, faire en sorte que les IA expliquent leurs conclusions baissent le niveau d’efficacité de 20%, voire même plus selon les spécialistes. La responsable de l’IA dans le Laboratoire national de métrologie et d’essais quant à elle, ne remet nullement en cause les obligations éthiques présentes dans le Livre blanc. Néanmoins, il reproche à la Commission le peu d’avancées par rapport aux moyens mis en œuvre pour la vérification de la conformité des IA auxdites valeurs.
L’IA éthique : difficilement réalisable à l’heure actuelle
Concrètement, comment faire afin de garantir la conformité des systèmes d’IA à des règlements ? En effet, ces derniers sont la plupart du temps évolutifs et adaptatifs. En plus, ils possèdent des comportements n’étant pas linéaires. À l’heure actuelle, il est impossible de procéder à l’évaluation du niveau d’explicabilité d’un système d’IA. Au final, la question n’est nullement détaillée dans le Libre Blanc. La seule chose évoquée à ce sujet est un financement conséquent par rapport à un centre d’essai de l’UE. Une chercheuse en IA du CNRS, admet aussi que la Commission demeure extrêmement discrète actuellement sur les spécificités d’une IA dite « éthique ».
Néanmoins, au vu des multiples enjeux, il est essentiel d’afficher haut et clair cet enjeu des valeurs, estime la chercheuse. Cette scientifique a d’ailleurs récemment écrit et publié « Les robots émotionnels : santé, surveillance, sexualité… et l’éthique dans tout ça ? ». Elle déclare que l’enjeu de l’intelligence artificielle est la créativité et la création d’une économie saine et éthique. Elle dit également que l’Europe possède les ressources nécessaires afin d’arriver à ce résultat. Et vous, si demain, votre enfant était refusée à un poste à cause d’une IA, ne voudriez-vous pas savoir pourquoi ? Alors, l’IA éthique : est-ce possible ? ActuIA vous dit tout.
Pourquoi l’IA sera plus forte et éthique ?
- L’usage de l’intelligence artificielle va s’étendre à de multiples marchés ;
- Les différentes règles au niveau de la confidentialité des informations seront optimisées ;
- Les sociétés mettront en place diverses nouvelles pratiques afin d’effectuer une correction des biais indésirables de l’intelligence artificielle ;
- Car on se dirige vers de plus en plus vers des smart cities (villes intelligentes) ;
- L’essor du text mining (ensemble des méthodes de data management et de data mining offrant la possibilité de traiter des informations spécifiques que sont les données textuelles).