L’IA : risque de manipulation & discrimination humaine ?

A date, l’IA en est à ses balbutiements. Loin du « deep learning » fantasmé et d’une « IA forte », la plus part des systèmes d’IA utilisent le machine learning, l’exploration des données, la reconnaissance familiale et le traitement du langage naturel (NPL) dans leur prise de décision. Autrement dit, l’IA actuellement produit est « faible » et est défini comme « l’artificial narrox intelligence, » par opposition à l’IA forte « Artificial general intelligence ».

Cependant, les systèmes d’IA envahissent progressivement notre quotidien, et si aujourd’hui nous n’avons pas encore la puissance informatique pour des projets AGI, ce ne sera certainement plus le cas d’ici une vingtaine d’années.

L’utilisation de l’IA a permis un progrès significatif de la société, elle ne reste pas pour autant sans danger. Les atteintes à la sécurité permises par l’utilisation de l’IA sont nombreuses, parmi elles nous pouvons citer, par exemple, la diffusion de fake news

Cette infraction fait partie des nouveaux risques liés aux pratiques manipulatrices mises en place par des IA capables de simuler des traits humains. Ces IA peuvent simuler une voix humaine, voir, dans le cas du « deep fake », mettre en scène un individu. L’amélioration des systèmes d’IA permettra, dans ce cas précis, de fabriquer des « fake » de qualité et donc de générer des fausses informations crédibles. De plus, par le processus d’autonomisation, les contenus de « désinformation » se multiplieront.

Le risque de l’intelligence artificielle et de la transformation numérique n’est plus hypothétique. Avec le problème des « biais » , l’IA peut donc se rendre coupable d’atteinte aux droits et libertés fondamentaux des hommes, et notamment, au principe de non-discrimination prévu par l’article 14 de la convention européenne des droits de l’homme (CEDH).

Cet article dispose qu’aucune distinction « fondée notamment sur le sexe, la race, a couleur, la langue, la religion, les opinions politiques ou toutes autres opinions, l’origine nationale ou sociale, l’appartenance à une minorité nationale, la fortune, la naissance ou toute autre situation » ne peut être faite dans l’exercice des droits de la CEDH.

Or le potentiel de « partis pris » des développeurs d’algorithmes peut être source de discrimination, tout comme le machine learning (l’autoapprentissage) de l’IA. Le scandale le plus connu reste le développement d’un agent virtuel par Microsoft, le chabot « TAY », qui au fur et à mesure de sa mise en service et de son auto-apprentissage, a tweeté des propos racistes et misogynes, suite à ses conversations avec différents internautes.

Encore une fois, le mal n’est donc pas issu de l’IA, qui reste un simple outil, mais bien de l’humain qui le nourrit. La discrimination faite par l’IA vient de sa manière d’acquérir des connaissances. Autrement dit, le manque de diversité chez certains programmeurs peut augmenter le risque de « biais » dans les décisions d’IA. Ce problème peut donc être pallié en alimentant l’IA de données variées, fiables et qui reflètent la réalité.

Aurélie PUIG