L’année 2023 sera l’année de l’IA

2021 était l’année des NFT, 2022 du Métaverse, 2023 sera incontestablement l’année de l’IA.

Après les recommandations éthiques, et venu le temps de la normalisation « des systèmes d’IA », toujours dans le périlleux équilibre du respect des droits et libertés fondamentales, et la stimulation de l’innovation en Europe.

Pour l’instant, les IA qui inondent le marché sont principalement américaines ou chinoises, telles ChatGPT, Dall-e, Midjourney. Si l’Europe, et particulièrement ce que l’on appelle « la french tech », n’est pas en mal au niveau des innovations en matière d’IA, elle est précurseur sur sa réglementation.

En effet, en avril 2021, l’Union Européenne mettait en place une proposition de règlement, le « AI ACT » , pour sécuriser les usages de l’IA et implémenter une gestion par les risques. Balayant rapidement la monstruosité juridique de créer une « personnalité juridique » à l’IA, les institutions européennes ont opté pour une différenciation entre un « faible risque » à un « risque élevé » de l’IA et ont énuméré les applications « interdites » , telle la notation sociale.

Pour maitriser la gestion des risques de l’IA, il convient d’abord de bien saisir ce qu’elle est.

Ce que l’on appelle des « algorithmes », ce sont simplement des listes d’instructions informatiques. Concrètement, une donnée « brute » est prise, puis une consigne lui est appliquée. L’intelligence artificielle va aller bien plus loin qu’une simple instruction informatique donnée par un algorithme. Pour comprendre cela, il convient d’abord de faire la distinction entre le machine Learning et le deep learning, et la distinction entre une IA faible et une IA forte.

• Une Weak IA est une « Artificial narrow intelligence (ANI) » . Elle va exécuter des tâches spécifiques ciblées, sans capacité d’auto expansion de ses fonctionnalités. Elle imite les humains dans des fonctions spécifiques répétitives, telles que, jouer aux échecs, établir un diagnostic médical, donner des conseils financiers.

• Une Strong AI est une « Artifical general intelligence » (AGI). Elle va effectuer des taches générales, raisonner et s’améliorer. Elle aura des capacités comparables à celles des humains.

• Puis, il existera ce qu’on appelle une « Artificial Super Intelligence » (ASI) qui viendra surpasser l’intelligence humaine (Terminator). Stephen Hawking avait prédit que si on en arrivait là , ça serait irréversible. « La création d'une intelligence artificielle serait le plus grand événement de l'histoire de l'humanité. Mais il pourrait aussi être l'ultime.».

Les capacités de l’IA sont aujourd’hui importantes, mais sont souvent exagérées.

A l’heure actuelle, on évolue avec une « WEAK IA ». TOUS les projets d’IA en production, sont des projets « ANI » (IA faible). Les projets d’ASI ne sont tout simplement pas possible à cause d’un manque de puissance de calcul actuel.

C’est avec les avancées en matière de « quantique », on aura la puissance informatique nécessaire. Pour l’instant nous ne possédons pas encore les capacités informatiques pour supporter une intelligence artificielle du style « ASI ».

En tenant compte de l’évolution rapide de l’IA et de ses capacités, les institutions européennes ont traité la question de la responsabilité en cas de dommage subi à cause d’une IA. L’AI ACT prévoit des mesures de plus en plus contraignantes pour les fournisseurs d’IA en fonction du risque de celle-ci. Les obligations peuvent aller de la simple obligation d’information et de transparence pour les chatbot, à une véritable procédure d’évaluation complète réalisée sous la responsabilité des fournisseurs, pour les IA à « haut risques » (celles touchant l’éducation par exemple, la notion de « haut risques » est a apprécié en fonction des risques sur les droits et libertés fondamentales).

Ces obligations viennent limiter les risques de dommages en amont. En cas de dommage, il convient de se pencher sur les règles de responsabilité civile. Une partie de la doctrine milite en faveur de l’application d’un régime de droit déjà existant : la responsabilité des produits défectueux, avec quelques ajustements. D’autres soutiennent la mise en place d’un régime spécial.

Ce chantier immense que représente la responsabilité de l’IA fera l’objet d’un prochain développement, à suivre donc.

Aurélie PUIG