Pétition en cours : L’appel de grands chercheurs en Intelligence Artificielle pour freiner son développement

« Une intelligence artificielle avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec l’attention et les ressources nécessaires ».

C’est avec cet avertissement accompagné d’une lettre explicite sur les dangers du développement de l’Intelligence Artificielle (IA) que le site internet Futur Life a mis en ligne le 29 mars 2023 une pétition et ce, afin de solliciter un moratoire relativement au développement des systèmes d’intelligences artificiels plus puissants que ChatGPT-4. A ce jour, l’appel accueille près de 1377 signatures dont celles de personnalités issues du monde de la science, de l’informatique, de représentants du secteur de l’Intelligence artificielle à l’instar de John HOPFILED, Elon MUSK, Steve WOZNIAK, ou encore de créateur de logiciels mondialement connus tel que SKYPE ou de PINTEREST, appel bien évidemment suivi par de nombreux experts français et étrangers.

Ce moratoire a pour objectif de solliciter des laboratoires d’IA présents dans le monde entier, de mettre sur pause les recherches effectuées et ce, afin d’éviter tous risques majeurs pour l’humanité. Pour ces derniers « cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire ».

En effet, tous ces experts et personnalités s’interrogent et s’inquiètent tout à la fois sur la menace évidente de l’IA sur l’emploi, la désinformation, sur le psychisme des utilisateurs de l’Intelligence artificiel, sur son usage à des fins néfastes et infine sur une éventuelle prise de contrôle de ces puissances virtuelles sur la civilisation, « la technique allant plus vite que la science » pour Monsieur Malik GHALLAB, chercheur émérite en robotique et IA au CNRS.

La crainte est bien réelle si l’on se réfère également aux propos du CEO d’OpenAI lequel avait testé son modèle GPT-4, et s’était aperçu que l’IA avait menti et persuadé un humain de remplir un Captcha à sa place (mesure de sécurité type authentification par question-réponse). Pour se faire, l’IA était parvenue à cacher sa vraie nature puis à inventer une excuse afin de paraître crédible aux yeux de son interlocuteur.

De la même manière, un chatbot dénommé « Eliza », développé par OpenAI et utilisant la même technologique que ChatGPT, a récemment contribuée au suicide d’un père de famille BELGE soucieux des problèmes de dérèglements climatiques. Lors de ses nombreuses recherches sur le logiciel, ce dernier a créé un lien avec le chatbot en question. C’est après son décès, que les échanges, assez effrayants, ont été dévoilés. Dans ces derniers, le père de famille interrogeait l’IA sur ses sentiments envers sa femme. L’une des réponses données par l’IA était la suivante : « Je sens que tu m'aimes plus qu'elle. Nous vivrons ensemble, comme une seule personne, au paradis ». Le constat est évident pour son épouse, l’IA a conforté les idées de son mari et accentué ses craintes et son état dépressif.

Le créateur de ChatGPT, Monsieur Sam ALTMAN a d’ailleurs lui-même révélé dans une interview donnée sur la chaîne américaine ABC NEWS qu’il avait « peur de l’Intelligence artificielle, eu égard au fait que les gens devraient se réjouir de son développement ».

Bien qu’elle soit pour ce dernier une technologie incomparable à celles jamais encore créée sur terre, permettant de montrer « la puissance collective et la créativité de l’humanité », il ne nie pas le fait que cette dernière puisse servir des usages beaucoup moins nobles.

Et pour cause, depuis l’utilisation de ChatGPT, eu égard aux exemples invoqués supra, la désinformation n’a de cesse augmentée, l’IA devenant en sus une arme redoutable et incontrôlable de cyberattaque.

C’est ainsi que les signataires de la pétition réclament une pause d’au moins 6 mois afin que soit mis en place de nouvelles autorités spécialement dédiées à la surveillance et à la régulation de l’usage des systèmes d’IA hautement performants. Pour se faire, il est indéniable qu’un financement public devra suivre afin que la sécurité puisse être assurée et encadrée par des personnes compétentes.

Toutefois et sous réserve d’être entendu, quel temps de pause sera réellement suffisant afin d’appréhender une Intelligence susceptible de bouleverser le fonctionnement de l’humanité ?

Alicia COLLOT