Faut-il avoir peur de l’intelligence artificielle forte ?
Le 22 mars 2023, la pétition Pause Giant AI Experiments: An Open Letter demande à suspendre les recherches concernant les Intelligence Artificielle (IA) fortes supérieures à GPT-4 d’OpenAi suite aux dangers potentiels que ces systèmes pourraient représenter. Elle compte au 12 avril 2023 plus de 22 000 signataires. Afin d’éclaircir le sujet, je vous propose de traduire le texte de cette pétition, puis d’apporter quelques commentaires (NB) afin de vous aider à vous faire une opinion sur le sujet.
Les systèmes d’IA qui entrent en concurrence avec l’intelligence humaine peuvent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies [1] et reconnus par les meilleurs laboratoires d’IA. [2] Comme l’indiquent les Principes d’Asilomar sur l’AI largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés.
NB : les principes d’Asilomar sur l’AI, coordonnés par FLI et développés lors de la conférence Beneficial AI 2017, sont l’un des ensembles de principes de gouvernance de l’IA les plus anciens et les plus influents. Ces principes, au nombre de 23 ont été développés en conjonction avec la conférence Asilomar 2017 afin de guider les recherches notamment d’un point de vue éthique.
NB : vous pouvez consulter les 23 principes d’Asilomar sur l’AI en cliquant ici, et consulter les vidéos de la conférence Beneficial AI 2017 via le lien ci-dessous 👇
NB : l’expression Intelligence artificielle avancée fait référence à un niveau d’intelligence dans les machines qui est équivalent ou supérieur à l’intelligence humaine. Cela peut inclure des capacités telles que le traitement du langage naturel, la reconnaissance d’images, la prise de décision et l’apprentissage. L’IA peut être divisée en deux catégories principales : l’IA faible, qui est conçue pour une tâche spécifique, et l’IA forte, qui est capable d’accomplir n’importe quelle tâche intellectuelle qu’un humain peut effectuer.
NB : les auteurs de la pétition pensent que les IA avancées, ou IA fortes, peuvent représenter une rupture technologique suffisamment importante pour que leur développements ne soient pas opaques mais fassent l’objet d’une gouvernance transparente et de contrôles proportionnés à cet enjeu.
Développement irresponsable de l’intelligence artificielle forte
Malheureusement, ce niveau de planification et de gestion ne se produit pas, et ces derniers mois ont vu les laboratoires d’IA enfermés dans une course effrénée pour développer et déployer des cerveaux numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.
NB : les auteurs soulèvent les difficultés rencontrées, selon eux, par les créateurs de ces algorithmes à maîtriser leurs propres inventions et les problèmes qu’ils pourraient engendrer à la hauteur de leurs performances. Les laboratoires développant ces IA seraient désinhibés et encouragés par des financements massifs à ne plus suivre les principes d’Asilomar sur l’AI sans être conscients des conséquences de leurs actes.
Dangerosité de l’intelligence artificielle forte pour nos démocraties
Les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales,[3] et nous devons nous demander : devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?
NB : les auteurs soulèvent des questionnements relatifs à la dangerosité de l’intelligence artificielle pour nos sociétés démocratiques. L’usage de algorithme a déjà par le passé causé des perturbations importantes dans les régimes démocratiques comme l’a démontré le scandale Cambridge Analytica. Et encore, il ne s’agissait pas à ce moment-là d’algorithmes aussi puissants que ceux évoqués par les auteurs dans cette pétition. Le développement d’intelligences artificielles fortes pourrait déstabiliser nos démocraties en rendant plus difficile l’identification de la nature artificielle des manipulations de l’information par la création automatisée de contenus venant semer le doute ou porteur de contrevérités, et démultipliant sa vitesse de propagation bien au-delà des procédés habituels, sans qu’il ne nous soit possible de distinguer le vrai du faux comme l’ont démontré les réactions des internautes face à la diffusion de fausses photos créées via des IA génératives comme Midjourney à l’occasion des manifestations contre la réforme des retraites en France.
NB : ils soulèvent également par ces questions le risque d’une automatisation débridée des tâches quotidiennes, personnelles comme professionnelles, qui pourraient conduire les êtres humains à perdre leur autonomie d’action, de penser, et leurs savoir-faires en les déléguant toujours plus à ces algorithmes. Vous souvenez-vous du film d’animation Wall-e et de ces humains devenus obèses à force d’être assistés dans une recherche de confort effrénée ? Plus que cela, ils craignent que cela n’aboutisse à une perte de contrôle de notre civilisation au bénéfice de systèmes complexes qu’il serait difficile d’arrêter faute de les comprendre. C’est là développer une vision bien noire et placer ces intelligences artificielles à un niveau qu’elles n’atteindront peut-être jamais.
De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus. Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous serons surs que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être justifiée et augmenter en proportion de l’ampleur des effets potentiels générés par de tels systèmes d’intelligence artificielle. La récente déclaration d’OpenAI concernant l’intelligence artificielle générale indique qu' »à un moment donné, il peut être important que soit effectué un examen indépendant avant de commencer à former de futurs systèmes, et, pour les versions les plus avancées, d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles. » Nous sommes d’accord. C’est maintenant que cela se joue.
NB : les auteurs soulignent que les dérives actuelles et futures sont cependant prises en compte par certains acteurs comme OpenAI, créateur de Chat GPT, quant à la nécessité de gouverner les recherches actuelles.
Demande urgente d’un moratoire sur l’intelligence artificielle forte
Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement, pendant au moins 6 mois, la formation des systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire.
NB : les auteurs proposent de stopper les recherches actuelles concernant les systèmes d’IA les plus avancés et de mettre en place une gouvernance commune des différents acteurs clefs du secteur.
NB : ils alertent aussi quant à l’urgence de la situation et à la nécessité que les états interviennent si ces acteurs clefs ne prennent pas les choses en main. C’est un appel relativement rare pour être souligné à un interventionnisme étatique au pays du libéralisme roi qui, au-delà de l’idéologie des auteurs, révèle une prise de position exceptionnelle.
Les IA fortes ne doivent pas présenter de risque de sécurité déraisonnable
Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable.[4] Cela ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes.
NB : la notion de doute raisonnable fait écho aux principes largement adoptés de l’OCDE sur l’IA qui exigent que les systèmes d’IA « fonctionnent de manière appropriée et ne présentent pas de risque de sécurité déraisonnable ».
NB : l’utilisation de l’expression « boîtes noires » traduit selon les auteurs l’opacité des systèmes d’intelligence artificielle développés actuellement qui peut accroître leur dangerosité faute de pouvoir comprendre leur fonctionnement et agir en cas de problème. D’où la nécessité de mettre en place un système de surveillance indépendant externalisé de ces acteurs.
Importance d’un nouveau modèle de gouvernance associant acteurs publics, politiques, et privés
La recherche et le développement de l’IA devraient être recentrés sur la fabrication des systèmes puissants et à la pointe de la technologie d’aujourd’hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux. En parallèle, les développeurs d’IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance des IA robustes. Celles-ci devraient au minimum inclure de nouvelles autorités de réglementation compétentes dédiées à l’IA ; la surveillance et le suivi de systèmes d’IA hautement performants et de vastes pools de capacités de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et à suivre les fuites de modèles ; un solide écosystème d’audit et de certification ; une responsabilité pour les dommages causés par l’IA ; un financement public solide pour la recherche technique sur la sécurité de l’IA ; et des institutions bien dotées en ressources pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA entraînera.
NB : les auteurs de la pétition rappellent l’importance d’un nouveau modèle de gouvernance qu’ils aimeraient voir associer acteurs publics, politiques, et privés afin de garantir la sûreté de ces nouveaux systèmes dAI fortes.
Une pause nécessaire déjà mise en place par le passé avec le clonage
L’humanité peut profiter d’un avenir florissant avec l’IA. Après avoir réussi à créer de puissants systèmes d’IA, nous pouvons maintenant profiter d’un « été de l’IA » dans lequel nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s’adapter. La société a fait une pause sur d’autres technologies avec des effets potentiellement catastrophiques sur la société.[5] Nous pouvons le faire ici. Profitons d’un long été d’IA, ne nous précipitons pas sans préparation dans une chute.
NB : les auteurs nous rappellent qu’il y a déjà eu des précédents concernant la mise en pause de certaines recherches et qu’il n’y a pas d’obstacles à ce que cela le soit pour l’intelligence artificielle. Ils citent notamment les exemples du clonage humain, de la modification de la lignée germinale humaine, de l’eugénisme.
👉 Si vous souhaitez signer la pétition sur les IA fortes (texte original) : https://futureoflife.org/open-letter/pause-giant-ai-experiments/
📚 Notes et références sur l’intelligence artificielle
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems « function appropriately and do not pose unreasonable safety risk ».
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.