Les avis sont partagés sur l’intelligence artificielle, qui représente une avancée majeure pour nos sociétés en mutation, mais inquiète et pose des questions éthiques majeures. Aujourd’hui, certains estiment que nous avons ouvert la boîte de Pandore.
Par Clément Airault
« Il se passe beaucoup de choses en intelligence artificielle en ce moment. On entend des histoires qui alimentent les fantasmes aussi positifs que négatifs, un peu extrêmes dans les deux cas », déclarait Yann LeCun, créateur du laboratoire d’Intelligence artificielle (IA) de Meta, dans le journal Libération fin avril.
Ce contenu est réservé aux abonnés
Un avenir avec l’IA
Le chemin parcouru depuis la publication en 1950 des travaux d’Alan Turing sur l’IA est phénoménal. Alors que le célèbre mathématicien à l’origine du premier ordinateur s’interrogeait sur la capacité d’une machine à penser (au-delà de la science-fiction), l’IA telle qu’on la connaît aujourd’hui, et qui consiste à simuler l’intelligence humaine dans les machines, tend à répondre par l’affirmative à son questionnement.
La plupart des grandes entreprises de la planète utilisent l’IA. L’intérêt est particulièrement fort chez les géants de l’internet américains et chinois (Gafam et BATX). Amazon utilise notamment l’IA pour rendre Alexa, son moteur de recherche, plus intelligent. Google fait de même, et le groupe Facebook, devenu Meta, y voit l’avenir. Entre ces sociétés qui se sont entourées des compétences des meilleurs chercheurs sur le sujet, la concurrence est rude.
Mais l’IA a réellement fait son entrée dans le débat public avec l’apparition soudaine, en novembre 2022, de ChatGPT (cf. encadré). Depuis son lancement, le site y donnant accès a reçu environ 4 milliards de visites. Cette IA semble tout savoir faire : créer des recettes de cuisine, écrire des CV, trouver des réponses à des questions historico-philosophiques… mais aussi écrire des dissertations, voire passer des examens. Les premiers à tirer la sonnette d’alarme sur les méfaits de cette nouvelle application furent les enseignants. À New York, le Département de l’éducation de la ville a bloqué début janvier ChatGPT sur les appareils scolaires et les réseaux. Les élèves n’avaient en effet pas tardé à s’approprier cet outil permettant d’éviter de longues et fastidieuses heures de rédaction, court-circuitant ainsi toute réflexion.
L’IA est en passe de révolutionner notre monde. Avec elle, rien ne semble impossible. Elle représente un atout pour le développement de nos sociétés, concernant tant l’enseignement que le travail, la science que l’art, ou encore la sécurité. D’une manière générale, l’IA nous fait gagner du temps. Ceci est particulièrement vrai dans le domaine de la santé. Par exemple, l’application de l’IA dans les IRM et les scanners permet une acquisition des données extrêmement rapide, et donc de traiter un plus grand nombre de patients en une journée. En France, le site de Quimperlé du Groupe hospitalier Bretagne Sud a été l’un des premiers à s’équiper d’un scanner utilisant l’IA, et les résultats sont concluants. La technologie évolue à pas de géants. Le 1er mai, des chercheurs ont publié dans la revue scientifique Nature Neuroscience un article dans lequel ils affirment avoir réussi à traduire des IRM cérébrales en phrases complètes fidèles à la pensée des volontaires s’étant prêtés à cette expérience. Mais ce qui représente un incroyable espoir pour les patients ne pouvant pas s’exprimer suscite des inquiétudes majeures du point de vue de l’atteinte à la vie privée. L’IA est un outil extraordinaire mais qui possède une face plus sombre, puisqu’elle intègre de multiples inconnues.
Réguler
L’une des grandes appréhensions de l’humanité en ce qui concerne l’IA touche à l’affaiblissement des droits fondamentaux. Une machine dotée de « pensée » pose un certain nombre de questions, surtout lorsque l’on sait que Microsoft a profité de son partenariat avec OpenAI pour intégrer des briques d’IA générative (qui se concentre sur la génération de contenus ou de solutions) dans son moteur de recherche, sa suite bureautique et même ses outils de cybersécurité.
Dans une chronique publiée sur le site des Nations unies, la présidente de l’Unesco, Audrey Azoulay, s’interroge sur l’éthique de l’IA : « Comment pouvons-nous nous assurer que les algorithmes n’empiètent pas sur les droits de l’homme fondamentaux — allant de la vie privée à la confidentialité des données, en passant par la liberté de choix et la liberté de conscience ? La liberté d’action peut-elle être garantie lorsque nos désirs sont anticipés et guidés ? Comment pouvons-nous nous assurer que les stéréotypes sociaux et culturels ne sont pas reproduits dans les programmations en intelligence artificielle, notamment en ce qui concerne la discrimination fondée sur le genre ? » Telles sont quelques-unes des questions qu’elle soulève, et elle n’est pas la seule à évoquer des craintes. Pour que l’IA se construise de manière transparente, et au bénéfice de tous, il convient de réfléchir à son développement futur.
Il faut faire la distinction entre les conséquences immédiates de l’IA sur nos sociétés, telles que ressenties, et sur son impact à long terme. Des objectifs et un plan d’action stratégique doivent donc être définis de manière commune, à l’échelle de l’humanité. Cela passe en premier lieu par l’imposition de régulations par les États eux-mêmes, et non par les quelques géants de l’informatique qui se partagent le marché. « L’histoire de la croissance des entreprises technologiques ces deux dernières décennies doit servir d’avertissement sur la façon dont nous devrions aborder l’expansion de l’IA générative. Les autorités publiques ont la responsabilité de s’assurer que cette histoire ne se reproduise pas », déclarait récemment Lina Khan, présidente de la FTC (Federal Trade Commission) des États-Unis. L’Autorité britannique des marchés et de la concurrence (CMA) est également en faveur de garde-fous, rapportait La Tribune dans son édition du 6 mai. Fin avril, les ministres du Numérique du G7 se sont accordés sur l’adoption d’une régulation pour prévenir les risques de l’IA ; et sept des plus grandes entreprises d’IA ont accepté de communiquer partiellement sur leur modèle lors de la DEF CON, une importante conférence annuelle sur la cybersécurité mondiale, qui aura lieu mi-août à Las Vegas (États-Unis).
Des craintes fondées ?
D’ores et déjà, l’IA tend à modifier notre rapport au réel. Des logiciels comme Dall-E 2, Stable Diffusion, Midjourney génèrent de véritables photos. Et grâce au « machine learning » (« apprentissage » par l’IA), la ressemblance avec le réel est de plus en plus troublante. Les faux sont aujourd’hui très difficiles à discerner. Après Emmanuel Macron en éboueur, ou Donald Trump arrêté par la police, une photo du pape François en doudoune blanche haut de gamme a largement été partagée sur les réseaux sociaux. Beaucoup s’y sont laissés prendre. Les images manipulées, très réalistes, produites par l’IA contribuent à la désinformation, et entraînent une perception déformée de la réalité.
Dans son 21e rapport annuel publié début mai, l’ONG RSF (Reporters sans frontières) s’inquiète de ce que l’IA soit utilisée pour le compte de gouvernements ou d’entreprises, par des sociétés privées qui participeraient à « des productions manipulatoires à grande échelle ». En février par exemple, l’enquête du collectif de journalistes d’investigation Forbidden Stories a révélé les activités de la société israélienne Team Jorge, spécialisée dans la désinformation. RSF estime que ces « capacités de manipulation inédites sont utilisées pour fragiliser celles et ceux qui incarnent le journalisme de qualité, en même temps qu’elles affaiblissent le journalisme lui-même ». L’information fiable se retrouve noyée sous « un déluge de désinformation », et la différence entre le réel et l’artificiel, le vrai et le faux est difficile à percevoir.
Aujourd’hui, quelques-uns des plus éminents spécialistes de la question appellent l’humanité à prendre du recul, à l’image de Geoffrey Hinton, le « parrain » de l’IA. Ce chercheur britannique, qui fut l’un des pionniers de l’IA dans le monde, a annoncé début mai qu’il démissionnait de Google afin de pouvoir « parler librement des dangers de l’IA ». Celui qui fut colauréat du prix Turing, avec le français Yann LeCun, estime qu’avec l’IA, « l’information, l’éducation, la société et l’humanité tout entière sont en danger ». Dans une interview accordée à la chaîne britannique BBC, il s’inquiète de la vitesse de transmission des données au sein des « réseaux de neurones » de l’IA : « Les IA partagent tout instantanément. C’est comme si, dans un groupe de 10 000 personnes, dès qu’un individu apprenait quelque chose, les 10 000 autres l’apprenaient aussi, instantanément et automatiquement, détaille-t-il. La question, c’est de savoir quand ces technologies vont nous dépasser en termes de finesse de raisonnement. »
Geoffrey Hinton n’est pas le seul à s’émouvoir de la rapidité de mutation de l’IA. L’Association pour l’avancée de l’intelligence artificielle (dont fait partie Eric Horvitz, le directeur scientifique de Microsoft) a aussi mis en garde contre les dérives du secteur, et dans une lettre ouverte publiée le 22 mars, plus de 1 000 chercheurs et personnalités du monde de la tech (dont Elon Musk) appelaient « tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4 ». Selon eux, ces logiciels induisent des risques incontrôlables. « Personne, pas même leurs créateurs, ne peut comprendre, prédire, ou contrôler » les logiciels d’IA. Ces derniers seront-ils un jour en mesure de surpasser les humains, de nous rendre obsolètes, voire de nous remplacer ? Cette idée, digne d’un film de science-fiction, est loin d’être saugrenue. Il suffit selon Geoffrey Hinton de jeter un regard sur l’évolution de l’IA ces cinq dernières années pour comprendre le risque civilisationnel encouru. Et cette inquiétude est d’autant plus grande qu’il est fort probable que des acteurs malveillants l’utilisent.
Qu’est-ce que ChatGPT ?
ChatGPT est un chatbot — c’est-à-dire un « agent conversationnel » — conçu par l’entreprise OpenAI, fondée en 2015 et peu connue du grand public, bien qu’elle ait été cofondée par Elon Musk. Elle est l’inventrice de GPT-3.5, une technologie de génération de langage naturel. ChatGPT (dont la nouvelle version est nommée ChatGPT-4) est capable de répondre à des questions complexes et de converser avec un interlocuteur humain. Il peut apprendre de ses erreurs, et rejeter des demandes inappropriées. Précédemment, OpenAI avait lancé Dall-E (aujourd’hui Dall-E 2), un générateur d’images via l’IA. Ce système figure parmi les trois leaders du secteur dans le monde, avec Stable Diffusion et Midjourney.