Les articles du Détecteur de rumeurs sont rédigés par des journalistes scientifiques de l'Agence Science-Presse.
Le Fonds de recherche du Québec est partenaire du Détecteur de rumeurs.
Auteur : Agence Science Presse - Kathleen Couillard
Depuis que ChatGPT a été rendu disponible pour le public, en novembre 2022, l’enthousiasme pour l’intelligence artificielle (IA) ne se dément pas. Pourtant, les promoteurs de l’IA ont eu tendance à grandement exagérer ses habiletés, constate le Détecteur de rumeurs.
Faits à retenir
- Les tests employés pour appuyer les prétentions enthousiastes de l’IA suscitent beaucoup de scepticisme
- L’industrie contribue à ces prétentions par sa façon de nommer les choses
- On parle trop peu de ces limites, considérant les sommes d’argent investies
Les origines
Plusieurs acteurs de l’industrie de l’IA ont en effet fait preuve d’une imagination débridée pour décrire leurs plus récentes applications ou ont utilisé des comparaisons qui ont su retenir l’attention. Par exemple, en 2023, un ingénieur de Google déclarait que ChatGPT était « conscient » et avait une intelligence équivalente à celle d’un enfant de 6 ou 7 ans. Quant à Sam Altman, directeur général d’Open AI, la compagnie derrière ChatGPT, il écrivait sur X le 10 mai 2024 que les nouvelles fonctionnalités de ChatGPT se comparaient à de la magie.
Moins optimistes, plusieurs personnes ont plutôt prédit les catastrophes qui nous guetteraient avec les progrès de l’IA. Dans une lettre ouverte publiée le 22 mars 2023, de nombreux scientifiques et entrepreneurs se disaient inquiets parce que « les intelligences artificielles capables de rivaliser avec l’intelligence humaine » poseraient « de sérieuses menaces pour la société et l’humanité ».
Une impression de déjà-vu
Ce n’est pas la première fois que l’intelligence artificielle suscite autant de spéculations. Dans un article soumis en novembre 2023 et visant à analyser les « mécanismes » derrière la « frénésie » (en anglais, le hype) de l’IA, des chercheurs de l’Université Cambridge écrivaient que cette frénésie atteignait tout autant les firmes de technologie que les universités et « la géopolitique ». Les auteurs y faisaient référence au fait qu’en 1965, le prix Nobel d’économie Herbert Simon avait déclaré que « les machines seraient capables de faire n’importe quelle tâche qu’un humain peut faire d’ici les 20 prochaines années ». Cet enthousiasme avait été suivi par une période de désillusion, lorsque les scientifiques avaient réalisé les difficultés techniques qu’il leur restait à surmonter.
L’optimisme qu’on observe présentement est toutefois différent de celui des années 1960 puisqu’il est accompagné d’investissements massifs. De plus, les nouvelles applications sont davantage adoptées par le grand public et par les institutions.
Des capacités gonflées
Les tests réalisés pour appuyer les prétentions les plus enthousiastes suscitent beaucoup de scepticisme, notait en 2023 le rédacteur en chef de la section IA du magazine Technology Review. Ainsi, ces dernières années, des entreprises ont affirmé que leurs agents conversationnels (aussi appelés « grands modèles de langage ») pouvaient passer avec succès des tests développés pour des humains. Par exemple, en mars 2023, des chercheurs de Microsoft avaient prétendu avoir identifié les premières traces d’intelligence générale chez GPT-4, puisque celui-ci avait réussi à résoudre l’énigme suivante: comment peut-on empiler de façon stable un livre, neuf œufs, un ordinateur portable, une bouteille et un clou?
Or, il suffit de changer quelques détails pour être incapable de reproduire ces tests. Lorsqu’une professeure du Santa Fe Institute a choisi de répéter le test en changeant les objets pour un cure-dent, un bol de pouding, un verre d’eau et une guimauve, GPT-4 a échoué lamentablement.
De plus, ces tests « psychologiques » reposent sur des présomptions qui sont vraies chez les humains, mais qui ne s’appliquent pas aux ordinateurs, ajoutait le rédacteur en chef de Technology Review, Will Douglas. L’IA a notamment de la difficulté avec les tâches qui demandent une connaissance de base du monde réel. Par exemple, ChatGPT ne parvient pas à réussir un test de raisonnement habituellement utilisé chez les enfants.
Les résultats des tests peuvent aussi être manipulés pour avoir des allures plus impressionnantes. En 2023, Open AI déclarait que GPT-4 avait si bien réussi l’examen du Barreau des États-Unis qu’il se serait classé au 90e percentile. Cependant, cette affirmation était exagérée, a remarqué un chercheur du MIT, puisque le résultat de GPT-4 avait été comparé à ceux d’une cohorte d’étudiants qui avaient repris l’examen à la suite d’un échec, et qui avaient donc une note inférieure à la moyenne. Lorsque le résultat de GPT-4 a été comparé avec ceux qui ont passé l’examen du premier coup, il se classait plutôt au 48e percentile.
Enfin, un résultat peut sembler impressionnant, mais ne pas avoir d’applications concrètes. Dans un article publié dans Nature en 2023, des scientifiques de Google disaient avoir utilisé l’intelligence artificielle pour identifier 2,2 millions de nouvelles structures cristallines inorganiques, ouvrant la porte à la découverte de nouveaux matériaux. Cependant, dans une critique de cet article, des chimistes spécialisés dans les matériaux expérimentaux ont souligné qu’après avoir enlevé les doublons, les composés radioactifs qui n’ont aucune utilité et les structures qui sont excessivement rares, il restait très peu de nouvelles structures qui pourraient être qualifiées de matériaux potentiels.
Un engouement artificiel
L’industrie elle-même contribue à créer cet engouement pour l’IA, par sa façon de nommer les nouvelles technologies, remarquait en 2023 l’ancienne directrice de l’équipe de recherche en éthique sur l’IA de Google, Timnit Gubru, en entrevue pour le balado Tech Won’t Save Us. Par exemple, le terme « réseau de neurones » sous-entend que ce système fonctionne comme un cerveau, alors que ce n’est pas du tout le cas. Le terme « hallucinations », employé par les informaticiens, donne quant à lui l’illusion que l’IA est dotée d’une forme de conscience, alors que ce terme désigne des erreurs ou de fausses informations —pour lesquelles les exemples n’ont d’ailleurs pas cessé de s’accumuler.
De plus, certaines applications de l’IA ont été développées délibérément pour présenter des caractéristiques humaines comme des intentions, des émotions ou des traits de personnalité, soulignaient les chercheurs de Cambridge. Même si l’objectif est de faciliter les interactions avec l’utilisateur, cela contribue à une certaine « mystification » de cette technologie.
Enfin, il ne faut pas négliger le rôle des médias, remarquaient trois chercheurs québécois dans un article publié en 2023 sur le site The Conversation. La couverture médiatique reflète en cela les intérêts de l’industrie et des gouvernements, puisqu’elle fait surtout l’éloge des possibilités de l’IA, en passant sous silence les jeux de pouvoir derrière ces intérêts. Les médias donnent généralement la parole aux mêmes experts provenant de l’industrie, reprochaient les trois auteurs: or, ils ne sont pas nécessairement neutres puisqu’ils ont investi leur vie professionnelle dans l’IA.
Des attentes irréalistes
L’exagération des capacités de l’IA est un enjeu dont on parle trop peu, selon un chercheur du Global AI Ethics Institute à Paris. Les compagnies et les gouvernements investissent beaucoup d’argent dans cette technologie, même si on connaît très mal ses perspectives de succès à long terme.
Sur son blogue, le psychologue américain et expert en IA Gary Marcus affirmait en avril 2024 que les grands modèles de langage auraient même atteint le point de rendement décroissant, c’est-à-dire le moment où l’augmentation des moyens de production ne se traduit plus par un rendement supplémentaire. En effet, même si GPT-4 est certainement supérieur à GPT-3, qui lui-même était un progrès énorme par rapport à GPT-2, il y a eu peu d’améliorations depuis. Le problème majeur que représentent les informations erronées ne semble pas non plus sur le point d’être réglé. Il serait donc possible que les grands modèles de langage aient déjà atteint le maximum de leurs capacités.
En mai 2024, la journaliste du New York Times Julia Angwin s’interrogeait sur les capacités réelles, à court terme, de l’IA. Un an après la lettre ouverte des scientifiques et des entrepreneurs qui se disaient inquiets des « sérieuses menaces pour la société et l’humanité », la question n’est plus, écrivait Angwin, « si l’IA est trop intelligente et va contrôler le monde. C’est plutôt si l’IA est trop stupide et trop peu fiable pour être utile. » Certes, cette technologie a fait des progrès prodigieux en quelques années, mais plusieurs des exploits qu’on lui attribue sont exagérés et « admettre les failles de l’IA pourrait nous aider à investir nos ressources plus efficacement et tourner notre attention vers des solutions plus réalistes ».
Dans ses prédictions du 1er janvier 2024, le roboticien Rodney Brooks expliquait pour sa part que nous ne sommes pas près de voir un robot qui a une réelle conscience de sa propre existence ou de celle des humains. Il croit même que nous n’en serons pas témoins de notre vivant.
Verdict
L’intelligence artificielle a fait d’indéniables progrès ces dernières années. Mais le discours enthousiaste fait qu’on a peut-être trop peu parlé des limites de l’IA, limites qui la rendent incapable d’accomplir les exploits que promet l’industrie.