A LA UNEACTUALITÉS

OpenAI : les mathématiques résistent encore et toujours à ChatGPT et à l’IA

Sam Altman, le charismatique patron d’OpenAI, aurait attiré l’ire du conseil d’administration au motif que le dirigeant lui aurait caché que l’algorithme derrière ChatGPT serait capable de faire des mathématiques. La rumeur n’a pas été confirmée, mais elle est l’occasion de rappeller qu’à ce jour, toutes les intelligences artificielles butent sur les maths.

Et si c’était la faute aux maths ? Depuis le 22 novembre, cette discipline s’est retrouvée au cœur du psychodrame autour du vrai-faux renvoi de Sam Altman, le PDG de la société OpenAI, qui a développé le logiciel ChatGPT.

Le patron évincé a été rétabli dans ses fonctions mardi 21 novembre, à l’issue d’un bras de fer entre une partie des employés et le conseil d’administration. Ce dernier a dû céder après avoir remercié Mr. ChatGPT une semaine plus tôt, sans fournir d’explication précise.

Mystérieux Q*

En réalité, le renvoi initial de Sam Altman a été en partie motivé par une lettre envoyée par des salariés inquiets, a affirmé « Reuters » mercredi 22 novembre. Ils alertaient les membres du conseil d’administration sur les prouesses de l’algorithme maison qui, au sein d’un projet secret baptisé Q*, aurait franchi un cap qualifié d’ »inquiétant ». Lequel ? GPT aurait réussi à… résoudre des problèmes de mathématiques de niveau élémentaire.

L’existence de cette lettre, également mentionnée par le site « The Information », n’a pu être officiellement confirmée, et Reuters reconnaît ne pas avoir vu la fameuse missive. D’autres médias, à l’instar du site « The Verge », soutiennent que ces rumeurs portant sur un ChatGPT dopé aux maths n’ont guère de substance et que le conseil d’administration soutient n’avoir jamais reçu de lettre soulevant les risques du projet Q*.

Si l’affaire de la missive demeure obscure, son contenu révèle en revanche une réalité souvent ignorée : ChatGPT et les IA en général sont, jusqu’à présent, nuls en maths. Pire : selon des chercheurs de l’université de Stanford et de Californie, les dernières versions du fameux robot conversationnel d’OpenAI font moins bien face à certains problèmes mathématiques que les précédentes.

Cette réalité peut sembler surprenante. Les IA, ces bêtes de calcul, ne devraient a priori faire qu’une bouchée des maths. Plusieurs utilisateurs de ChatGPT se sont d’ailleurs étonnés des limites de cet outil depuis son lancement en décembre 2022. « Je lui ai demandé : ‘Si cinq machines produisent cinq objets en cinq minutes, combien de temps faudra-t-il à 100 machines pour produire 100 objets.’ Et il m’a répondu 100 minutes. C’est faux ! » se désole un internaute sur un forum consacré à l’intelligence artificielle. La réponse à ce problème – basique pour un mathématicien – est cinq.

« Les mathématiques et le calcul ne sont pas tout à fait la même chose », note Vincent Corruble, chercheur au LIP 6 (le laboratoire d’informatique de Paris 6). Ce n’est pas parce qu’un modèle comme ChatGPT impressionne par sa capacité à bavarder avec le commun des mortels qu’il peut aussi « comprendre » les math comme un humain. « Il est par exemple facile pour nous de reconnaître un triangle dans une image, alors que c’est bien plus difficile pour une machine », précise Nicolas Sabouret, professeur en informatique et spécialiste de l’intelligence artificielle à l’université Paris-Saclay.

Mathématiques n’est pas (que) calcul

La raison principale de l’allergie aux mathématiques de GPT – dont l’acronyme signifie « Generative pre-trained transformer », ou « transformateur génératif pré-entraîné » en français –  est que celui-ci n’a pas été programmé pour ça. « Il a été conçu pour générer du langage en choisissant quel est le mot qui vient après dans une phrase donnée », explique Tom Lenaerts, professeur à l’Université libre de Bruxelles et président de l’Association du Benelux pour l’intelligence artificielle.

Autrement dit, ChatGPT et les autres larges modèles de langage (LLM) utilisent leur puissance de calcul pour faire des probabilités et décider quels mots choisir dans leur immense base de données – l’intégralité du web dans le cas de ChatGPT – et ainsi construire une phrase ayant en apparence du sens.

Cette approche statistique permet d’ailleurs à ces « bots » de faire des maths comme Monsieur Jourdain fait de la prose : sans le savoir. Ils n’auront aucun problème à répondre que « 2 + 2 » égale 4. Mais c’est en fouillant dans leur caverne d’Ali Baba de données et d’écrits glanés en ligne que ces algorithmes découvriront que la suite la plus probable à la série de chiffres et signes « 2 + 2 = » est le chiffre 4.

Cela ne signifie pas que ces IA « comprennent » la logique de cette addition. « Les mathématiques consistent à apprendre à raisonner, et l’intelligence artificielle n’est que calcul. Il est très difficile de reproduire un raisonnement logique avec seulement du calcul. Au mieux, ces machines réussiront à l’imiter », explique Nicolas Sabouret.

Et ce n’est pas un problème nouveau. Logic theorist, l’un des tout premiers logiciels d’intelligence artificielle développé dans les années 1950, « avait été programmé pour raisonner comme un mathématicien », souligne Vincent Corruble. Ce modèle, qui ne cherchait pas à générer du texte mais plutôt à raisonner comme un humain, avait « rapidement montré ses limites », précise l’expert du LIP 6.

Au fil du temps, les maths sont devenues l’un des derniers bastions qui résistent encore et toujours à l’IA. Depuis que « l’intelligence artificielle a réussi à supplanter l’humain dans les jeux comme les échecs et le go, la maîtrise des mathématiques apparaît comme l’un des principaux obstacles à franchir », estime Vincent Corruble.

Mais « sans nouveaux développements significatifs dans la manière dont les larges modèles de langage sont conçus, ils ne pourront pas faire des maths car ils ne font pas de raisonnement », tranche Tom Lenaerts.

Le spectre de l’intelligence artificielle générale

D’où les doutes formulées par les experts interrogés par France 24 sur les rumeurs au sujet Q* et de son IA capable de raisonnement mathématique. « Un modèle de langage est une machine qui fonctionne sur la base de probabilité et ne tient pas compte des concepts de ‘vrai’ ou de ‘faux’, pourtant centraux en mathématiques », explique Nicolas Sabouret.

Si un large modèle de langage parvenait à franchir ce cap, « ce serait une sacrée percée théorique », assure au « Guardian » Andrew Rogoyski, expert en intelligence artificielle à l’université de Surrey.

« Reuters » et « The Information », qui citent tous deux l’existence de la lettre, affirment que les auteurs de cette missive jugent « inquiétante » la prouesse de Q*. En effet, la capacité de faire des maths rapprocheraient l’algorithme d’une « intelligence artificielle générale », écrit « Reuters ».

Ce concept de super-IA fait référence « à une intelligence artificielle qui serait capable de s’attaquer à n’importe quel problème », précise Nicolas Sabouret. C’est aussi « la comparaison de la machine avec l’être humain », ajoute Vincent Corruble. Autrement dit, à chaque fois que ces algorithmes empiètent sur ce qui, jusqu’à présent, constituait le pré carré de l’humanité, le spectre de l’IAG se précise un peu plus.

En ce sens, « savoir manipuler des raisonnements mathématiques serait en effet un pas dans la direction d’une intelligence artificielle générale », confirme Tom Lenaerts. De quoi donner des sueurs froides à certains, notamment au sein d’OpenIA. La société de Sam Altman définit en effet cette « super-intelligence » comme « un système autonome ayant la capacité de surpasser les humains dans presque toutes les tâches économiquement utiles ».

Mais pour Nicolas Sabouret, on en est encore loin. Même si une IA était capable de faire des maths, « ça ne lui procurerait pas plus d’autonomie ou ne la rendrait pas plus dangereuse », et donc en mesure de remplacer l’Homme.

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page