ChatGPT faced with a 2,000-year-old math problem, and its answer surprises researchers

Rewrite

Depuis l’Antiquité, les philosophes et les scientifiques se demandent si la connaissance est innée, présente en nous dès la naissance, ou acquise par l’expérience et l’apprentissage. Aujourd’hui, cette interrogation s’étend à l’intelligence artificielle, et une nouvelle étude cherche à explorer cette problématique.

Un ancien problème confronté à une intelligence artificielle

En 385 avant J.-C., le philosophe grec Platon racontait comment Socrate avait demandé à un élève de résoudre le problème du « doublement du carré ». L’exercice consistait à doubler l’aire d’un carré. L’élève, pensant bien faire, avait simplement doublé la longueur des côtés, ignorant que pour obtenir un carré avec une aire double, il fallait que les côtés aient la longueur de la diagonale du carré initial.  

C’est ce problème, connu pour sa solution non intuitive, que des chercheurs des universités de Cambridge et de Jérusalem ont choisi de poser à ChatGPT. Depuis 2 400 ans, cette énigme sert de base pour examiner si les compétences mathématiques nécessaires pour la résoudre sont innées et libérées par la réflexion, ou si elles proviennent uniquement de l’expérience et de l’apprentissage.  

ChatGPT, comme d’autres grands modèles linguistiques (LLM), s’appuie principalement sur des données textuelles et non visuelles. Les chercheurs ont estimé qu’il y avait peu de chances que la solution au problème du doublement du carré figure dans l’ensemble des données d’entraînement de l’IA. Si ChatGPT pouvait tout de même proposer une réponse correcte, cela pourrait suggérer que ses capacités mathématiques émergent d’un processus d’apprentissage basé sur des informations partielles et non d’une connaissance préexistante.  

Dans une étude publiée dans la revue International Journal of Mathematical Education in Science and Technology, les chercheurs ont demandé à ChatGPT de résoudre un problème similaire : doubler l’aire d’un rectangle. À leur grande surprise, l’IA a affirmé qu’il était impossible de le faire géométriquement, car la diagonale du rectangle ne pouvait pas être utilisée pour doubler sa taille. Une erreur manifeste, car il existe bel et bien une solution géométrique.

Une interprétation inattendue

Pour Nadav Marco, chercheur invité à l’université de Cambridge, cette réponse improbable révèle que ChatGPT improvisait en se basant sur des informations antérieures concernant le problème du doublement du carré. Cela montre que l’IA ne reproduit pas simplement des réponses préenregistrées, mais tente plutôt de générer des hypothèses, un peu comme le ferait un élève ou un chercheur. « Lorsqu’on est confronté à un problème nouveau, il est naturel d’essayer de le résoudre en s’appuyant sur des expériences passées », explique Marco. « ChatGPT semble adopter une approche similaire, en formulant intuitivement des hypothèses et des solutions. »  

Cette étude soulève des questions sur la notion de « pensée » et de « raisonnement » en intelligence artificielle. Les chercheurs ont suggéré que ChatGPT pourrait fonctionner selon un principe proche de la zone proximale de développement (ZPD) utilisée en éducation. Ce concept décrit l’écart entre ce qu’une personne sait déjà et ce qu’elle peut apprendre avec un accompagnement approprié.  

Ainsi, en reformulant les consignes ou en guidant ChatGPT, il est possible de l’amener à résoudre des problèmes qui ne figurent pas explicitement dans ses données d’entraînement. Cette idée met cependant en lumière le problème bien connu de la « boîte noire » en IA : les mécanismes internes qui permettent à l’IA de parvenir à une réponse restent opaques et difficiles à comprendre.  

Une réflexion sur la pensée artificielle

Pour Andreas Stylianides, professeur d’enseignement des mathématiques, cette étude montre l’importance de développer de nouvelles compétences chez les élèves. « Contrairement aux preuves rigoureuses des manuels scolaires, les démonstrations proposées par ChatGPT ne peuvent pas être considérées comme fiables sans examen critique », souligne-t-il.  

Les chercheurs estiment donc que l’évaluation des réponses générées par l’IA devrait devenir une compétence fondamentale enseignée à l’école. Ils suggèrent également d’améliorer les interactions avec l’IA grâce à des consignes plus collaboratives, par exemple en formulant des demandes comme : « Explorons ce problème ensemble » au lieu de simplement demander une réponse directe.  

Bien que les chercheurs restent prudents sur leurs conclusions, ils voient dans cette expérience des opportunités pour de futures recherches. Tester d’autres modèles d’IA avec un éventail plus large de problèmes mathématiques ou les combiner avec des outils spécialisés en géométrie pourrait ouvrir la voie à des environnements numériques plus interactifs. Ces innovations pourraient transformer la manière dont élèves et enseignants utilisent l’IA pour collaborer en classe. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.

in english
Write titles with capital letters only on the first word

Scroll to Top