Mesurer le Progrès de l’IA : Ce que l’AGI nous Révèle (ou Pas Encore)

Mesurer le Progrès de l’IA : Ce que l’AGI nous Révèle (ou Pas Encore)
OpenAI • Podcast

Mesurer le Progrès de l’IA : Ce que l’AGI nous Révèle (ou Pas Encore)

Un échange sur l’AGI, les benchmarks (IMO, IOI, ADCer), et les prochaines frontières…

Une conversation à cœur ouvert

Dans le dernier épisode du podcast OpenAI, Andrew Maine discute avec Jakob Pachocki (Chief Scientist) et Simone Sidor, deux figures clés de la recherche en intelligence artificielle. Leur ton est simple, leur propos dense. On y parle de progrès foudroyant, d’émotions inattendues, d’écoles polonaises... et de ce que pourrait vraiment signifier l’AGI (Artificial General Intelligence).

AGI : fantasme ou proximité troublante ?

Il fut un temps où l’AGI semblait lointaine, presque théorique. Mais depuis peu, les discussions chez OpenAI ont changé de ton : “Sommes-nous prêts pour un progrès extrêmement rapide ?” s’est demandé l’équipe. Car si parler naturellement, résoudre des équations complexes, ou même gagner des médailles aux Olympiades de mathématiques était un rêve... ces modèles le font aujourd’hui. Pas tous les jours. Pas parfaitement. Mais ils le font.

Et ce qui frappe, ce n’est pas juste ce qu’ils savent faire, mais ce qu’ils peuvent apprendre à faire, seuls, avec du temps et du calcul.

Quand l’IA rivalise avec les meilleurs humains

Trois compétitions ont marqué les esprits :

  • IMO (Olympiades internationales de maths) : certains modèles obtiennent des résultats comparables aux meilleurs humains.
  • IOI (Olympiades d’informatique) : même constat.
  • ADCer, concours japonais de haut niveau : 10h sur un seul problème d’optimisation. L’IA d’OpenAI termine 2e. Seul l’humain en tête l’a devancée.

Le plus fou ? Le modèle a su dire : “Je ne peux pas résoudre ce problème.” Une forme de conscience de ses limites, bien différente de la fameuse « hallucination » des IA.

Les limites des benchmarks

Mesurer le progrès est devenu un casse-tête.

Avant, les benchmarks montaient comme une marée. GPT-2, GPT-3, GPT-4… tout montait ensemble. Aujourd’hui ? Certains modèles sont “dopés” à la logique, d’autres à la langue. Résultat : un bon score ne garantit pas une utilité réelle.

Et même les meilleurs modèles atteignent les plafonds. Des tâches très spécialisées deviennent peu révélatrices. Le “saut” suivant n’est peut-être pas dans un meilleur score, mais dans une capacité à explorer sur de longues durées, à générer des idées, à travailler en autonomie.

Et après ? Les prochaines frontières

Les chercheurs parient sur des IA capables :

  • de travailler longtemps sur un même problème (persistence),
  • de collaborer avec d’autres IA et des humains,
  • d’automatiser la découverte scientifique.

Imaginez une entreprise de R&D... composée d’agents intelligents. Codant, testant, cherchant. Sans relâche. Voilà ce que pourrait être l’AGI utile.

Jakob résume : “On parle d’automatiser la production de nouvelles technologies. Pas juste exécuter des tâches, mais repenser le monde.”

L’humain au cœur de l’IA

Pourtant, derrière les modèles et les graphes, restent deux amis de lycée, un vieux prof de programmation polonais, et des souvenirs d’Iron Man qui poussent vers un doctorat.

Ce podcast n’était pas un cours magistral. C’était un instantané de doute, d’émerveillement et d’humilité.

En 2025, les modèles impressionnent. Mais les humains qui les forment, les questionnent, les challengent — eux aussi évoluent vite. Et ce qu’on leur dirait à 17 ans ?

« Apprends à penser. À découper un problème. À coder, pas pour remplacer l’IA, mais pour comprendre comment elle fonctionne, et pourquoi elle agit. »

Conclusion

L’AGI ne se résume pas à un “moment”. C’est un glissement. Une progression. Et si on ne sent pas encore son impact partout, c’est peut-être qu’on regarde mal.

L’histoire ne dit pas si un jour, une IA résoudra le problème 6 des Olympiades. Mais elle sait déjà qu’elle ne l’a pas encore résolu. Et ça, c’est peut-être déjà de l’intelligence.

Commentaires