Comment un modèle à 7 millions de paramètres surpasse les modèles d’IA de pointe

Comment un modèle à 7 millions de paramètres surpasse les modèles d’IA de pointe

AI Machine Learning Deep Learning Model Optimization

Introduction

Le domaine de l’intelligence artificielle a longtemps fonctionné sur une hypothèse fondamentale : plus c’est gros, mieux c’est. Les modèles plus grands, avec plus de paramètres, plus de données d’entraînement et plus de ressources de calcul, surpassent systématiquement leurs homologues plus petits. Pourtant, une publication révolutionnaire de Samsung remet en cause cette sagesse établie et pourrait bien bouleverser notre conception de la conception et de l’efficacité des modèles d’IA. Un minuscule réseau de neurones de seulement 7 millions de paramètres—une fraction de la taille des modèles de pointe comme GPT-4, Gemini 2.5 Pro ou DeepSeek—atteint désormais des performances supérieures sur certains des benchmarks de raisonnement les plus exigeants de l’intelligence artificielle. Cette réussite remarquable n’est pas simplement le résultat d’un passage à l’échelle des données d’entraînement ou des ressources de calcul. Elle repose sur une remise en question fondamentale de la façon dont les réseaux neuronaux abordent la résolution de problèmes complexes, grâce à une technique appelée raisonnement hiérarchique récursif, combinée à la supervision profonde. Dans ce guide complet, nous allons explorer le fonctionnement de ce minuscule modèle, pourquoi il est si efficace, et ce que cela implique pour l’avenir du développement et du déploiement de l’IA.

Thumbnail for How a 7M Parameter Model Beats Frontier AI Models

Comprendre les limites des grands modèles de langage actuels

Avant de pouvoir apprécier l’innovation du Tiny Recursive Model, il faut comprendre pourquoi les grands modèles de langage peinent à résoudre des tâches de raisonnement complexes. Les modèles de langage modernes comme GPT-4, Claude et Gemini fonctionnent selon un principe fondamental : ils prédisent le prochain token dans une séquence, à partir de ceux qui précèdent. Cette approche autorégressive s’avère très efficace pour de nombreuses tâches, de la traduction à la synthèse de texte en passant par la rédaction créative. Cependant, pour les problèmes de raisonnement difficiles—ceux qui nécessitent plusieurs étapes de déduction logique, de satisfaction de contraintes ou de reconnaissance de motifs abstraits—cette approche montre ses limites. Le problème central est qu’une seule prédiction de token erronée peut invalider toute la réponse. Imaginez la résolution d’une équation mathématique complexe : si le modèle commet une erreur dès la première étape, toutes les étapes suivantes deviennent sans signification. Ce phénomène d’erreur en cascade s’aggrave exponentiellement à mesure que la complexité du problème augmente. De plus, les grands modèles de langage ne « raisonnent » pas vraiment comme les humains. Ils effectuent un appariement sophistiqué de motifs à partir de leurs données d’entraînement, sans véritable inférence logique. Face à des problèmes inédits qui exigent un raisonnement sortant de leur distribution d’entraînement, ils échouent souvent de façon spectaculaire. C’est pourquoi même les modèles de pointe peinent avec des benchmarks comme ARC AGI (Abstraction and Reasoning Corpus), qui testent spécifiquement l’aptitude à résoudre des problèmes de raisonnement abstrait nécessitant une pensée générale, et non une simple reconnaissance de motifs.

L’évolution des techniques de raisonnement en IA

La communauté scientifique a développé différentes techniques pour pallier les limites de raisonnement des grands modèles de langage, chacune ayant ses forces et faiblesses. La plus connue est le chain-of-thought prompting, désormais omniprésent dans les systèmes d’IA modernes. Le chain-of-thought encourage le modèle à générer un raisonnement étape par étape avant de fournir sa réponse finale. Au lieu de sauter directement à la conclusion, le modèle est incité à « réfléchir » au problème, en produisant des étapes intermédiaires de raisonnement qui mènent à la réponse. Cette approche s’avère très efficace, des études montrant qu’elle améliore sensiblement la performance sur des tâches de raisonnement. Mais elle a ses inconvénients. Elle est coûteuse en calcul—générer plusieurs étapes de raisonnement requiert le traitement de nombreux tokens supplémentaires, ce qui augmente le temps d’inférence et le coût computationnel. Elle exige aussi des données de raisonnement de haute qualité pour l’entraînement, coûteuses et longues à produire. Enfin, et surtout, le chain-of-thought est fragile. Le raisonnement généré peut être incorrect, et si c’est le cas, la réponse finale le sera aussi. Le modèle ne vérifie pas vraiment son raisonnement ; il génère simplement des explications plausibles, qui peuvent ou non être logiquement valides. Une autre technique populaire est le pass-at-K sampling, où le modèle génère plusieurs réponses candidates et choisit la meilleure. Si vous demandez « Combien font 5 fois 5 ? », il peut générer dix réponses différentes et retenir la plus juste. Cela peut améliorer la précision, mais c’est aussi coûteux en calcul et ne règle pas le problème fondamental : le modèle ne raisonne toujours pas, il multiplie simplement les prédictions en espérant que l’une soit correcte. Ces techniques relèvent de ce que les chercheurs appellent le « test-time compute scaling »—utiliser plus de ressources de calcul à l’inférence pour améliorer la qualité des réponses. Même efficaces, elles restent fondamentalement limitées par le fait que le modèle sous-jacent n’effectue pas de raisonnement authentique, il génère juste plus de prédictions.

Le benchmark ARC AGI : pourquoi est-ce important ?

Pour bien saisir la portée des résultats du Tiny Recursive Model, il faut comprendre le benchmark sur lequel il est évalué : ARC AGI (Abstraction and Reasoning Corpus). ARC AGI a été conçu pour tester ce que la plupart des benchmarks d’IA ne mesurent pas : la capacité de raisonnement abstrait authentique. Contrairement aux benchmarks qui évaluent les connaissances ou la reconnaissance de motifs, ARC AGI propose des énigmes visuelles inédites, requérant la capacité à identifier des règles abstraites et à les appliquer à de nouvelles situations. Le benchmark consiste à présenter au modèle quelques exemples de paires entrée-sortie, puis à lui demander de deviner la règle sous-jacente et de l’appliquer à de nouveaux inputs. Ce ne sont pas des tâches solvables par mémorisation ou appariement de motifs vus à l’entraînement ; elles exigent un véritable raisonnement et la capacité à généraliser des concepts abstraits. Depuis son introduction en 2019, ARC AGI est devenu la référence pour évaluer le raisonnement en IA. Malgré six ans de progrès, la précision humaine sur ARC AGI n’a toujours pas été atteinte. C’est un rappel qu’en dépit des capacités impressionnantes des IA modernes, elles peinent encore sur des tâches que les humains trouvent relativement simples. Gemini 2.5 Pro, l’un des modèles de pointe actuels, atteint seulement 4,9 % de précision sur ARC AGI 2 même avec beaucoup de ressources à l’inférence. Le nouveau benchmark ARC AGI 3 est encore plus difficile, les modèles de pointe peinant à faire des progrès significatifs. C’est dans ce contexte que les résultats du Tiny Recursive Model sont réellement exceptionnels. Un modèle de 7 millions de paramètres—moins de 0,01 % de ceux de Gemini 2.5 Pro—atteint 45 % de précision sur ARC AGI 1 et 8 % sur ARC AGI 2, surpassant nettement ces modèles massifs.

Qu’est-ce que le raisonnement hiérarchique récursif ?

L’innovation clé du Tiny Recursive Model est une technique appelée raisonnement hiérarchique récursif, qui représente une approche radicalement différente de la résolution de problèmes complexes par les réseaux neuronaux. Pour bien saisir cette technique, pensons à une analogie : vous essayez de résoudre un Sudoku difficile. Vous ne le résolvez pas d’un coup, en prenant toutes les décisions à la fois. Vous faites une supposition, évaluez si elle est cohérente avec les contraintes, et si ça ne marche pas, vous révisez votre supposition et recommencez. Vous pouvez répéter ce cycle des dizaines de fois, affinant chaque fois votre solution sur la base de vos essais précédents et du raisonnement sur leurs échecs. Ce processus d’amélioration itérative, c’est précisément ce que fait le raisonnement hiérarchique récursif. Le modèle maintient deux informations essentielles : sa meilleure supposition courante de la solution et la trace du raisonnement qui y a conduit. À chaque étape de récursion, le modèle met à jour les deux. Il observe sa supposition, réfléchit au raisonnement ayant mené à ce résultat, puis génère une supposition améliorée à partir de ce raisonnement. Ce processus se répète, utilisant la nouvelle supposition et le raisonnement mis à jour comme entrée de l’itération suivante. Le modèle hiérarchique original (HRM) à l’origine de cette démarche utilisait deux réseaux neuronaux distincts, opérant à des « vitesses » ou hiérarchies différentes. L’argument biologique était que le cerveau humain fonctionne à différentes fréquences temporelles—certains processus sont rapides et réactifs, d’autres plus lents et délibérés. Les deux réseaux du HRM étaient censés émuler cela, l’un fonctionnant rapidement, l’autre lentement, et collaborant en boucle. Mais les chercheurs de Samsung à l’origine du Tiny Recursive Model ont remis en cause cette justification biologique. Si les analogies cerveau/IA sont intéressantes, elles n’expliquent pas forcément pourquoi un choix architectural fonctionne. Le papier HRM original reposait sur des arguments biologiques et des théorèmes mathématiques complexes (théorèmes du point fixe) pour justifier sa conception, sans fournir de véritables études d’ablation montrant les composantes déterminantes de la performance. Les chercheurs ont posé une question simple mais profonde : pourquoi deux réseaux ? Pourquoi pas un, trois, ou quatre ? Et plus fondamentalement, pourquoi justifier les choix architecturaux par la biologie plutôt que par les résultats empiriques ?

Le Tiny Recursive Model : l’innovation par la simplification

La réponse à ces questions a conduit au développement du Tiny Recursive Model (TRM), qui conserve l’essence du raisonnement récursif tout en éliminant la complexité et les justifications biologiques. Au lieu de deux réseaux moyens opérant à des hiérarchies différentes, TRM utilise un seul minuscule réseau à deux couches seulement. Le modèle est d’une simplicité remarquable—le pseudocode du TRM tient sur un écran. Cette simplicité n’est pas une limitation ; c’est un atout. En éliminant la complexité superflue, les chercheurs se sont concentrés sur l’essentiel : le processus d’amélioration récursive lui-même. L’idée clé est que le modèle doit maintenir deux informations : sa supposition courante et la trace du raisonnement qui y a mené. Ce ne sont pas nécessairement des hiérarchies différentes ou des fréquences variées ; ce sont simplement deux types d’informations à suivre. À chaque étape, le modèle prend ces deux entrées, les traite via son minuscule réseau à deux couches, et produit des versions mises à jour de la supposition et de la trace de raisonnement. Ce processus se répète plusieurs fois, chaque itération pouvant améliorer la solution. La beauté de cette approche réside dans ce que les chercheurs appellent la « profondeur virtuelle ». Le réseau n’a que deux couches, mais en le réutilisant récursivement, le modèle dispose en fait d’une profondeur bien supérieure. C’est comme si le modèle simulait un réseau plus profond par itération, plutôt que par ajout de couches. C’est une idée cruciale car elle remet en cause la croyance selon laquelle les réseaux plus profonds sont toujours meilleurs. Traditionnellement, on ajoute des couches pour accroître la capacité d’apprentissage du modèle. Mais le Tiny Recursive Model montre qu’on peut obtenir des résultats similaires, voire meilleurs, en gardant un réseau peu profond, mais en augmentant le nombre d’étapes de récursion. C’est une façon radicalement différente de penser l’architecture des modèles.

Supervision profonde : apprendre à chaque étape

La seconde innovation clé du Tiny Recursive Model est une technique appelée supervision profonde. Si le raisonnement récursif fournit le mécanisme d’amélioration itérative, la supervision profonde permet au modèle d’apprendre efficacement à chaque itération. Dans l’apprentissage supervisé classique, un modèle fait une prédiction et reçoit un retour uniquement sur la sortie finale. Si la réponse finale est fausse, il apprend que tout le processus était incorrect, mais ne sait pas quelles étapes intermédiaires sont en cause. La supervision profonde change la donne en fournissant des signaux de supervision à plusieurs étapes intermédiaires du raisonnement. Au lieu de vérifier seulement la réponse finale, le modèle reçoit un retour à chaque étape de récursion. Il apprend ainsi non seulement si sa réponse finale est juste ou non, mais aussi si chacune des étapes de son raisonnement progresse dans la bonne direction. L’impact de la supervision profonde sur la performance est spectaculaire. Lors des premiers tests, son utilisation a doublé la précision par rapport à la supervision classique, passant de 19 % à 39 % sur certaines tâches. C’est une amélioration majeure issue d’un simple changement architectural. La supervision profonde est si efficace car elle fournit des signaux d’apprentissage bien plus riches. Quand un modèle ne reçoit de feedback que sur la réponse finale, il doit deviner par rétropropagation quelles étapes intermédiaires ont causé l’erreur. C’est un problème d’attribution difficile, surtout dans les réseaux profonds. En fournissant un retour direct à chaque étape, le modèle sait instantanément si chaque étape était correcte, ce qui facilite l’apprentissage du comportement optimal. En outre, la supervision profonde empêche le modèle de s’enliser dans des optima locaux. Si le modèle prend une mauvaise direction tôt dans son raisonnement, la supervision le corrige immédiatement, au lieu de laisser l’erreur se propager à travers plusieurs étapes.

Résultats : des chiffres qui bousculent les certitudes

Les gains de performance du Tiny Recursive Model sont tout simplement remarquables. Sur le benchmark Sudoku Extreme, la précision grimpe de 55 % à 87 %. Sur le Maze Hard, de 75 % à 85 %. Sur ARC AGI 1, il atteint 45 % contre 40 % pour l’approche précédente. Sur ARC AGI 2, il passe à 8 % contre 5 % auparavant. Si l’amélioration sur ARC AGI 2—de 5 % à 8 %—paraît modeste, c’est tout de même une hausse relative de 60 %, ce qui est considérable dans un domaine où les progrès se mesurent souvent en points de pourcentage. Plus important encore : il faut mettre ces résultats en perspective du nombre de paramètres. Le Tiny Recursive Model ne compte que 7 millions de paramètres. À titre de comparaison, Gemini 2.5 Pro, DeepSeek R1 et Claude 3.7 en ont chacun plusieurs centaines de milliards. Le TRM obtient des performances compétitives, voire supérieures, tout en n’utilisant que 0,01 % de leurs paramètres. Le rapport performance/paramètre est donc sans commune mesure. Cela a des implications majeures pour le déploiement de l’IA. Les modèles petits coûtent moins cher, exigent moins d’infrastructure, et peuvent être déployés sur des appareils edge ou dans des environnements contraints. Si un modèle à 7 millions de paramètres rivalise avec des modèles à plusieurs centaines de milliards, cela ouvre de toutes nouvelles perspectives pour les applications de l’IA. Le seul modèle de pointe à surpasser le Tiny Recursive Model sur ces benchmarks est Gro for Thinking, qui affiche des résultats nettement meilleurs. Mais Gro for Thinking est un modèle colossal de plus d’un trillion de paramètres—soit 140 000 fois plus gros que le TRM. Même en tenant compte de cette différence, l’efficacité du TRM reste remarquable.

Pourquoi le raisonnement récursif fonctionne-t-il ? Le mécanisme derrière la magie

Comprendre pourquoi le raisonnement récursif est si efficace suppose de réfléchir à la nature des problèmes de raisonnement complexes. Beaucoup de ces tâches consistent à trouver une solution satisfaisant plusieurs contraintes ou à découvrir un motif sous-jacent. Ces problèmes ne peuvent généralement pas être résolus en une seule passe dans un réseau de neurones. Ils nécessitent une amélioration itérative : on produit une solution candidate, on la confronte aux contraintes, on identifie les points d’échec, puis on la raffine. C’est exactement ce que permet le raisonnement récursif. En maintenant à la fois une supposition courante et une trace de raisonnement, le modèle procède à cette amélioration itérative. La trace de raisonnement fait office de mémoire de travail, permettant au modèle de garder trace de ce qui a été tenté, de ce qui a fonctionné ou non. Cela diffère fondamentalement du fonctionnement des réseaux neuronaux classiques. Un réseau classique traite l’entrée couche par couche et produit une sortie, sans mécanisme pour revenir sur ses décisions antérieures ou pour conserver une trace du raisonnement suivi. Il ne peut pas dire « j’ai essayé ceci, ça n’a pas marché, essayons autrement ». Il produit une sortie, un point c’est tout. Le raisonnement récursif change cela en intégrant explicitement un mécanisme d’amélioration itérative et de mémoire du raisonnement. Cela permet au modèle d’adopter une démarche proche de celle des humains. Quand nous résolvons une énigme difficile, nous ne pensons pas qu’une seule fois avant de donner une réponse. Nous générons une solution, la vérifions, trouvons des problèmes, et l’affinons, parfois de nombreuses fois. Le raisonnement récursif permet aux réseaux neuronaux d’en faire autant. Autre point clé : le raisonnement récursif agit comme une forme de régularisation. En obligeant le modèle à maintenir une trace de raisonnement et à raffiner sa réponse, on le contraint à apprendre des solutions plus généralisables. Un modèle qui ne produit qu’une réponse en une passe risque de mémoriser des motifs spécifiques. Un modèle qui doit affiner sa réponse plusieurs fois et garder la trace de son raisonnement doit apprendre des principes fondamentaux applicables à de nouveaux problèmes. Cela explique pourquoi le TRM généralise aussi bien, même entraîné sur peu de données.

FlowHunt et l’automatisation des workflows de raisonnement complexe

Les implications du Tiny Recursive Model dépassent la recherche académique pour toucher les applications concrètes. Les organisations ont de plus en plus besoin d’automatiser des tâches de raisonnement complexe—analyse de données, reconnaissance de motifs, prise de décision, résolution de problèmes. Traditionnellement, ces tâches nécessitaient soit une expertise humaine, soit de gros modèles d’IA coûteux. Le Tiny Recursive Model ouvre de nouvelles perspectives pour automatiser ces tâches de façon efficace. FlowHunt, plateforme d’automatisation de workflows IA, peut tirer parti de ces modèles de raisonnement pour créer des solutions d’automatisation plus efficaces et abordables. Plutôt que de dépendre de modèles géants qui requièrent d’énormes ressources, FlowHunt peut intégrer des modèles petits et efficaces comme le TRM dans ses workflows. Cela permet de bâtir des systèmes intelligents capables de gérer des tâches de raisonnement complexe sans le coût des modèles massifs. Par exemple, imaginons un workflow analysant des données clients, identifiant des motifs et formulant des recommandations. Avec un grand modèle de langage classique, ce workflow serait coûteux à grande échelle. Intégré dans FlowHunt, un tiny recursive model permettrait d’effectuer la même tâche pour une fraction du coût. Le modèle pourrait raffiner son analyse de façon itérative, conserver une trace du raisonnement expliquant ses recommandations, et offrir une transparence totale sur ses conclusions. C’est particulièrement précieux dans les domaines où l’explicabilité est cruciale, comme la santé, la finance ou le juridique. La trace de raisonnement maintenue par le modèle récursif offre un historique clair du cheminement intellectuel suivi, facilitant la compréhension et la vérification des décisions du modèle. Enfin, l’efficacité des tiny recursive models rend possible le déploiement de capacités de raisonnement sur des appareils edge ou des dispositifs limités en ressources. Une application mobile pourrait intégrer des fonctions de raisonnement qui, hier encore, auraient requis un traitement dans le cloud. Cela ouvre de nouvelles perspectives pour des applications intelligentes fonctionnant hors-ligne ou avec une connectivité minimale.

Boostez vos workflows avec FlowHunt

Découvrez comment FlowHunt automatise vos contenus et workflows SEO IA — de la recherche à la publication et l’analyse — tout en un seul endroit.

Remettre en cause les lois de scaling : un changement de paradigme pour l’IA

Le succès du Tiny Recursive Model remet en cause l’un des postulats fondamentaux du développement de l’IA moderne : les lois de scaling qui ont guidé la discipline depuis une décennie. Ces lois prédisent que les performances s’améliorent avec la taille du modèle, la quantité de données et les ressources de calcul. Plus grand, c’est mieux. Plus de données, c’est mieux. Plus de calcul, c’est mieux. Ce postulat a conduit à la création de modèles toujours plus massifs, les entreprises investissant des milliards pour entraîner des modèles de centaines de milliards, voire de trillions de paramètres. Le Tiny Recursive Model suggère que cette hypothèse est incomplète, voire trompeuse dans certains cas. En adoptant une démarche architecturale différente—raisonnement récursif avec supervision profonde—un minuscule modèle peut rivaliser avec des modèles géants sur certaines tâches. Cela ne signifie pas que les lois de scaling sont fausses ; plutôt qu’il existe plusieurs voies vers la performance, et que l’augmentation de la taille n’est qu’une option parmi d’autres. Cela a de profondes implications pour l’avenir de l’IA. Si des petits modèles peuvent rivaliser grâce à des innovations architecturales, cela pourrait changer la façon dont les systèmes d’IA sont conçus et déployés. Au lieu de tout miser sur la taille, la discipline pourrait privilégier des architectures plus efficaces, capables d’excellentes performances avec peu de paramètres. Les bénéfices seraient majeurs pour l’environnement, l’efficacité computationnelle et l’accessibilité. L’entraînement et l’exécution de modèles massifs exigent énormément d’électricité et de ressources. Si des modèles minuscules offrent des performances équivalentes, l’impact écologique de l’IA serait réduit et elle deviendrait accessible même aux structures modestes. Le Tiny Recursive Model suggère aussi que le lien entre taille et généralisation est plus subtil qu’on ne le pensait. On croyait que les grands modèles généralisent mieux parce qu’ils captent plus de motifs complexes. Mais le TRM montre que des modèles petits peuvent généraliser mieux s’ils intègrent les bons biais inductifs. Grâce aux mécanismes d’amélioration itérative et de trace de raisonnement, le modèle est poussé à apprendre des solutions fondamentales. C’est la preuve que l’innovation architecturale peut parfois primer sur la taille brute.

Le principe de simplicité : moins, c’est plus

L’un des aspects les plus frappants du Tiny Recursive Model est sa simplicité. Il n’emploie que deux couches, et sa performance découle du raffinage récursif plus que de la complexité architecturale. Cette simplicité est un choix délibéré, fondé sur des résultats empiriques. Les chercheurs ont constaté que l’ajout de couches diminue la généralisation à cause du surapprentissage. Voilà qui va à l’encontre de la sagesse habituelle en deep learning. On pense généralement que les réseaux profonds sont plus puissants et capables d’apprendre des fonctions complexes. Pourtant, le TRM montre que pour les tâches de raisonnement, la profondeur via la récursion est plus efficace que par l’empilement de couches. Pourquoi ? Une explication est que plus de couches augmentent la capacité de mémorisation de motifs spécifiques, favorisant le surapprentissage. En gardant le réseau plat mais en multipliant les passes récursives, le modèle doit apprendre des solutions généralisables. Chaque étape exploite le même réseau à deux couches, qui doit donc apprendre à effectuer des calculs réutilisables. Cette contrainte pousse le réseau à extraire des principes fondamentaux, non à mémoriser des cas particuliers. Autre explication : la nature des tâches de raisonnement, faites d’affinements successifs et de satisfaction de contraintes. Un réseau peu profond, appliqué récursivement, excelle dans ce type de problème, en améliorant progressivement la solution. Un réseau profond, lui, tente de tout résoudre en une passe, ce qui marche moins bien pour ces tâches. La simplicité du TRM présente aussi des avantages pratiques. Les modèles simples sont plus faciles à comprendre, à déboguer et à modifier. Pour savoir pourquoi le modèle a pris telle décision, il suffit de retracer pas à pas son raisonnement. Pour l’adapter à de nouveaux problèmes, on peut cibler précisément l’architecture ou la procédure d’entraînement. À l’inverse, les modèles géants sont des boîtes noires difficiles à interpréter ou à adapter. Le principe du « moins, c’est plus » va au-delà de l’architecture. Les chercheurs ont aussi montré que le modèle n’a pas besoin de théorèmes mathématiques complexes ou de justifications biologiques pour fonctionner. Le HRM original s’appuyait sur des théorèmes du point fixe et des arguments sur le cerveau. Le TRM fonctionne sans cela : il se contente d’entretenir deux informations et de les raffiner. Parfois, la solution la plus simple est aussi la meilleure, et il ne faut pas surcompliquer nos modèles en leur cherchant des justifications théoriques superflues.

Implications pratiques et pistes d’avenir

Le succès du Tiny Recursive Model a des implications majeures pour le développement et le déploiement futurs des systèmes d’IA. Premièrement, il montre que l’efficacité doit être un objectif de conception central, pas une contrainte secondaire. Plutôt que de créer d’énormes modèles puis d’essayer de les compresser ou de les optimiser après coup, il faut penser à l’efficacité dès la conception. Le TRM prouve que l’on peut obtenir d’excellentes performances avec un modèle petit, si l’architecture est bien pensée. Deuxièmement, cela suggère que l’innovation architecturale peut primer sur la taille. Alors que le domaine s’est focalisé sur le scaling, le TRM montre que des innovations astucieuses dans l’architecture peuvent surpasser l’augmentation brute des paramètres. Cela pourrait remettre l’accent sur la conception architecturale, au détriment du « bigger is better » dominant. Troisièmement, cela montre que les capacités de raisonnement peuvent être intégrées par l’architecture, non par l’échelle. Le TRM obtient d’excellentes performances en raisonnement non parce qu’il est massif, mais parce qu’il intègre des mécanismes d’amélioration itérative et de trace de raisonnement. Cela ouvre de nouvelles approches pour bâtir des IA dotées de compétences de raisonnement. Quatrièmement, cela a des conséquences sur la façon d’évaluer les IA. Le benchmark ARC AGI s’est avéré précieux pour tester le raisonnement, et le succès du TRM sur ce benchmark suggère de poursuivre le développement de benchmarks qui testent un raisonnement authentique, pas seulement la reconnaissance de motifs ou le rappel de connaissances. Pour l’avenir, plusieurs axes de recherche s’offrent. L’un est de combiner le raisonnement récursif avec d’autres techniques, comme le chain-of-thought ou la génération augmentée par récupération. Un autre est d’appliquer le raisonnement récursif à d’autres types de problèmes. Un troisième est d’étudier comment passer à l’échelle sur des modèles plus gros, et voir si les mêmes principes s’appliquent. Un quatrième est de renforcer l’interprétabilité du raisonnement, pour que les utilisateurs comprennent toujours comment le modèle décide.

Conclusion

Le Tiny Recursive Model représente une avancée majeure en intelligence artificielle, montrant que des modèles petits et efficaces peuvent atteindre des performances supérieures sur des tâches de raisonnement complexe grâce à des innovations architecturales. En combinant raisonnement hiérarchique récursif et supervision profonde, le modèle atteint 45 % de précision sur ARC AGI 1 et 8 % sur ARC AGI 2 avec seulement 7 millions de paramètres—moins de 0,01 % de ceux de modèles de pointe comme Gemini 2.5 Pro. Ce résultat bouscule les certitudes sur le développement de l’IA, suggérant que l’innovation architecturale et l’efficacité doivent être aussi prioritaires que la taille. Les implications dépassent la recherche et touchent les applications concrètes, où des organisations peuvent automatiser des tâches complexes à une fraction du coût des modèles géants. À mesure que la discipline évolue, les principes démontrés par le Tiny Recursive Model—simplicité, raffinement itératif et architecture efficace—deviendront probablement essentiels pour la prochaine génération de systèmes d’IA.

Questions fréquemment posées

Qu’est-ce que le Tiny Recursive Model (TRM) ?

Le Tiny Recursive Model est un réseau neuronal de 7 millions de paramètres qui utilise le raisonnement hiérarchique récursif et la supervision profonde pour atteindre des performances supérieures sur des tâches de raisonnement complexes, surpassant des modèles bien plus grands comme Gemini 2.5 Pro et DeepSeek.

Comment le TRM surpasse-t-il les modèles plus grands ?

TRM adopte une approche novatrice combinant le raisonnement récursif (bouclant sur des étapes d’amélioration) et la supervision profonde (transmettant les caractéristiques apprises entre les étapes). Cela permet au petit modèle de réfléchir itérativement à des problèmes, à la manière du raisonnement humain, au lieu de prédire la réponse en une seule passe.

Quels sont les résultats sur les benchmarks ARC AGI ?

Le TRM atteint 45 % de précision sur ARC AGI 1 et 8 % sur ARC AGI 2, surpassant Gemini 2.5 Pro (4,9 %), DeepSeek R1 et Claude 3.7, tout en utilisant moins de 0,01 % de leurs paramètres.

Pourquoi le raisonnement récursif est-il plus efficace que le chain-of-thought ?

Le raisonnement récursif permet au modèle d’affiner sa réponse de façon itérative en maintenant deux éléments clés : sa supposition courante et la trace de son raisonnement. Cela crée une boucle de rétroaction où le modèle peut s’auto-critiquer et réviser plusieurs fois ses réponses, comme le font les humains pour résoudre des problèmes complexes par essais et corrections.

Comment la supervision profonde contribue-t-elle à la performance ?

La supervision profonde améliore la précision en fournissant des signaux de supervision à plusieurs étapes du processus de raisonnement. Au lieu de ne vérifier que la réponse finale, le modèle reçoit un retour à chaque étape intermédiaire, ce qui a doublé la précision de 19 % à 39 % lors des premières expériences.

Arshia est ingénieure en workflows d'IA chez FlowHunt. Avec une formation en informatique et une passion pour l’IA, elle se spécialise dans la création de workflows efficaces intégrant des outils d'IA aux tâches quotidiennes, afin d’accroître la productivité et la créativité.

Arshia Kahani
Arshia Kahani
Ingénieure en workflows d'IA

Automatisez vos workflows IA avec FlowHunt

Créez des flux d’automatisation intelligents tirant parti des modèles d’IA et techniques de raisonnement les plus avancés pour résoudre efficacement des problèmes complexes.

En savoir plus

Dans l’esprit de Llama 3.3 70B Versatile 128k en tant qu’agent IA
Dans l’esprit de Llama 3.3 70B Versatile 128k en tant qu’agent IA

Dans l’esprit de Llama 3.3 70B Versatile 128k en tant qu’agent IA

Découvrez les capacités avancées de Llama 3.3 70B Versatile 128k en tant qu’agent IA. Cette analyse approfondie examine son raisonnement, sa résolution de probl...

9 min de lecture
AI Agent Llama 3 +5