La Décennie des Agents IA : Karpathy sur la feuille de route de l'AGI

La Décennie des Agents IA : Karpathy sur la feuille de route de l'AGI

AI AGI Agents Machine Learning

Introduction

Andrej Karpathy, l’une des figures les plus influentes de l’intelligence artificielle et ancien directeur de l’IA chez Tesla, a récemment fait la une en déclarant que l’intelligence artificielle générale (AGI) reste à environ 10 à 15 ans. Cette perspective contraste fortement avec l’optimisme ambiant de la Silicon Valley et des passionnés d’IA, qui proclament régulièrement que des capacités d’IA transformatrices sont imminentes. Plutôt que de minimiser les avancées remarquables des grands modèles de langage depuis fin 2022, Karpathy propose une évaluation plus nuancée et réaliste de notre véritable position dans la progression de l’IA. Son analyse révèle un écart critique entre les performances impressionnantes des systèmes actuels et le travail considérable restant pour atteindre une intelligence générale artificielle réelle. Dans cette exploration approfondie, nous examinerons le raisonnement détaillé de Karpathy sur les échéances de l’AGI, la distinction entre « l’année des agents » et « la décennie des agents », les différences fondamentales entre l’apprentissage des LLM et celui des systèmes biologiques, et pourquoi il reste sceptique vis-à-vis d’approches populaires comme l’apprentissage par renforcement en tant que voie principale. Comprendre ces points de vue est essentiel pour quiconque souhaite appréhender la trajectoire réaliste du développement de l’IA et les défis à venir.

Thumbnail for Andrej Karpathy sur les échéances de l’AGI et la décennie des agents IA

Comprendre l’Intelligence Artificielle Générale : au-delà des capacités actuelles

L’intelligence artificielle générale désigne un état théorique dans lequel un système IA peut comprendre, apprendre et appliquer des connaissances dans n’importe quel domaine intellectuel avec la même flexibilité et capacité d’adaptation qu’un humain. Contrairement aux systèmes d’IA étroits, spécialisés dans une tâche (comme jouer aux échecs, reconnaître des images ou générer du texte), l’AGI pourrait transférer des apprentissages entre domaines, résoudre des problèmes inédits sans entraînement explicite et démontrer de réelles capacités de raisonnement. La distinction entre les modèles de langage actuels et une AGI véritable n’est pas qu’une question d’échelle ou de performances : c’est une différence fondamentale dans leur fonctionnement et leurs possibilités. Les LLM actuels, malgré leur aptitude impressionnante à générer du texte cohérent, répondre à des questions complexes ou écrire du code, sont fondamentalement des systèmes de reconnaissance de motifs, entraînés sur des volumes massifs de données issues d’Internet. Ils excellent à interpoler dans l’espace de leurs données d’entraînement, mais peinent à extrapoler véritablement ou à résoudre des problèmes nouveaux de la manière dont un humain doté d’intelligence générale le ferait. Atteindre l’AGI exigera non seulement de meilleurs modèles, mais aussi de nouvelles approches de l’apprentissage, du raisonnement et de l’interaction avec le monde. D’où l’importance de l’évaluation de Karpathy sur une échéance de plus de 10 ans : elle reconnaît à la fois les progrès réels et l’ampleur des défis restants, qui ne pourront être surmontés par de simples améliorations incrémentales.

Pourquoi l’industrie de l’IA sous-estime-t-elle les délais de développement ?

Le secteur technologique a une longue tradition de surestimation des progrès à court terme et de sous-estimation des transformations à long terme. Pour l’IA, cela se traduit par un décalage entre les prouesses démontrées par les modèles de pointe et leur déploiement effectif dans des systèmes économiquement utiles. Lorsque OpenAI, Google ou d’autres laboratoires présentent de nouveaux modèles aux capacités remarquables, les médias et les investisseurs extrapolent souvent vers un impact immédiat dans le monde réel. Pourtant, passer d’un modèle performant à un système fiable, déployé et générateur de valeur implique de nombreux défis souvent occultés par l’enthousiasme des avancées techniques. Ces défis incluent la construction d’une infrastructure robuste, l’intégration aux processus métiers existants, la prise en compte des enjeux de sécurité, le développement d’interfaces utilisateurs adaptées, et, surtout, la résolution du « problème de structuration », c’est-à-dire l’écart entre les capacités brutes du modèle et les applications pratiques. Karpathy adopte une vision mature de cet écart, nourrie par son expérience à grande échelle. Il remarque que ceux qui œuvrent au cœur du développement IA — dans les laboratoires, entreprises technologiques ou communautés spécialisées — sont souvent les plus optimistes sur les délais, avec un biais de cinq à dix fois trop courts. Cet optimisme s’explique par la proximité avec les capacités de pointe et la sous-estimation des difficultés d’intégration. À l’inverse, les sceptiques minimisent les progrès accomplis. Karpathy choisit délibérément une position intermédiaire, reconnaissant à la fois les vraies avancées et l’ampleur du travail restant.

La distinction entre l’année des agents et la décennie des agents

L’une des clarifications majeures de Karpathy concerne la terminologie autour des agents IA. Lorsque certains leaders affirment que « 2025 sera l’année des agents », ils signifient que les agents IA seront au centre de l’attention, des investissements et des premiers usages. C’est très probablement exact — on observe déjà un intérêt grandissant pour les systèmes agentiques, avec des outils comme Operator d’OpenAI capables de contrôler des navigateurs web et d’effectuer des tâches pour l’utilisateur. Mais Karpathy estime que, si 2025 sera l’année où les agents captent l’attention du grand public, leur développement et leur diffusion véritables, pour devenir des outils réellement utiles, fiables et économiquement précieux, prendront une décennie entière. Cette nuance est essentielle : elle sépare le cycle du battage médiatique de la maturation technologique authentique. La « décennie des agents » désigne la période nécessaire à l’élaboration des infrastructures, bonnes pratiques, mécanismes de sécurité et modèles d’intégration pour ces systèmes agentiques. Au cours de cette décennie, les agents passeront de simples démonstrations impressionnantes à des outils fiables, indispensables aux entreprises et aux particuliers pour des tâches critiques. Cette chronologie suit d’ailleurs l’histoire de l’adoption des technologies — Internet a focalisé l’attention dans les années 1990, mais n’a transformé l’économie qu’à partir des années 2000 et 2010. De même, l’impact économique réel des agents IA émergera progressivement au fil de la décennie.

Agents IA vs robots humanoïdes : automatisation digitale vs physique

Karpathy établit un parallèle éclairant entre les agents IA du monde numérique et les robots humanoïdes du monde physique. Les deux cherchent à créer des systèmes polyvalents capables d’exécuter des tâches variées via une interface conçue par l’homme : navigateur web et clavier/souris pour les agents, corps humain doté de capteurs/actionneurs pour les robots. Ce parallèle montre pourquoi les agents digitaux pourraient atteindre une utilité pratique bien plus rapidement que les robots physiques, même si le monde matériel offre des opportunités de marché potentiellement supérieures. L’idée clé : manipuler de l’information numérique coûte environ mille fois moins que manipuler la matière physique. Un agent IA peut réaliser des millions de tâches sur Internet avec un coût computationnel minime, alors qu’un robot humanoïde doit se déplacer, manipuler des objets et composer avec les lois de la physique. Cette différence de coût fait que les agents digitaux seront probablement viables économiquement et largement déployés bien avant les robots humanoïdes. Mais Karpathy nuance : le marché du physique sera peut-être, à terme, plus vaste que le numérique. Le travail de la connaissance — domaine des agents digitaux — représente un vaste secteur, mais l’automatisation physique pourrait transformer la fabrication, la construction, la logistique et bien d’autres industries. L’engouement actuel pour les agents digitaux reflète la faisabilité technique et l’opportunité économique immédiate dans l’automatisation des tâches intellectuelles. Au fur et à mesure de leur maturation, les ressources et les enseignements acquis accéléreront probablement les progrès en robotique physique, créant un monde d’autonomie mixte où l’humain supervise des automatisations à tous les niveaux, tant numériques que matériels.

FlowHunt et l’avenir de l’orchestration des agents IA

Alors que les organisations commencent à mettre en œuvre des agents IA, la question de l’orchestration — gérer plusieurs agents, leurs interactions et garantir leur fiabilité — devient cruciale. C’est là qu’interviennent des plateformes comme FlowHunt, essentielles dans la nouvelle infrastructure de l’IA. FlowHunt permet aux équipes de concevoir, tester et déployer des workflows IA complexes, combinant plusieurs agents et modèles. Plutôt que d’exploiter chaque capacité IA isolément, FlowHunt offre la possibilité de bâtir des chaînes d’automatisation sophistiquées, intégrant recherche, génération de contenu, analyse et prise de décision dans des systèmes cohérents. La plateforme s’attaque à bon nombre des défis de structuration identifiés par Karpathy pour la décennie des agents. Grâce à des outils de conception, de suivi et d’optimisation des workflows, FlowHunt comble l’écart entre capacités IA impressionnantes et applications économiques concrètes. À mesure que la décennie des agents progresse, les plateformes capables d’orchestrer efficacement ces systèmes agentiques prendront une valeur croissante, permettant aux organisations de maximiser la valeur de leurs investissements IA tout en conservant contrôle, transparence et fiabilité.

Le cadre animaux vs esprits : comprendre l’apprentissage des LLM

L’une des contributions les plus stimulantes de Karpathy au débat sur l’IA est sa distinction entre l’apprentissage animal et celui des grands modèles de langage. Ce cadre éclaire à la fois les capacités et les limites des systèmes actuels. Les animaux, humains compris, naissent avec une intelligence innée considérable, codée dans leur ADN par des millions d’années d’évolution. Un zèbre nouveau-né, par exemple, sait se lever et marcher en quelques heures — une prouesse qui requiert compréhension de l’équilibre, du contrôle moteur et de l’espace. Ce savoir n’est pas appris, il est hérité. L’apprentissage réalisé par les animaux est relativement minime en comparaison : ils affinent leurs instincts, s’adaptent à leur environnement, développent des compétences dans le cadre de leur héritage évolutif. Les modèles de langage, eux, apprennent différemment. Plutôt qu’hériter de connaissances évolutives, les LLM sont entraînés sur de vastes corpus textuels via la prédiction du mot suivant : ils apprennent à prédire la suite d’une séquence. Cette méthode s’est avérée remarquablement efficace pour capter les motifs du langage humain, mais relève d’un mécanisme que Karpathy compare davantage à des « esprits » qu’à un apprentissage biologique. Les LLM ne possèdent pas le savoir incarné des animaux ; ils absorbent des motifs issus de textes humains. Cette distinction a des implications majeures pour comprendre leurs forces et faiblesses.

Le problème de la mémorisation : pourquoi les LLM ne généralisent-ils pas encore ?

Une limite essentielle des LLM actuels, selon Karpathy, est leur tendance à mémoriser plutôt qu’à généraliser. Bien que ces modèles affichent des performances impressionnantes sur les benchmarks ou en pratique, leur succès provient souvent d’avoir déjà vu des motifs similaires lors de l’entraînement, plus que d’une réelle compréhension ou généralisation. La véritable généralisation consisterait à appliquer des principes appris à des situations inédites, très différentes des données de formation. D’où l’importance de benchmarks comme le ARC Prize (Abstraction and Reasoning Corpus), qui testent spécifiquement la généralisation. La différence entre mémorisation et généralisation n’est pas qu’une question académique : elle est fondamentale pour atteindre l’AGI. Un système qui mémorise excelle sur des tâches proches des données d’entraînement, mais échouera face à des problèmes vraiment nouveaux. La généralisation réelle requiert des mécanismes d’apprentissage fondamentalement différents de ceux utilisés aujourd’hui pour les LLM. Le scepticisme de Karpathy sur la trajectoire actuelle vers l’AGI vient en partie de ce constat : nous avons construit d’impressionnants moteurs à mémoriser, mais pas encore percé le secret de la généralisation authentique. Les modèles sont des « esprits » dans le sens où ils absorbent des motifs, sans la compréhension profonde et le raisonnement flexible de l’intelligence biologique. Passer de la mémorisation à la généralisation impliquera non seulement de meilleures données ou des modèles plus grands, mais aussi de nouvelles méthodes d’apprentissage, plus proches de la manière dont les systèmes biologiques développent une compréhension via l’interaction avec le monde.

L’apprentissage par renforcement : promesses et limites

L’apprentissage par renforcement (RL) est devenu central dans la quête de l’AGI, avec des entreprises comme OpenAI, DeepMind ou d’autres misant beaucoup sur cette approche. Pourtant, Karpathy exprime un scepticisme marqué envers le RL comme voie principale, tout en reconnaissant son potentiel. Sa critique touche plusieurs limites fondamentales du RL actuel. D’abord, il évoque la « supervision à travers une paille » : le rapport signal/bruit du RL est très faible, c’est-à-dire que la quantité d’apprentissage par unité de calcul est limitée. Cette inefficacité devient problématique à l’échelle de tâches complexes. Ensuite, Karpathy pointe la difficulté des récompenses basées sur le résultat final. Un modèle qui ne reçoit un feedback qu’à la fin de sa démarche apprend mal des étapes intermédiaires. Par exemple, un modèle résolvant un problème de maths avec plusieurs raisonnements intermédiaires faux, mais une bonne réponse finale, verra toute sa démarche (y compris les erreurs) récompensée. Cela introduit un signal d’apprentissage bruité, pouvant renforcer de mauvais raisonnements. Les récompenses de processus tentent de corriger cela, mais introduisent d’autres problèmes : si un modèle fait cinq étapes correctes mais une mauvaise réponse finale, le signal devient contradictoire. Karpathy ne dit pas que le RL est inutile, mais qu’il n’est pas la clé pour atteindre l’AGI. Il se dit « long sur l’interaction agentique, mais court sur le RL », suggérant que d’autres paradigmes d’apprentissage seront plus efficaces. Cette position, à contre-courant de l’enthousiasme du secteur pour le RL, témoigne d’une compréhension profonde des défis techniques liés à l’extension du RL vers l’intelligence générale.

Interaction agentique et modèles du monde : l’alternative

Si Karpathy est sceptique vis-à-vis du RL comme voie principale vers l’AGI, quelle alternative juge-t-il plus prometteuse ? Il mise sur l’interaction agentique et les modèles du monde. Plutôt que d’apprendre à partir de données statiques ou de récompenses finales, les agents pourraient apprendre par interaction avec des environnements simulés ou réels, développant progressivement des modèles sophistiqués du fonctionnement du monde. Cette approche a fait ses preuves en recherche IA. DeepMind, par exemple, a conçu des systèmes maîtres de jeux complexes comme Go grâce à des agents s’entraînant contre eux-mêmes dans des environnements simulés, progressant par interaction plutôt que par démonstration humaine. Les modèles du monde sont particulièrement prometteurs : il s’agit de représentations apprises du fonctionnement du monde — physique, causalité, dynamique. Un agent doté d’un modèle du monde peut anticiper les conséquences de ses actes, planifier plusieurs étapes et transférer ses connaissances entre domaines plus efficacement qu’un système sans modèle du monde. Les travaux récents de DeepMind (Genie), NVIDIA (Cosmos), Meta (V-JEPA) ou Wayve (GAIA-2) montrent l’investissement croissant dans ce domaine. Ces systèmes apprennent à prédire l’évolution de scènes visuelles en fonction des actions de l’agent, créant un terrain de jeu propice à l’expérimentation et à l’apprentissage. Ce mode d’apprentissage ressemble davantage à celui des systèmes biologiques : expérimenter activement et observer les conséquences. Il s’attaque aussi plus directement au défi de la généralisation, car comprendre les relations causales et la dynamique du monde s’applique mieux à des situations inédites que de simples motifs mémorisés.

L’apprentissage par prompt système : un nouveau cap pour l’IA

Karpathy évoque ses travaux sur « l’apprentissage par prompt système », une évolution importante dans la manière d’envisager l’entraînement et l’adaptation des IA. Cela consiste à façonner le comportement et les capacités d’un système IA grâce à la conception du prompt système — les instructions et le contexte fournis au modèle au début d’une interaction. Plutôt que d’exiger un coûteux ré-entraînement ou ajustement, l’apprentissage par prompt laisse envisager une adaptation et une amélioration du système par optimisation des prompts. Cette idée est cruciale pour la décennie des agents. À mesure que les organisations déploient des agents pour divers usages, il leur faudra des méthodes pour les adapter à des domaines ou cas spécifiques sans devoir tout réentraîner. L’apprentissage par prompt système offre une approche scalable : concevoir des prompts qui intègrent expertise métier, spécifications, lignes de conduite, permet de créer des agents spécialisés à partir de modèles généralistes. Cela s’inscrit dans la logique de la structuration : toute l’infrastructure et les outils intermédiaires qui relient les capacités brutes des modèles et les applications concrètes. L’apprentissage par prompt fait partie de cette couche, permettant un maximum de valeur sans expertise technique lourde en entraînement de modèles. Karpathy note que plusieurs travaux récents « vont dans la bonne direction » dans ce domaine, signe d’un intérêt croissant dans la recherche.

Le problème de la structuration : pourquoi l’infrastructure compte plus que les modèles

L’un des points majeurs de l’analyse de Karpathy est l’importance du « problème de structuration » : l’écart entre les capacités brutes des modèles et leur transformation en applications à valeur économique. Aussi appelé « overhang de modèle », ce concept reconnaît que les modèles de pointe actuels possèdent des capacités bien supérieures à ce qui est effectivement déployé ou monétisé. L’intelligence est présente, mais il manque encore outils, infrastructure, systèmes de mémoire et schémas d’intégration pour exploiter pleinement ce potentiel. La structuration englobe de nombreux éléments : APIs et interfaces robustes, systèmes de mémoire permettant aux agents de garder le contexte et d’apprendre de leurs expériences, outils de suivi pour comprendre le comportement des agents, mécanismes de sécurité, schémas d’intégration aux systèmes métiers, interfaces utilisateurs rendant les agents accessibles aux non-techniciens. La décennie des agents sera largement consacrée à bâtir cette structuration. Entreprises et chercheurs élaboreront des bonnes pratiques, outils et plateformes pour faciliter le développement d’agents, définiront des standards de sécurité, intègreront ces systèmes dans l’écosystème technologique. Ce travail, discret mais essentiel, permet de transformer les capacités IA en valeur réelle. L’accent mis par Karpathy sur la structuration traduit une vision mature du développement technologique : les percées sont nécessaires mais insuffisantes pour l’impact réel. Les acteurs qui construiront cette couche intermédiaire capteront une grande partie de la valeur de la décennie des agents, même sans posséder les modèles les plus avancés.

Le travail restant : sécurité, intégration et société

Au-delà des défis techniques liés à la structuration et à la généralisation, Karpathy identifie d’autres catégories de travail nécessaires avant d’atteindre l’AGI. La sécurité et la sûreté sont cruciales. À mesure que les agents deviennent plus autonomes, il faut garantir leur fonctionnement sûr : empêcher les « jailbreaks » (tentatives de contourner les règles), se prémunir contre les attaques par empoisonnement (corruption des données ou du comportement), développer des mécanismes d’alignement robustes. L’intégration sociétale est un autre volet essentiel. Le déploiement d’agents IA toujours plus puissants aura des répercussions majeures sur l’emploi, l’éducation, les inégalités, les structures sociales. Concevoir des politiques, réglementations et cadres sociaux adaptés implique l’intervention de décideurs, éthiciens, chercheurs en sciences sociales et du grand public. Ce travail prendra du temps, probablement bien au-delà de la décennie des agents. L’intégration au monde physique pose également des défis : si les agents digitaux opèrent dans le numérique, de nombreuses applications utiles requièrent une interaction avec le monde matériel — robots, processus industriels, logistique. Cela exige non seulement des IA performantes, mais aussi capteurs, actionneurs et infrastructures adaptés. La recherche à mener reste considérable : malgré les prouesses actuelles, des questions fondamentales subsistent sur la généralisation, le raisonnement causal, la capacité à apprendre et s’adapter en continu, la mise à l’échelle pour gérer la complexité du réel. L’estimation de Karpathy sur 10+ ans reflète l’ampleur du travail à accomplir à tous ces niveaux.

Boostez vos workflows avec FlowHunt

Découvrez comment FlowHunt automatise vos workflows de contenu et SEO IA — de la recherche à la génération de contenu, la publication et l’analyse — le tout en un seul endroit.

Se positionner entre les extrêmes : une perspective équilibrée sur l’IA

L’analyse de Karpathy se distingue par sa volonté de se situer entre deux pôles : l’optimisme débridé des enthousiastes qui voient l’AGI arriver en quelques années, et le scepticisme de ceux qui minimisent les progrès réels. Il décrit ses propres prévisions comme « cinq à dix fois plus pessimistes » que celles entendues dans les cercles IA, mais « extrêmement optimistes » face au scepticisme ambiant. Cette position équilibrée repose sur plusieurs constats. D’abord, les progrès des modèles de langage depuis deux ans sont spectaculaires : GPT-4, Claude et d’autres offrent un bond réel en capacités, capables de raisonnement complexe, de programmation, d’analyse documentaire, d’aide créative — autant de tâches qui relevaient de la science-fiction il y a peu. Ce progrès est bien réel. Mais il demeure une montagne de travail entre les capacités actuelles et l’AGI véritable : l’écart entre les démonstrations impressionnantes et les systèmes fiables, déployables et générateurs de valeur est vaste. Les défis de généralisation, sécurité, intégration, déploiement ne sont pas marginaux, et ne seront pas résolus par simples itérations. Enfin, l’industrie cède souvent aux cycles d’hype, entre espoirs excessifs et déceptions. À chaque lancement marquant, médias et investisseurs extrapolent vers des impacts directs, un schéma répété dans l’histoire de l’IA. La perspective modérée de Karpathy vise à éviter l’excès d’optimisme comme la négation des avancées. Son échéance de 10+ ans pour l’AGI n’est pas une prophétie mais une estimation réaliste de l’ampleur du travail, fondée sur une grande expérience pratique.

L’opportunité économique de la décennie des agents

Même si Karpathy insiste sur les défis techniques à venir, il souligne l’opportunité économique colossale de la décennie des agents. Même sans AGI à court terme, le développement d’agents toujours plus capables et utiles créera une valeur immense. Les entreprises qui réussiront à déployer des agents pour le service client, la création de contenu, l’analyse de données, le développement logiciel et bien plus encore, prendront un avantage compétitif. Les secteurs seront transformés par l’automatisation des tâches cognitives routinières. De nouveaux modèles économiques naîtront autour du développement, du déploiement et de la gestion d’agents. Les plateformes qui construiront la couche de structuration — outils, bonnes pratiques, infrastructure pour le développement d’agents — capteront une grande partie de la valeur. C’est précisément la position de FlowHunt comme infrastructure essentielle de cette économie émergente des agents. En rendant plus facile la création, le test, le déploiement et la gestion de workflows IA, FlowHunt permet à chacun de participer à la décennie des agents sans expertise technique avancée. L’opportunité ne dépend pas de l’AGI : elle découle de la montée en puissance d’agents capables de résoudre des problèmes métiers concrets.

Implications pour la stratégie et l’investissement IA

L’analyse de Karpathy a plusieurs conséquences pour la stratégie et l’investissement IA des organisations. D’abord, elle suggère de se concentrer sur la création de valeur à court terme via des applications pratiques, plutôt que tout miser sur une percée AGI. Les entreprises qui prospéreront durant la décennie des agents seront celles qui déploieront effectivement des agents, apprendront du retour terrain et amélioreront continuellement leurs systèmes. Ensuite, l’importance de l’infrastructure et des outils est majeure : les plateformes, outils et bonnes pratiques rendant le développement d’agents accessible capteront plus de valeur que les seuls développeurs de modèles. Car la structuration est le goulet d’étranglement qui empêche la transformation des capacités existantes en valeur. Troisièmement, le chemin vers l’AGI passera probablement par de multiples approches, pas par une percée unique. Le scepticisme de Karpathy envers le RL comme unique voie, couplé à son intérêt pour l’interaction agentique et les modèles du monde, invite à la diversification stratégique. Enfin, l’accent mis sur la sécurité, la robustesse et une IA responsable est crucial : plus les agents sont autonomes, plus il est vital de garantir leur alignement avec les valeurs humaines. Les organisations qui investissent tôt dans la sécurité seront mieux placées à long terme.

Conclusion

Le constat d’Andrej Karpathy selon lequel l’AGI reste à plus de 10 ans, tandis que la prochaine décennie sera celle des agents, offre une vision ancrée et nuancée de l’état actuel et du futur de l’intelligence artificielle. Son analyse reconnaît à la fois les percées récentes des grands modèles de langage et l’ampleur du travail restant en matière de structuration, généralisation, sécurité et intégration. La distinction entre « l’année des agents » et « la décennie des agents » traduit une réalité : si les agents IA vont bientôt capter l’attention, leur impact économique réel et leur maturité se joueront sur une période plus longue. Son cadre opposant l’apprentissage animal et celui des LLM éclaire les forces et les limites actuelles, tandis que son scepticisme sur le RL et son enthousiasme pour l’interaction agentique et les modèles du monde pointent des voies de recherche prometteuses. Par-dessus tout, l’accent mis sur le problème de la structuration — l’écart entre les capacités brutes et les applications concrètes — identifie le vrai goulot du développement IA. Les entreprises, plateformes et chercheurs qui réussiront à bâtir cette couche intermédiaire joueront un rôle clé dans la conversion des capacités IA en valeur économique durant la décennie des agents. Plutôt que d’attendre l’AGI, les organisations doivent se concentrer sur le déploiement d’agents toujours plus capables, l’apprentissage par l’expérience et l’amélioration continue. La décennie des agents représente une opportunité immense pour ceux qui comprennent à la fois les progrès accomplis et le chemin restant.

Questions fréquemment posées

Pourquoi Andrej Karpathy affirme-t-il que l’AGI est dans 10 ans ou plus alors que d’autres prédisent plus tôt ?

Karpathy distingue les capacités remarquables des LLM de l’intelligence générale artificielle véritable. Bien que les modèles actuels montrent des performances impressionnantes, il reste beaucoup à faire en matière de structuration, d’intégration, de sécurité et d’atteinte d’une véritable généralisation plutôt qu’une simple mémorisation. Il se positionne entre les optimistes et les pessimistes extrêmes.

Quelle est la différence entre « l’année des agents » et « la décennie des agents » ?

« L’année des agents » désigne le moment où les agents IA deviennent le centre d’attention et connaissent leurs premières applications. « La décennie des agents » représente le cycle de développement complet nécessaire pour créer des agents vraiment utilisables, précieux et qui se diffusent économiquement dans tous les secteurs.

Comment les LLM apprennent-ils différemment des animaux ?

Les animaux sont dotés d’une intelligence évolutive dès la naissance et apprennent très peu. Les LLM apprennent via la prédiction du prochain token sur les données Internet, ce qui les rend plus proches d’« esprits » que d’animaux. Cette approche limite la généralisation et nécessite une structuration différente pour devenir plus proches du mode d’apprentissage animal.

Pourquoi Karpathy est-il sceptique quant à l’apprentissage par renforcement comme voie principale vers l’AGI ?

Karpathy estime que les récompenses basées sur le résultat en RL présentent un mauvais rapport signal/bruit et peinent à gérer les étapes intermédiaires. Les récompenses de processus aident mais restent limitées. Il pense que l’interaction agentique et les modèles du monde sont des approches plus prometteuses pour parvenir à une généralisation authentique.

Arshia est ingénieure en workflows d'IA chez FlowHunt. Avec une formation en informatique et une passion pour l’IA, elle se spécialise dans la création de workflows efficaces intégrant des outils d'IA aux tâches quotidiennes, afin d’accroître la productivité et la créativité.

Arshia Kahani
Arshia Kahani
Ingénieure en workflows d'IA

Automatisez vos workflows IA avec FlowHunt

Créez des workflows intelligents d’agents IA qui apprennent et s’adaptent. FlowHunt vous aide à orchestrer des processus IA complexes, de la recherche au déploiement.

En savoir plus