
AI-veiligheid en AGI: Anthropics waarschuwing over kunstmatige algemene intelligentie
Ontdek de zorgen van Anthropic-medeoprichter Jack Clark over AI-veiligheid, situationeel bewustzijn in grote taalmodellen en het regelgevend landschap dat de to...

Ontdek Andrej Karpathy’s genuanceerde visie op AGI-tijdlijnen, AI-agenten en waarom het komende decennium cruciaal zal zijn voor de ontwikkeling van kunstmatige intelligentie. Begrijp het verschil tussen hype en werkelijkheid in AI-vooruitgang.
Andrej Karpathy, een van de meest invloedrijke figuren in kunstmatige intelligentie en voormalig directeur AI bij Tesla, haalde onlangs de krantenkoppen met zijn uitspraak dat kunstmatige algemene intelligentie (AGI) nog ongeveer 10 tot 15 jaar van ons verwijderd is. Dit standpunt staat in scherp contrast met het heersende optimisme in Silicon Valley en onder AI-enthousiastelingen, die vaak beweren dat transformerende AI-capaciteiten om de hoek liggen. In plaats van de opmerkelijke vooruitgang met grote taalmodellen sinds eind 2022 te negeren, biedt Karpathy een meer genuanceerde en realistische inschatting van waar we daadwerkelijk staan in de AI-ontwikkelingsreis. Zijn analyse onthult een cruciale kloof tussen de indrukwekkende mogelijkheden van huidige AI-systemen en het aanzienlijke werk dat nodig is om echte kunstmatige algemene intelligentie te bereiken. In deze uitgebreide verkenning bekijken we Karpathy’s gedetailleerde redeneringen over AGI-tijdlijnen, het onderscheid tussen het “jaar van de agenten” en het “decennium van de agenten”, de fundamentele verschillen tussen hoe LLM’s en biologische systemen leren, en waarom hij sceptisch blijft over bepaalde populaire benaderingen zoals reinforcement learning als belangrijkste route. Inzicht in deze inzichten is essentieel voor iedereen die het realistische traject van AI-ontwikkeling en de uitdagingen die voor ons liggen wil begrijpen.
Kunstmatige algemene intelligentie vertegenwoordigt een theoretische staat waarin een AI-systeem kennis kan begrijpen, leren en toepassen over elk intellectueel domein met dezelfde flexibiliteit en aanpasbaarheid als een mens. In tegenstelling tot smalle AI-systemen die uitblinken in specifieke taken—zoals schaken, beeldherkenning of tekstgeneratie—zou AGI het vermogen bezitten om leren van het ene domein naar het andere over te dragen, nieuwe problemen zonder expliciete training op te lossen en daadwerkelijk redeneervermogen te tonen. Het onderscheid tussen huidige grote taalmodellen en echte AGI is niet slechts een kwestie van schaal of prestatiestatistieken; het is een fundamenteel verschil in hoe deze systemen functioneren en wat ze kunnen bereiken. Huidige LLM’s, ondanks hun indrukwekkende vaardigheden om samenhangende tekst te genereren, complexe vragen te beantwoorden en zelfs code te schrijven, zijn fundamenteel patroonherkenningssystemen getraind op enorme hoeveelheden internetdata. Ze excelleren in interpolatie binnen hun trainingsdata, maar worstelen met echte extrapolatie en het oplossen van nieuwe problemen op manieren die voor een mens met algemene intelligentie triviaal zouden zijn. De weg naar AGI vereist niet alleen betere modellen, maar geheel nieuwe benaderingen van leren, redeneren en interactie met de wereld. Daarom is Karpathy’s inschatting van een tijdlijn van 10+ jaar significant—het erkent zowel de echte vooruitgang die is geboekt als de aanzienlijke resterende uitdagingen die niet door louter incrementele verbeteringen kunnen worden overwonnen.
De technologiesector heeft een goed gedocumenteerde geschiedenis van het overschatten van kortetermijnvooruitgang, terwijl het de langetermijntransformatie onderschat. In de context van AI uit zich dit in een kloof tussen de indrukwekkende mogelijkheden die door toonaangevende modellen worden getoond en de daadwerkelijke implementatie hiervan in economisch waardevolle systemen. Wanneer OpenAI, Google en andere labs nieuwe modellen aankondigen met opmerkelijke vaardigheden, extrapoleren media en investeerders deze capaciteiten vaak naar onmiddellijke impact in de echte wereld. Maar de reis van een capabel model naar een betrouwbaar, economisch waardevol systeem kent talloze uitdagingen die vaak worden overgeslagen in de opwinding rond technische doorbraken. Deze uitdagingen omvatten het bouwen van robuuste infrastructuur, integratie met bestaande bedrijfsprocessen, het aanpakken van veiligheids- en beveiligingskwesties, het ontwikkelen van geschikte gebruikersinterfaces en vooral het oplossen van het “scaffolding-probleem”—de kloof tussen ruwe modelcapaciteiten en praktische toepassingen. Karpathy’s visie weerspiegelt een volwassen begrip van deze kloof, gevormd door zijn ervaring met het bouwen van AI-systemen op schaal. Hij erkent dat de mensen die het meest betrokken zijn bij AI-ontwikkeling—of dat nu in onderzoekslabs, techbedrijven of AI-gemeenschappen is—de neiging hebben het meest optimistisch te zijn over de tijdlijnen, vaak met een factor vijf tot tien. Dit optimisme komt voort uit nabijheid tot de allernieuwste mogelijkheden en het onderschatten van integratieproblemen. Ondertussen negeren sceptici en AI-ontkenners de echte vooruitgang die is geboekt en waarderen ze niet hoe ver het veld is gekomen. Karpathy positioneert zich bewust in het midden, waarbij hij zowel de echte doorbraken als het aanzienlijke resterende werk erkent.
Een van Karpathy’s belangrijkste verduidelijkingen betreft de terminologie rond AI-agenten. Wanneer leiders beweren dat “2025 het jaar van de agenten is”, bedoelen ze meestal dat AI-agenten een belangrijk aandachtspunt, investeringsdoel en startpunt voor implementatie worden. Dit is vrijwel zeker waar—er is al veel interesse in agentische systemen, met bedrijven als OpenAI die tools als Operator uitbrengen die webbrowsers kunnen bedienen en taken namens gebruikers kunnen uitvoeren. Karpathy stelt echter dat, hoewel 2025 inderdaad het jaar kan zijn waarin agenten de mainstream aandacht trekken, de daadwerkelijke ontwikkeling en verspreiding van echt nuttige, betrouwbare en economisch waardevolle agenten een heel decennium zal duren. Dit onderscheid is cruciaal omdat het hypecycli scheidt van echte technologische rijping. Het “decennium van de agenten” staat voor de periode waarin de infrastructuur, best practices, veiligheidsmechanismen en integratiepatronen voor agenten worden ontwikkeld en verfijnd. In dit decennium zien we agenten evolueren van indrukwekkende demonstraties naar betrouwbare tools waar bedrijven en individuen voor kritieke taken op vertrouwen. Deze tijdlijn komt overeen met historische patronen van technologieadoptie—het internet kwam in de jaren ‘90 in de belangstelling, maar het duurde tot de jaren 2000 en 2010 voordat het werkelijk de economie transformeerde. Op dezelfde manier trekken AI-agenten misschien in 2025 de aandacht, maar hun echte economische impact ontvouwt zich in het volgende decennium.
Karpathy trekt een fascinerende parallel tussen AI-agenten in de digitale wereld en humanoïde robots in de fysieke wereld. Beide zijn pogingen om algemene systemen te creëren die willekeurige taken kunnen uitvoeren via een door mensen ontworpen interface—bij agenten een webbrowser en toetsenbord/muis; bij robots een menselijk lichaam met sensoren en actuatoren. Deze vergelijking maakt duidelijk waarom digitale agenten waarschijnlijk sneller praktische waarde bereiken dan fysieke robots, ondanks dat de fysieke wereld misschien grotere marktkansen biedt. Het sleutelidee is dat het manipuleren van digitale informatie ongeveer duizend keer goedkoper is dan het manipuleren van fysieke materie. Een AI-agent kan miljoenen taken uitvoeren op internet tegen minimale kosten, terwijl een humanoïde robot fysiek door de ruimte moet bewegen, objecten moet manipuleren en de beperkingen van de natuurkunde moet overwinnen. Dit kostenverschil betekent dat digitale agenten waarschijnlijk sneller economisch levensvatbaar en breed inzetbaar zullen zijn dan humanoïde robots. Karpathy wijst echter op een interessant tegenargument: de marktkans in de fysieke wereld kan uiteindelijk groter zijn dan in de digitale. Kenniswerk—waar digitale agenten actief zijn—is zeker een grote markt, maar fysieke automatisering kan uiteindelijk industrieën als productie, bouw, logistiek en meer transformeren. De huidige focus op digitale agenten weerspiegelt niet alleen technische haalbaarheid maar ook de directe economische kans om kenniswerk te automatiseren. Naarmate digitale agenten volwassen worden en economisch waardevol blijken, zullen de verworven middelen en inzichten waarschijnlijk de vooruitgang in fysieke robotica versnellen, waardoor een wereld met gemengde autonomie ontstaat waarin mensen steeds meer toezichthouders worden van automatisering op laag niveau—in zowel de digitale als de fysieke wereld.
Nu organisaties AI-agenten beginnen te implementeren, wordt het orkestreren van meerdere agenten, het beheren van hun interacties en het waarborgen van betrouwbare prestaties steeds belangrijker. Hier spelen platforms als FlowHunt een essentiële rol in het opkomende AI-infrastructuurlandschap. FlowHunt stelt teams in staat om complexe AI-workflows te bouwen, testen en uit te rollen waarin meerdere agenten en modellen samenwerken. In plaats van elke AI-capaciteit afzonderlijk te behandelen, maakt FlowHunt het mogelijk om geavanceerde automatiseringspijplijnen te creëren die onderzoek, contentgeneratie, analyse en besluitvorming combineren tot samenhangende systemen. Het platform pakt veel van de scaffolding-uitdagingen aan die Karpathy als cruciaal voor het decennium van de agenten beschouwt. Door tools te bieden voor workflowdesign, monitoring en optimalisatie, helpt FlowHunt de kloof te overbruggen tussen indrukwekkende AI-capaciteiten en praktische, economisch waardevolle toepassingen. Naarmate het decennium van de agenten vordert, zullen platforms die agentische systemen effectief kunnen orkestreren steeds waardevoller worden, waardoor organisaties maximaal kunnen profiteren van hun AI-investeringen met behoud van controle, transparantie en betrouwbaarheid.
Een van Karpathy’s meest prikkelende bijdragen aan het AI-discours is zijn onderscheid tussen hoe dieren leren en hoe grote taalmodellen leren. Dit kader biedt cruciaal inzicht in zowel de mogelijkheden als de beperkingen van huidige AI-systemen. Dieren, inclusief mensen, worden geboren met een enorme hoeveelheid voorgeprogrammeerde intelligentie die via miljoenen jaren evolutie in hun DNA is opgeslagen. Een pasgeboren zebra kan bijvoorbeeld binnen enkele uren na de geboorte staan en lopen—iets dat geavanceerd begrip van balans, motoriek en ruimtelijk inzicht vereist. Deze kennis wordt niet geleerd; het is geërfd via evolutionaire processen. Het leren dat dieren wel uitvoeren is relatief minimaal vergeleken met de aangeboren kennis die ze al bezitten. Ze leren hun instincten te verfijnen, zich aan hun specifieke omgeving aan te passen en vaardigheden te ontwikkelen binnen hun evolutionaire kaders. Grote taalmodellen daarentegen leren via een fundamenteel ander proces. In plaats van evolutionaire kennis te erven, worden LLM’s getraind op enorme hoeveelheden internettekst via voorspelling van het volgende woord—ze leren dus voorspellen welk woord erna komt. Deze benadering blijkt bijzonder effectief in het vastleggen van patronen in menselijke kennis en taal, maar werkt volgens een mechanisme dat Karpathy beschrijft als meer verwant aan “geesten of zielen” dan aan biologisch leren. LLM’s beschikken niet over de belichaamde, evolutionaire kennis die dieren hebben; ze hebben patronen uit menselijk gegenereerde teksten geabsorbeerd. Dit onderscheid heeft grote gevolgen voor het begrijpen van zowel de kracht als de zwakte van huidige AI-systemen.
Een belangrijke beperking van huidige LLM’s, aldus Karpathy, is hun neiging tot memoriseren in plaats van generaliseren. Hoewel deze modellen indrukwekkende prestaties leveren op benchmarks en in praktische toepassingen, komt veel van hun succes doordat ze vergelijkbare patronen tijdens training al zijn tegengekomen, in plaats van door werkelijk begrip en generalisatie. Echte generalisatie betekent dat je geleerde principes kunt toepassen op nieuwe situaties die aanzienlijk verschillen van de trainingsdata. Hier worden benchmarks zoals de ARC Prize (Abstraction and Reasoning Corpus) belangrijk—deze testen specifiek op generalisatie in plaats van memorisatie. Het verschil tussen memorisatie en generalisatie is niet alleen academisch; het is fundamenteel voor het bereiken van AGI. Een systeem dat memoriseert, presteert goed op taken die lijken op zijn trainingsdata, maar faalt als het wordt geconfronteerd met echt nieuwe problemen. Echte generalisatie vereist fundamenteel andere leermethoden dan die momenteel in LLM-training worden gebruikt. Karpathy’s scepsis over het huidige pad naar AGI komt deels voort uit de erkenning dat we indrukwekkende memorisatie-engines hebben gebouwd, maar nog niet het geheim van echte generalisatie hebben ontrafeld. De modellen zijn “geesten” in de zin dat ze patronen uit menselijke kennis hebben overgenomen, maar ze missen het diepe begrip en het flexibele redeneren van biologische intelligentie. De stap van memorisatie naar generalisatie vereist niet alleen betere trainingsdata of grotere modellen, maar nieuwe leermethoden die meer lijken op hoe biologische systemen begrip ontwikkelen door interactie met de wereld.
Reinforcement learning (RL) staat centraal bij veel AI-labs die AGI nastreven, met bedrijven als OpenAI, DeepMind en anderen die fors investeren in RL-gebaseerde benaderingen. Toch uit Karpathy aanzienlijke scepsis over RL als primaire route naar AGI, ondanks de mogelijkheden. Zijn kritiek richt zich op diverse fundamentele beperkingen van huidige RL-methoden. Ten eerste identificeert hij wat hij noemt “zuigen aan supervisie door een rietje”—het probleem dat de signaal-ruisverhouding in RL zeer slecht is. Oftewel: de hoeveelheid daadwerkelijke kennis die je per rekeneenheid verkrijgt is erg laag. Deze inefficiëntie wordt steeds problematischer naarmate je RL opschaalt naar complexere domeinen. Verder wijst Karpathy op de uitdaging van beloningen die alleen gebaseerd zijn op het eindresultaat. Als een model alleen feedback krijgt op het uiteindelijke antwoord, leert het weinig van de tussenliggende stappen die tot dat antwoord hebben geleid. Stel: een model doorloopt een wiskundig probleem met meerdere foute denkstappen, maar komt toch op het juiste eindantwoord uit—dan wordt het hele redeneerproces beloond, inclusief de verkeerde stappen. Dit zorgt voor een ruisend leersignaal dat zelfs slecht redeneren kan versterken. Procesbeloningen proberen dit te ondervangen door feedback te geven op tussenstappen, maar brengen eigen problemen mee. Als een model vijf correcte redeneerbewegingen maakt maar uiteindelijk een fout antwoord geeft, ontstaat er een tegenstrijdig signaal—de tussenstappen waren goed, maar het eindresultaat was fout. Deze ambiguïteit maakt leren moeilijk. Karpathy’s scepsis over RL betekent niet dat hij het waardeloos vindt; hij denkt alleen dat het niet de primaire hefboom voor AGI is. Hij is “bullish op agentische interactie, bearish op reinforcement learning”—en vermoedt dat alternatieve leermethoden effectiever zullen blijken. Dit, hoewel afwijkend van de industriehype rond RL, weerspiegelt diep inzicht in de technische uitdagingen bij het opschalen van RL naar echte algemene intelligentie.
Als Karpathy sceptisch is over reinforcement learning als hoofdroute naar AGI, wat acht hij dan veelbelovend? Zijn antwoord wijst richting agentische interactie en wereldmodellen. In plaats van te leren uit statische datasets of uitkomstgerichte beloningen, kunnen agenten leren door interactie met gesimuleerde of echte omgevingen, waarmee ze steeds complexere modellen ontwikkelen van hoe de wereld werkt. Deze benadering heeft een historische basis in AI-onderzoek. DeepMind’s succes in het bouwen van AI-systemen die complexe spellen als Go beheersen, leunde zwaar op agenten die tegen zichzelf speelden in gesimuleerde omgevingen en zo door interactie verbeterden, niet door supervisie op menselijke demonstraties. Wereldmodellen zijn bijzonder veelbelovend. Een wereldmodel is in wezen een geleerd beeld van hoe de wereld werkt—de fysica, causaliteit en dynamiek die uitkomsten bepalen. Een agent met een wereldmodel kan nadenken over de gevolgen van zijn acties vóórdat hij ze uitvoert, kan meerstappen vooruit plannen en kennis effectiever overdragen van het ene domein naar het andere dan systemen zonder wereldmodellen. Recent werk van bedrijven als DeepMind (Genie), NVIDIA (Cosmos), Meta (V-JEPA) en Wayve (GAIA-2) toont groeiende investeringen in wereldmodelonderzoek. Deze systemen leren voorspellen hoe visuele scènes zich ontwikkelen op basis van agentacties, waardoor agenten kunnen experimenteren en leren in een soort speelveld. Het voordeel is dat deze aanpak dichter aansluit bij hoe biologische systemen leren—door interactie met hun omgeving en het ontwikkelen van causaal begrip. In plaats van patronen te memoriseren uit tekst, leren agenten door actief te experimenteren en gevolgen te observeren. Deze aanpak pakt ook het generalisatieprobleem directer aan, omdat causaal begrip en wereldkennis beter overdraagbaar zijn naar nieuwe situaties dan gememoriseerde patronen.
Karpathy verwijst naar zijn eerdere werk aan “system prompt learning,” een concept dat een belangrijke evolutie in denken over AI-training en -aanpassing vertegenwoordigt. Systeem prompt learning betekent dat veel gedrag en mogelijkheden van een AI-systeem gevormd kunnen worden door het zorgvuldig ontwerpen van de systeem-prompt—de instructies en context die het model bij het begin van een interactie krijgt. In plaats van dure retraining of fine-tuning, suggereert systeem prompt learning dat we AI-systemen kunnen aanpassen en verbeteren door het optimaliseren van de prompts die hun gedrag sturen. Dit concept heeft grote implicaties voor het decennium van de agenten. Naarmate organisaties agenten inzetten voor verschillende taken, zullen ze mechanismen nodig hebben om deze agenten aan te passen aan specifieke domeinen, sectoren en use-cases zonder volledige retraining. Systeem prompt learning biedt een schaalbare aanpak voor deze aanpassing. Door prompts zorgvuldig samen te stellen met domeinkennis, taakspecificaties en gedragsrichtlijnen, kunnen organisaties gespecialiseerde agenten maken uit generieke modellen. Dit sluit aan bij het scaffolding-concept—de infrastructuur en tools tussen ruwe modelcapaciteiten en praktische toepassingen. Systeem prompt learning is onderdeel van deze scaffolding-laag en stelt organisaties in staat maximale waarde uit AI-modellen te halen zonder diepgaande kennis van modeltraining. Karpathy merkt op dat diverse recente papers “de juiste richting op gaan” in het verkennen van systeem prompt learning en verwante concepten, wat erop wijst dat deze richting aan kracht wint in de onderzoekswereld.
Misschien wel de belangrijkste les uit Karpathy’s analyse is zijn nadruk op het “scaffolding-probleem”—de kloof tussen ruwe modelcapaciteiten en praktische, economisch waardevolle toepassingen. Dit concept, soms “model overhang” genoemd, erkent dat huidige toonaangevende modellen capaciteiten bezitten die veel verder gaan dan wat we daadwerkelijk hebben uitgerold en gemonetariseerd. De intelligentie zit in de modellen, maar de tooling, infrastructuur, geheugensystemen en integratiepatronen om die intelligentie te benutten worden nog gebouwd. Deze scaffolding omvat talloze componenten: robuuste API’s en interfaces voor toegang tot modellen, geheugensystemen waarmee agenten context kunnen behouden en leren van ervaring, monitoring- en observatietools voor inzicht in agentgedrag, veiligheids- en beveiligingsmechanismen om misbruik te voorkomen, integratiepatronen voor aansluiting op bestaande bedrijfsprocessen, en gebruikersinterfaces die agentcapaciteiten toegankelijk maken voor niet-technische gebruikers. Het decennium van de agenten zal grotendeels gewijd zijn aan het bouwen van deze scaffolding. Bedrijven en onderzoekers ontwikkelen best practices voor agentimplementatie, maken tools en platforms die agentontwikkeling toegankelijk maken, stellen veiligheids- en beveiligingsstandaarden op en integreren agentische systemen in het bredere technologische ecosysteem. Dit werk is minder glamoureus dan het ontwikkelen van nieuwe modelarchitecturen of baanbrekende capaciteiten, maar absoluut essentieel voor het vertalen van AI-mogelijkheden naar economische waarde. Karpathy’s nadruk op scaffolding weerspiegelt een volwassen begrip van technologieontwikkeling—baanbrekende capaciteiten zijn nodig maar niet voldoende voor echte impact. De bedrijven en platforms die succesvol de scaffolding-laag bouwen, zullen waarschijnlijk veel waarde creëren in het decennium van de agenten, zelfs als ze niet de meest geavanceerde modellen ontwikkelen.
Naast de technische uitdagingen van scaffolding en generalisatie wijst Karpathy op andere categorieën werk die nog moeten worden afgerond voordat we AGI bereiken. Veiligheid en beveiliging zijn van cruciaal belang. Naarmate AI-agenten capabeler en autonomer worden, wordt het waarborgen van veilig en betrouwbaar functioneren steeds belangrijker. Dit omvat het voorkomen van jailbreaks (pogingen om agenten hun richtlijnen te laten negeren), verdedigen tegen poison-aanvallen (pogingen om trainingsdata of agentgedrag te corrumperen) en het ontwikkelen van robuuste alignment-mechanismen die ervoor zorgen dat agenten de bedoelde doelen nastreven. Maatschappelijk werk is een andere essentiële dimensie. De uitrol van steeds capabelere AI-agenten heeft grote gevolgen voor werkgelegenheid, onderwijs, economische ongelijkheid en sociale structuren. Het ontwikkelen van passend beleid, regelgeving en sociale kaders voor AI-integratie vereist input van beleidsmakers, ethici, sociaal wetenschappers en het bredere publiek. Dit werk kan niet worden gehaast en zal waarschijnlijk verder reiken dan het decennium van de agenten. Integratie met de fysieke wereld brengt extra uitdagingen. Hoewel digitale agenten puur digitaal kunnen werken, vereisen veel waardevolle toepassingen interactie met fysieke systemen—robots aansturen, productieprocessen beheren, logistiek coördineren. Dit vereist niet alleen capabele AI, maar ook geschikte sensoren, actuatoren en fysieke infrastructuur. Het resterende onderzoek is ook omvangrijk. Terwijl huidige modellen indrukwekkende vaardigheden laten zien, zijn er fundamentele vragen over echte generalisatie, het bouwen van systemen die causaliteit en tegenfeitelijkheid begrijpen, het creëren van agenten die continu kunnen leren en aanpassen in plaats van alleen tijdens training, en het opschalen van deze benaderingen naar de complexiteit van de echte wereld. Karpathy’s tijdlijn van 10+ jaar weerspiegelt de omvang van het resterende werk op al deze gebieden.
Ervaar hoe FlowHunt uw AI-content en SEO-workflows automatiseert—van onderzoek en contentgeneratie tot publicatie en analyse—alles op één plek.
Karpathy’s analyse is opvallend door zijn bewuste positionering tussen twee uitersten: het grenzeloze optimisme van AI-enthousiastelingen die AGI binnen enkele jaren verwachten, en het scepticisme van AI-ontkenners die de echte vooruitgang negeren. Hij noemt zijn eigen tijdlijnen “vijf tot tien keer pessimistischer” dan wat je hoort op typische AI-bijeenkomsten, maar “uiterst optimistisch” vergeleken met het brede scepticisme over AI’s potentieel. Dit evenwichtige perspectief is gebaseerd op verschillende observaties. Ten eerste: de vooruitgang in grote taalmodellen van de afgelopen twee jaar is echt opmerkelijk. De prestaties van modellen als GPT-4, Claude en anderen zijn een echte sprong vooruit in AI. Het vermogen om complexe redeneervragen te beantwoorden, code te schrijven, documenten te analyseren en creatieve taken te ondersteunen, zou enkele jaren geleden nog sciencefiction zijn geweest. Deze vooruitgang is echt en mag niet worden genegeerd. Ten tweede is er echter nog een enorme hoeveelheid werk tussen de huidige capaciteiten en echte AGI. De kloof tussen indrukwekkende demonstraties en betrouwbare, economisch waardevolle systemen is groot. De uitdagingen van generalisatie, veiligheid, integratie en implementatie zijn niet triviaal en kunnen niet door louter incrementele verbeteringen worden overwonnen. Ten derde zorgt de neiging van de industrie tot hypecycli ervoor dat verwachtingen vaak niet overeenkomen met de werkelijkheid. Als er een nieuw model met indrukwekkende capaciteiten verschijnt, extrapoleren media en investeerders deze vaak tot onmiddellijke impact. Dit patroon heeft zich herhaald in de AI-geschiedenis, leidend tot cycli van hype en teleurstelling. Karpathy’s gebalanceerde perspectief probeert zowel de val van overmatig optimisme als van het negeren van echte vooruitgang te vermijden. Zijn tijdlijn van 10+ jaar voor AGI moet niet worden gezien als een definitieve voorspelling, maar als een realistische inschatting van de omvang van het benodigde werk, gebaseerd op diepe ervaring met AI-ontwikkeling.
Hoewel Karpathy de technische uitdagingen benadrukt, is het belangrijk de enorme economische kans van het decennium van de agenten te onderkennen. Zelfs als echte AGI nog 10+ jaar weg is, zal de ontwikkeling van steeds capabelere en nuttige AI-agenten grote economische waarde creëren. Bedrijven die agenten succesvol inzetten voor klantenservice, contentcreatie, data-analyse, softwareontwikkeling en talloze andere taken, krijgen concurrentievoordeel. Industrieën zullen veranderen doordat routinematig cognitief werk geautomatiseerd wordt. Nieuwe businessmodellen ontstaan rond agentontwikkeling, uitrol en beheer. De bedrijven en platforms die de scaffolding-laag bouwen—de tools, infrastructuur en best practices voor agentontwikkeling—zullen veel waarde creëren. Hier positioneert FlowHunt zich als essentiële infrastructuur voor de opkomende agenteneconomie. Door tools te bieden om AI-workflows makkelijker te bouwen, testen, uitrollen en beheren, stelt FlowHunt organisaties in staat deel te nemen aan het decennium van de agenten zonder diepgaande AI-expertise. De economische kans is niet afhankelijk van het bereiken van AGI; hij vloeit voort uit de ontwikkeling van steeds capabelere en bruikbare agenten die echte bedrijfsproblemen oplossen.
Karpathy’s analyse heeft belangrijke gevolgen voor hoe organisaties AI-strategie en investeringen moeten benaderen. Ten eerste suggereert het dat de focus moet liggen op toepassingen en waardecreatie op de korte termijn, in plaats van alles in te zetten op AGI-doorbraken. De bedrijven die floreren in het decennium van de agenten zijn degenen die agenten succesvol inzetten voor praktische taken, leren van echte implementatie en hun systemen continu verbeteren. Ten tweede benadrukt het het belang van infrastructuur en tooling. De bedrijven die de scaffolding-laag bouwen—platforms, tools en best practices voor agentontwikkeling—zullen waarschijnlijk meer waarde creëren dan degenen die zich uitsluitend op modelontwikkeling richten. Scaffolding is immers de bottleneck die verhindert dat huidige mogelijkheden in economische waarde worden omgezet. Ten derde suggereert het dat de weg naar AGI waarschijnlijk meerdere routes en paradigma’s zal omvatten in plaats van één doorbraak. Karpathy’s scepsis over reinforcement learning als enige pad, gecombineerd met zijn enthousiasme voor agentische interactie en wereldmodellen, impliceert dat vooruitgang voortkomt uit het verkennen van meerdere richtingen tegelijk. Organisaties moeten flexibel blijven en niet alles inzetten op één benadering. Ten vierde benadrukt het de noodzaak van veiligheid, beveiliging en verantwoordelijke AI-ontwikkeling. Naarmate agenten capabeler en autonomer worden, is het cruciaal dat ze veilig en in overeenstemming met menselijke waarden functioneren. Organisaties die vroeg investeren in veiligheid en beveiliging zijn beter gepositioneerd voor de lange termijn.
Andrej Karpathy’s inschatting dat AGI nog 10+ jaar op zich laat wachten, terwijl het komende decennium het “decennium van de agenten” wordt, biedt een realistisch en genuanceerd perspectief op de huidige stand en toekomstige koers van kunstmatige intelligentie. Zijn analyse erkent zowel de echte doorbraken in grote taalmodellen als het aanzienlijke resterende werk op het gebied van scaffolding, generalisatie, veiligheid en integratie. Het onderscheid tussen het “jaar van de agenten” en het “decennium van de agenten” vat een belangrijke waarheid samen: AI-agenten zullen op korte termijn de aandacht trekken, maar hun echte economische impact en volwassenheid ontwikkelen zich over een langere periode. Zijn kader over hoe dieren en LLM’s leren, verheldert de mogelijkheden en beperkingen van huidige systemen, terwijl zijn scepsis over reinforcement learning en enthousiasme voor agentische interactie en wereldmodellen wijzen op veelbelovende onderzoeksrichtingen. Het belangrijkst is Karpathy’s nadruk op het scaffolding-probleem—de kloof tussen ruwe modelcapaciteiten en praktische toepassingen—als het echte knelpunt in AI-ontwikkeling. De bedrijven, platforms en onderzoekers die deze scaffolding-laag succesvol bouwen, zullen een sleutelrol spelen bij het vertalen van AI-mogelijkheden naar economische waarde in het decennium van de agenten. In plaats van te wachten op AGI, zouden organisaties zich moeten richten op het uitrollen van steeds capabelere agenten voor praktische taken, leren van echte implementatie en hun systemen continu verbeteren. Het decennium van de agenten vertegenwoordigt een enorme kans voor wie zowel de echte vooruitgang als het resterende werk begrijpt.
Karpathy maakt onderscheid tussen indrukwekkende LLM-capaciteiten en echte kunstmatige algemene intelligentie. Hoewel huidige modellen opmerkelijke prestaties leveren, is er nog veel werk te verrichten op het gebied van scaffolding, integratie, veiligheid en het bereiken van echte generalisatie in plaats van memorisatie. Hij positioneert zichzelf tussen extreme optimisten en pessimisten.
Het 'jaar van de agenten' verwijst naar het moment waarop AI-agenten de aandacht trekken en de eerste implementaties plaatsvinden. Het 'decennium van de agenten' staat voor de volledige ontwikkelcyclus die nodig is om daadwerkelijk bruikbare, waardevolle en economisch verspreide agenten in verschillende sectoren te creëren.
Dieren zijn uitgerust met evolutionaire intelligentie en leren minimaal. LLM's leren door voorspellingen van het volgende token op internetdata, waardoor ze meer op 'geesten' lijken dan op dieren. Deze aanpak kent beperkingen qua generalisatie en vereist andere scaffolding om dierlijker te worden.
Karpathy stelt dat beloningssignalen bij RL een slechte signaal-ruisverhouding hebben en moeite hebben met tussentijdse stappen. Procesbeloningen helpen, maar hebben nog steeds beperkingen. Hij gelooft dat agentische interactie en wereldmodellen veelbelovender zijn voor het bereiken van echte generalisatie.
Arshia is een AI Workflow Engineer bij FlowHunt. Met een achtergrond in computerwetenschappen en een passie voor AI, specialiseert zij zich in het creëren van efficiënte workflows die AI-tools integreren in dagelijkse taken, waardoor productiviteit en creativiteit worden verhoogd.
Bouw intelligente AI-agent-workflows die leren en zich aanpassen. FlowHunt helpt u complexe AI-processen te orkestreren van onderzoek tot implementatie.
Ontdek de zorgen van Anthropic-medeoprichter Jack Clark over AI-veiligheid, situationeel bewustzijn in grote taalmodellen en het regelgevend landschap dat de to...
Duik in het interview met Dario Amodei op de Lex Fridman Podcast, waarin hij AI scaling laws, voorspellingen voor menselijke intelligentie rond 2026-2027, macht...
Ontdek de nieuwste AI-doorbraken van oktober 2024, waaronder OpenAI's Sora 2 videogeneratedatie, Claude 4.5 Sonnet's codeercapaciteiten, DeepSeek's sparse atten...
Cookie Toestemming
We gebruiken cookies om uw browse-ervaring te verbeteren en ons verkeer te analyseren. See our privacy policy.


