
LG EXAONE Deep vs DeepSeek R1: Modele de raționament AI comparate
O analiză detaliată a modelului de raționament EXAONE Deep 32B de la LG testat în comparație cu DeepSeek R1 și QwQ de la Alibaba, examinând pretențiile de perfo...

Descoperă cum un model minuscul cu 7 milioane de parametri reușește să depășească Gemini, DeepSeek și Claude folosind raționament recursiv și supervizare profundă. Află abordarea revoluționară care contrazice tot ce știm despre scalarea AI.
Peisajul inteligenței artificiale a funcționat mult timp pe o presupunere fundamentală: cu cât e mai mare, cu atât e mai bun. Modelele mai mari cu mai mulți parametri, date de antrenament mai multe și resurse computaționale sporite au depășit constant versiunile mai mici. Totuși, o lucrare revoluționară publicată de Samsung a contestat această înțelepciune convențională într-un mod ce ar putea schimba modul în care privim designul și eficiența modelelor AI. O rețea neuronală minusculă cu doar 7 milioane de parametri—o fracțiune din dimensiunea modelelor de top precum GPT-4, Gemini 2.5 Pro sau DeepSeek—obține acum performanțe superioare pe unele dintre cele mai dificile benchmark-uri de raționament din inteligența artificială. Această realizare remarcabilă nu este rezultatul unei simple creșteri a datelor de antrenament sau a resurselor computaționale. În schimb, reprezintă o regândire fundamentală a modului în care rețelele neuronale abordează rezolvarea problemelor complexe printr-o tehnică numită raționament ierarhic recursiv combinat cu supervizare profundă. În acest ghid cuprinzător, vom explora cum funcționează acest model minuscul, de ce este atât de eficient și ce implică pentru viitorul dezvoltării și implementării AI.
Înainte de a aprecia inovația din spatele Tiny Recursive Model, trebuie să înțelegem de ce modelele lingvistice mari întâmpină dificultăți la sarcini complexe de raționament. Modelele moderne precum GPT-4, Claude și Gemini funcționează pe un principiu de bază: prezic următorul token dintr-o secvență, pe baza token-urilor anterioare. Această abordare autoregresivă s-a dovedit extrem de eficientă pentru multe sarcini, de la traducere la rezumare și scriere creativă. Totuși, când vine vorba de probleme de raționament dificile—în special cele care necesită mai mulți pași de deducție logică, satisfacerea unor constrângeri sau recunoașterea unor tipare abstracte—această abordare dezvăluie limitări semnificative. Problema de bază este că o singură predicție incorectă poate invalida întregul răspuns. Imaginează-ți că rezolvi o ecuație matematică complexă: dacă modelul greșește la primul pas, toți pașii ulteriori devin inutili. Această problemă de erori în cascadă se agravează exponențial pe măsură ce crește complexitatea problemelor. În plus, modelele lingvistice mari nu „raționează” cu adevărat ca oamenii. Ele realizează potriviri sofisticate de tipare bazate pe datele de antrenament, nu deducții logice autentice. Când se confruntă cu probleme noi ce necesită raționament dincolo de distribuția de antrenament, adesea eșuează spectaculos. De aceea, chiar și cele mai avansate modele de top întâmpină dificultăți la benchmark-uri precum ARC AGI (Abstraction and Reasoning Corpus), care testează special abilitatea de a rezolva probleme noi ce cer gândire abstractă, nu doar recunoaștere de tipare.
Comunitatea de cercetare AI a dezvoltat mai multe tehnici pentru a depăși limitările de raționament ale modelelor lingvistice mari, fiecare cu puncte tari și slabe. Cea mai proeminentă este „chain-of-thought prompting”, o tehnică devenită aproape omniprezentă în sistemele moderne. Chain-of-thought presupune încurajarea modelului să genereze raționament pas cu pas înainte de a oferi răspunsul final. În loc să sară direct la concluzie, modelul este determinat să „gândească” problema, generând pași intermediari de raționament ce conduc la răspuns. Această abordare s-a dovedit extrem de eficientă, studiile arătând că poate îmbunătăți semnificativ performanța la sarcini de raționament. Totuși, vine și cu dezavantaje majore. În primul rând, e costisitoare computațional—generarea mai multor pași de raționament implică procesarea unor cantități suplimentare de token-uri, ceea ce crește timpul de inferență și costul computațional. În al doilea rând, necesită date de raționament de calitate pentru antrenament, ceea ce este scump și consumator de timp. În al treilea rând, poate cel mai important, chain-of-thought este fragil. Raționamentul generat poate fi incorect, iar dacă raționamentul este greșit, răspunsul final va fi greșit. Modelul nu își verifică de fapt raționamentul; doar generează explicații plauzibile ce pot sau nu să fie logice. O altă tehnică populară este „pass-at-K sampling”, unde modelul generează mai multe răspunsuri candidate și îl selectează pe cel mai bun. Dacă întrebi „Cât face 5 ori 5?”, modelul poate genera zece variante și alege cea corectă. Deși acest lucru poate îmbunătăți acuratețea, este și el costisitor computațional și nu rezolvă problema fundamentală: modelul tot nu raționează, doar generează opțiuni și speră că una e corectă. Aceste tehnici reprezintă ceea ce cercetătorii numesc „test-time compute scaling”—folosirea mai multor resurse la inferență pentru a crește calitatea răspunsului. Deși utile, această abordare e limitată fundamental de faptul că modelul de bază tot nu realizează raționament autentic; doar generează mai multe predicții și speră la rezultate mai bune.
Pentru a înțelege importanța realizărilor Tiny Recursive Model, trebuie să înțelegem benchmark-ul pe care este evaluat: ARC AGI (Abstraction and Reasoning Corpus). ARC AGI a fost creat pentru a testa ceva ce majoritatea benchmark-urilor AI nu evaluează: abilitatea autentică de raționament abstract. Spre deosebire de benchmark-urile ce testează cunoașterea sau recunoașterea de tipare, ARC AGI prezintă puzzle-uri vizuale noi ce necesită identificarea de tipare abstracte și aplicarea lor în situații noi. Benchmark-ul constă în sarcini unde modelul vede câteva exemple de perechi input-output și trebuie să descopere regula sau transformarea, apoi să o aplice pe noi inputuri. Acestea nu pot fi rezolvate prin memorare sau potriviri din datele de antrenament; necesită raționament autentic și capacitate de generalizare. De la introducerea ARC AGI în 2019, acesta a devenit un standard de aur pentru evaluarea capacităților de raționament în AI. În ciuda a șase ani de progres, acuratețea la nivel uman nu a fost încă atinsă pe ARC AGI. Acest fapt subliniază că, în ciuda capabilităților impresionante ale AI moderne, încă întâmpină dificultăți la sarcini pe care oamenii le găsesc relativ simple. Gemini 2.5 Pro, unul dintre cele mai avansate modele de top, atinge doar 4,9% acuratețe pe ARC AGI 2 chiar și cu resurse computaționale substanțiale la inferență. Noul benchmark ARC AGI 3 este și mai dificil, modelele de top având dificultăți să progreseze. În acest context, rezultatele Tiny Recursive Model devin cu adevărat remarcabile. Un model cu 7 milioane de parametri—sub 0,01% din parametrii lui Gemini 2.5 Pro—atinge 45% acuratețe pe ARC AGI 1 și 8% pe ARC AGI 2, depășind semnificativ aceste modele gigantice.
Inovația majoră din spatele Tiny Recursive Model este o tehnică numită raționament ierarhic recursiv, ce reprezintă o abordare fundamental diferită a modului în care rețelele neuronale abordează probleme complexe. Pentru a înțelege această tehnică, gândește-te la o analogie: imaginează că rezolvi un puzzle Sudoku dificil. Nu îl rezolvi dintr-o dată. În schimb, faci o presupunere, analizezi dacă are sens ținând cont de constrângeri, iar dacă nu merge, revizuiești presupunerea și încerci din nou. Poți parcurge acest ciclu de zeci de ori, rafinând soluția de fiecare dată pe baza încercărilor și raționamentului asupra eșecurilor. Acest proces de rafinare iterativă este esența raționamentului ierarhic recursiv. Modelul păstrează două informații cheie: cea mai bună presupunere curentă și traseul raționamentului ce a condus la ea. La fiecare pas recursiv, modelul actualizează ambele informații. Se uită la presupunerea curentă, analizează raționamentul ce a dus acolo și generează o presupunere îmbunătățită pe baza acestuia. Apoi repetă procesul, folosind versiunea îmbunătățită și traseul raționamentului ca input pentru următoarea iterație. Modelul original de raționament ierarhic (HRM) care a inspirat această lucrare folosea două rețele neuronale separate ce operau la niveluri diferite sau „viteze”. Justificarea biologică era că creierul uman operează la frecvențe temporale diferite—unele procese sunt rapide și reactive, altele lente și deliberative. Cele două rețele din HRM încercau să emuleze acest lucru, una acționând rapid, alta lent, lucrând împreună într-o buclă. Totuși, cercetătorii Samsung care au dezvoltat Tiny Recursive Model au pus la îndoială această justificare biologică. Deși paralela cu creierul e interesantă, nu explică neapărat de ce o anumită alegere arhitecturală este eficientă. Lucrarea HRM originală se baza mult pe argumente biologice și teoreme matematice complexe (teoreme de punct fix), dar nu furniza studii de ablație clare care să arate ce anume contribuie la îmbunătățirea performanței. Cercetătorii au pus o întrebare simplă: de ce două rețele? De ce nu una? De ce nu trei sau patru? Și, mai fundamental, de ce să justificăm alegerile arhitecturale pe baza biologiei, nu pe rezultate empirice?
Răspunsul la aceste întrebări a dus la dezvoltarea Tiny Recursive Model (TRM), care ia ideea de bază a raționamentului recursiv, dar elimină complexitatea inutilă și justificările biologice. În loc să folosească două rețele medii ce operează ierarhic, TRM utilizează o singură rețea minusculă cu doar două straturi. Modelul este remarcabil de simplu—pseudocodul pentru TRM încape pe un singur ecran. Această simplitate nu e o limitare, ci un avantaj. Eliminând complexitatea inutilă, cercetătorii s-au putut concentra pe ceea ce contează cu adevărat: procesul de rafinare recursivă. Ideea cheie este că modelul trebuie să păstreze două informații: presupunerea curentă și traseul raționamentului. Acestea nu trebuie să fie ierarhii sau frecvențe temporale diferite; sunt pur și simplu două tipuri de informații de urmărit. La fiecare pas recursiv, modelul primește aceste două informații ca input, le procesează prin rețeaua sa minusculă cu două straturi și generează versiuni actualizate ale ambelor. Procesul se repetă de mai multe ori, fiecare iterație putând îmbunătăți soluția. Frumusețea acestei abordări constă în ceea ce cercetătorii numesc „adâncime virtuală”. Deși rețeaua are doar două straturi, recursia multipă îi conferă o adâncime efectivă mult mai mare. Este ca și cum modelul ar simula o rețea mult mai profundă prin iterație, nu prin adăugarea de straturi. Aceasta contrazice înțelepciunea convențională conform căreia rețelele mai adânci sunt mereu mai bune. În designul rețelelor neuronale tradiționale, adăugăm straturi pentru a crește capacitatea modelului de a învăța funcții complexe. Tiny Recursive Model arată însă că poți obține rezultate similare sau mai bune menținând rețeaua superficială, dar crescând numărul de pași recursivi. E o abordare fundamental diferită a arhitecturii modelelor.
A doua inovație cheie din Tiny Recursive Model este tehnica numită supervizare profundă. În timp ce raționamentul recursiv oferă mecanismul de rafinare iterativă, supervizarea profundă asigură că modelul învață eficient din fiecare iterație. În învățarea supervizată tradițională, modelul face o predicție și primește feedback doar pentru rezultatul final. Dacă răspunsul final e greșit, modelul învață că întregul proces a fost greșit, dar nu primește feedback specific despre ce pași intermediari au fost problematici. Supervizarea profundă schimbă acest lucru, oferind semnale de supervizare la mai mulți pași intermediari ai raționamentului. În loc să verifice doar dacă răspunsul final e corect, modelul primește feedback la fiecare pas recursiv. Astfel, modelul învață nu doar dacă răspunsul final e corect sau nu, ci și dacă fiecare pas intermediar al raționamentului merge în direcția bună. Impactul supervizării profunde asupra performanței este dramatic. În experimentele inițiale, folosirea supervizării profunde a dublat acuratețea față de supervizarea la un singur pas, de la 19% la 39% pe anumite sarcini. Aceasta este o îmbunătățire enormă obținută dintr-o singură schimbare arhitecturală. Motivul pentru care supervizarea profundă e atât de eficientă este că oferă semnale de învățare mult mai bogate. Când modelul primește feedback doar pe răspunsul final, trebuie să deducă prin backpropagation ce pași intermediari au generat eroarea. Aceasta este o problemă dificilă de atribuire a creditului, mai ales în rețele adânci. Oferind supervizare directă la fiecare pas, modelul primește feedback clar dacă fiecare pas e corect, făcând mult mai ușoară învățarea comportamentului dorit. În plus, supervizarea profundă previne blocarea modelului în optime locale. Dacă modelul face o greșeală devreme, supervizarea profundă o sesizează imediat și oferă feedback pentru corectare, în loc să lase eroarea să se propage prin mai mulți pași până la detectare.
Îmbunătățirile de performanță obținute de Tiny Recursive Model sunt pur și simplu remarcabile. Pe benchmark-ul Sudoku Extreme, modelul a crescut de la 55% la 87% acuratețe. Pe Maze Hard, de la 75% la 85%. Pe ARC AGI 1, a obținut 45% față de 40% pentru abordarea anterioară. Pe ARC AGI 2, 8% față de 5%. Chiar dacă îmbunătățirea pe ARC AGI 2 pare modestă—de la 5% la 8%—reprezintă o creștere relativă de 60%, ceea ce este semnificativ într-un domeniu unde progresul se măsoară adesea în procente mici. Mai important, aceste rezultate trebuie privite în contextul dimensiunii modelului. Tiny Recursive Model are doar 7 milioane de parametri. Pentru comparație, Gemini 2.5 Pro are sute de miliarde, DeepSeek R1 sute de miliarde, Claude 3.7 sute de miliarde de parametri. Tiny Recursive Model atinge performanțe competitive sau superioare folosind sub 0,01% din parametrii modelelor de top. Raportul performanță/parametru pentru Tiny Recursive Model este cu ordine de mărime mai eficient. Acest lucru are implicații profunde pentru implementarea AI. Modelele mici sunt mai ieftine de rulat, necesită infrastructură minimă și pot fi implementate pe dispozitive edge sau în medii cu resurse limitate. Dacă un model cu 7 milioane de parametri poate obține performanțe similare sau mai bune decât modele cu sute de miliarde de parametri, se deschid noi posibilități pentru aplicațiile AI. Singurul model de top care a depășit Tiny Recursive Model pe aceste benchmark-uri a fost Gro for Thinking, care a obținut rezultate semnificativ mai bune, dar are peste un trilion de parametri—de peste 140.000 de ori mai mare decât TRM. Chiar și așa, eficiența Tiny Recursive Model rămâne remarcabilă.
A înțelege de ce raționamentul recursiv este atât de eficient presupune să privim natura problemelor complexe de raționament. Multe sarcini dificile presupun identificarea unei soluții ce satisface mai multe constrângeri sau descoperirea unui tipar ce explică un set de observații. Aceste probleme nu pot fi rezolvate dintr-o singură trecere înainte printr-o rețea neuronală. Necesită rafinare iterativă, unde generezi o soluție candidat, o verifici față de constrângeri sau observații, identifici unde eșuează și apoi o rafinezi. Exact asta permite raționamentul recursiv. Prin menținerea unei presupuneri curente și a unui traseu de raționament, modelul poate realiza acest proces de rafinare iterativă. Traseul raționamentului funcționează ca o memorie de lucru, permițând modelului să țină evidența a ceea ce a încercat, ce a funcționat și ce nu. Acest lucru e fundamental diferit de modul în care operează rețelele neuronale tradiționale, care procesează inputul printr-o serie de straturi și produc un output, fără a putea reveni asupra deciziilor sau a păstra o evidență a raționamentului. Modelul tradițional nu poate spune „am încercat asta și nu a mers, să încerc altceva”. Pur și simplu procesează inputul și produce outputul. Raționamentul recursiv schimbă acest lucru, construind explicit un mecanism pentru rafinare iterativă și menținerea unui traseu de raționament. Acest lucru permite modelului să realizeze un tip de raționament mult mai apropiat de modul în care oamenii rezolvă probleme complexe. Când oamenii abordează un puzzle dificil, nu ne gândim o dată și răspundem. Gândim, generăm o soluție candidat, o verificăm, găsim probleme și o rafinăm. Putem parcurge acest ciclu de multe ori. Raționamentul recursiv permite rețelelor neuronale să facă ceva similar. O altă observație cheie este că raționamentul recursiv acționează ca o formă de regularizare. Forțând modelul să mențină un traseu de raționament și să își rafineze răspunsul iterativ, acesta e constrâns să învețe soluții mai generalizabile. Un model ce poate produce răspunsul doar dintr-o trecere înainte poate memora tipare specifice din datele de antrenament. Un model ce trebuie să rafineze iterativ și să mențină traseul raționamentului e forțat să învețe principii mai fundamentale aplicabile la probleme noi. Acest lucru explică de ce Tiny Recursive Model generalizează atât de bine, deși e antrenat pe cantități relativ mici de date.
Implicarea Tiny Recursive Model merge dincolo de cercetarea academică, având aplicații practice. Organizațiile au tot mai mult nevoie să automatizeze sarcini complexe de raționament—de la analiză de date și recunoaștere de tipare la decizii și rezolvare de probleme. Tradițional, aceste sarcini necesitau fie expertiză umană, fie modele AI mari și costisitoare. Tiny Recursive Model deschide noi posibilități pentru automatizarea eficientă a acestor sarcini. FlowHunt, o platformă de automatizare a fluxurilor AI, poate valorifica aceste modele de raționament pentru a crea soluții mai eficiente și mai accesibile. În loc să se bazeze pe modele masive ce necesită resurse computaționale semnificative, FlowHunt poate integra modele mici și eficiente precum Tiny Recursive Model în fluxurile automatizate. Astfel, organizațiile pot construi sisteme inteligente care pot gestiona sarcini complexe de raționament fără costurile modelelor gigantice. De exemplu, un flux ce trebuie să analizeze date despre clienți, să identifice tipare și să ofere recomandări. Folosind un model lingvistic mare, ar fi costisitor de rulat la scară. Cu un model recursiv minuscul integrat în FlowHunt, aceeași sarcină poate fi realizată la o fracțiune din cost. Modelul poate rafina iterativ analiza, menținând un traseu al raționamentului ce explică recomandările și oferă transparență asupra deciziilor. Acest lucru este deosebit de valoros în domenii unde explicabilitatea este importantă, precum sănătatea, finanțele sau sectorul juridic. Traseul raționamentului păstrat de modelul recursiv oferă o evidență clară a procesului de gândire al modelului, facilitând înțelegerea și verificarea deciziilor. Mai mult, eficiența modelelor recursive mici permite implementarea raționamentului pe dispozitive edge sau în medii cu resurse limitate. O aplicație mobilă ar putea include capabilități de raționament ce anterior necesitau procesare în cloud. Acest lucru deschide noi posibilități pentru aplicații inteligente ce pot funcționa offline sau cu conectivitate minimă.
Descoperă cum FlowHunt automatizează conținutul și fluxurile SEO cu AI — de la cercetare și generare de conținut la publicare și analiză — totul într-un singur loc.
Succesul Tiny Recursive Model contrazice una dintre cele mai fundamentale presupuneri din AI-ul modern: legile scalării care au ghidat domeniul în ultimul deceniu. Legile scalării sugerează că performanța crește predictibil odată cu mărirea modelului, a datelor de antrenament și a resurselor computaționale. Modele mai mari sunt mai bune. Mai multe date sunt mai bune. Mai multă putere de calcul e mai bună. Această presupunere a dus la dezvoltarea unor modele din ce în ce mai mari, companiile investind miliarde de dolari în antrenarea modelelor cu sute de miliarde sau chiar trilioane de parametri. Tiny Recursive Model sugerează că această ipoteză poate fi incompletă sau chiar greșită în anumite contexte. Folosind o abordare arhitecturală diferită—raționament recursiv cu supervizare profundă—un model minuscul poate atinge performanțe comparabile sau mai bune decât modelele gigantice pe anumite sarcini. Asta nu înseamnă că legile scalării sunt greșite; înseamnă că există mai multe căi spre performanță ridicată, iar creșterea dimensiunii este doar una dintre ele. Implicațiile pentru viitorul dezvoltării AI sunt profunde. Dacă modele mici pot atinge performanțe comparabile cu cele mari prin inovații arhitecturale, acest lucru poate duce la o schimbare de focus în dezvoltare și implementare. În loc să ne concentrăm exclusiv pe mărirea modelelor, domeniul s-ar putea orienta către dezvoltarea unor arhitecturi mai eficiente ce pot atinge performanță ridicată cu mai puțini parametri. Acest lucru ar fi benefic pentru mediu, eficiență computațională și accesibilitate. Antrenarea și rularea modelelor masive necesită cantități uriașe de energie electrică și resurse. Dacă putem obține performanțe similare cu modele de ordine de mărime mai mici, am reduce impactul asupra mediului și am face AI-ul mai accesibil organizațiilor cu resurse limitate. Tiny Recursive Model sugerează și că relația dintre dimensiunea modelului și generalizare e mai complexă decât se credea. Înțelepciunea convențională spune că modelele mari generalizează mai bine pentru că pot învăța tipare complexe. Totuși, Tiny Recursive Model arată că modelele mici pot generaliza mai bine dacă sunt concepute cu bias-uri inductive potrivite. Prin construcția mecanismelor de rafinare iterativă și menținere a traseului raționamentului, modelul e forțat să învețe soluții mai generalizabile. Este un exemplu de situație în care inovația arhitecturală poate fi mai importantă decât dimensiunea brută a modelului.
Unul dintre cele mai remarcabile aspecte ale Tiny Recursive Model este simplitatea sa. Folosește doar două straturi și își atinge performanța prin rafinare recursivă, nu prin complexitate arhitecturală. Această simplitate nu e accidentală, ci o alegere de design bazată pe rezultate empirice. Cercetătorii au descoperit că adăugarea mai multor straturi scade de fapt generalizarea din cauza supraînvățării. E o constatare contraintuitivă care contrazice înțelepciunea tradițională. De obicei, credem că rețelele mai adânci pot învăța funcții mai complexe. Totuși, Tiny Recursive Model arată că, pentru sarcini de raționament, adâncimea prin recursie e mai eficientă decât adâncimea prin straturi suplimentare. De ce? O explicație e că straturile suplimentare cresc capacitatea modelului de a memora tipare specifice, ceea ce duce la supraînvățare. Menținând rețeaua superficială și crescând numărul pașilor recursivi, modelul e forțat să învețe soluții mai generalizabile. Fiecare pas recursiv trebuie să funcționeze cu aceași rețea cu două straturi, așa că rețeaua trebuie să învețe să facă calcule utile ce pot fi aplicate iterativ. Această constrângere îl forțează să învețe principii fundamentale, nu să memoreze tipare. O altă explicație ține de natura sarcinilor de raționament. Acestea implică adesea rafinări iterative și satisfacerea de constrângeri. O rețea superficială aplicată recursiv e potrivită pentru astfel de probleme, putând aduce îmbunătățiri incrementale. O rețea adâncă, dimpotrivă, ar încerca să rezolve totul dintr-o dată, ceea ce e mai puțin eficient pentru probleme ce cer rafinare iterativă. Simplitatea Tiny Recursive Model are și avantaje practice. Modelele simple sunt mai ușor de înțeles, de depanat și de modificat. Dacă vrei să înțelegi de ce modelul a luat o decizie, poți urmări pas cu pas traseul raționamentului. Dacă vrei să adaptezi modelul la o problemă nouă, poți face modificări țintite ale arhitecturii sau procedurii de antrenament. Spre deosebire de modelele masive cu miliarde de parametri, care sunt practic cutii negre greu de înțeles sau modificat. Principiul „mai puțin înseamnă mai mult” se aplică și la arhitectura modelului. Cercetătorii au descoperit că modelul nu are nevoie de teoreme matematice complexe sau justificări biologice pentru a funcționa eficient. Modelul original de raționament ierarhic se baza pe teoreme de punct fix și argumente despre funcționarea creierului. Tiny Recursive Model funcționează fără aceste justificări teoretice. Este pur și simplu un model ce menține două informații și le rafinează iterativ. Acest lucru sugerează că uneori explicația cea mai simplă este și cea mai bună și că nu trebuie să complicăm inutil modelele cu justificări teoretice.
Succesul Tiny Recursive Model are implicații importante asupra modului în care vor
Tiny Recursive Model este o rețea neuronală cu 7 milioane de parametri care utilizează raționament ierarhic recursiv și supervizare profundă pentru a obține performanțe superioare în sarcini complexe de raționament față de modele mult mai mari precum Gemini 2.5 Pro și DeepSeek.
TRM folosește o abordare inovatoare ce combină raționamentul recursiv (parcurgerea în buclă a pașilor de îmbunătățire) și supervizarea profundă (transmiterea caracteristicilor învățate între pași). Astfel, modelul mic poate să gândească iterativ prin probleme, asemănător raționamentului uman, nu doar să prezică răspunsuri dintr-o singură încercare.
TRM atinge o acuratețe de 45% pe ARC AGI 1 și 8% pe ARC AGI 2, depășind Gemini 2.5 Pro (4,9%), DeepSeek R1 și Claude 3.7, utilizând sub 0,01% din parametrii acestora.
Raționamentul recursiv permite modelului să își rafineze iterativ răspunsul păstrând două informații cheie: presupunerea curentă și traseul raționamentului. Acest lucru creează un feedback loop prin care modelul se poate autocritica și poate revizui răspunsurile de mai multe ori, la fel ca oamenii când rezolvă probleme complexe prin încercări și îmbunătățiri.
Supervizarea profundă crește acuratețea oferind semnale de supervizare la mai mulți pași ai procesului de raționament. În loc să verifice doar răspunsul final, modelul primește feedback la fiecare pas intermediar, ceea ce a dublat acuratețea de la 19% la 39% în experimentele inițiale.
Arshia este Inginer de Fluxuri AI la FlowHunt. Cu o pregătire în informatică și o pasiune pentru inteligența artificială, el este specializat în crearea de fluxuri eficiente care integrează instrumente AI în sarcinile de zi cu zi, sporind productivitatea și creativitatea.
Construiește fluxuri inteligente de automatizare ce folosesc cele mai noi modele AI și tehnici de raționament pentru a rezolva eficient probleme complexe.
O analiză detaliată a modelului de raționament EXAONE Deep 32B de la LG testat în comparație cu DeepSeek R1 și QwQ de la Alibaba, examinând pretențiile de perfo...
Este OpenAI O3 Mini instrumentul AI potrivit pentru tine? L-am pus la încercare cu generare de conținut, calcule și multe altele. Vezi cum echilibrează acest mo...
Descoperă cum învățarea prin recompensă și fine-tuning-ul au devenit abordarea dominantă pentru optimizarea modelelor AI, de la distilarea GPT-4 la ascensiunea ...
Consimțământ Cookie
Folosim cookie-uri pentru a vă îmbunătăți experiența de navigare și a analiza traficul nostru. See our privacy policy.


