
OpenAI O3 Mini AI Ajanı: Kompakt Ama Güçlü Bir AI Modeli
OpenAI O3 Mini sizin için doğru AI aracı mı? İçerik üretimi, hesaplamalar ve daha fazlası ile test ettik. Bu modelin performansı şaşırtıcı derecede verimli bir ...

Sadece 7 milyon parametreli küçük bir modelin, yinelemeli akıl yürütme ve derin denetim kullanarak Gemini, DeepSeek ve Claude’u nasıl geride bıraktığını keşfedin. AI ölçeklemesiyle ilgili bildiğimiz her şeye meydan okuyan devrim niteliğindeki yaklaşımı öğrenin.
Yapay zeka dünyası uzun süredir temel bir varsayımla çalıştı: büyük olan iyidir. Daha fazla parametre, daha fazla eğitim verisi ve daha fazla hesaplama kaynağına sahip büyük modeller, küçük olanlara sürekli üstün geldi. Ancak Samsung’dan çığır açan bir araştırma makalesi, bu geleneksel bilgeliğe meydan okuyarak AI model tasarımı ve verimliliğine bakış açımızı kökten değiştirebilir. Sadece 7 milyon parametreli küçük bir sinir ağı—GPT-4, Gemini 2.5 Pro veya DeepSeek gibi sınırdaki modellerin boyutunun çok küçük bir kısmı—yapay zekadaki en zorlu akıl yürütme testlerinde üstün başarılar elde ediyor. Bu olağanüstü başarı, sadece eğitim verisi ya da hesaplama gücünü artırmakla elde edilmedi. Bunun yerine, sinir ağlarının karmaşık problemleri çözme biçimini, yinelemeli hiyerarşik akıl yürütme ve derin denetim teknikleriyle temelden yeniden düşünmenin bir sonucu. Bu kapsamlı rehberde, bu küçük modelin nasıl çalıştığını, neden bu kadar etkili olduğunu ve AI geliştirme ve uygulama geleceği için ne anlama geldiğini inceleyeceğiz.
Küçük Yinelemeli Model’in arkasındaki yeniliği takdir edebilmek için, öncelikle büyük dil modellerinin neden karmaşık akıl yürütme görevlerinde zorlandığını anlamamız gerekir. GPT-4, Claude ve Gemini gibi modern büyük dil modelleri, temel bir prensip üzerinde çalışır: önceki token’lara bakarak bir sonraki token’ı tahmin etmek. Bu otoregresif yaklaşım, çeviri, özetleme ve yaratıcı yazı gibi pek çok görevde son derece etkili oldu. Ancak çok adımlı mantık yürütme, kısıt tatmini veya soyut desen tanıma gerektiren zor akıl yürütme problemlerinde önemli sınırlamalar ortaya çıkar. Temel sorun, tek bir yanlış token tahmininin tüm cevabı geçersiz kılmasıdır. Karmaşık bir matematiksel denklemi çözdüğünüzü düşünün: model ilk adımda hata yaparsa, sonraki tüm adımlar anlamsız olur. Sorunlar karmaşıklaştıkça bu zincirleme hata problemi katlanarak büyür. Ayrıca büyük dil modelleri, insanlar gibi “akıl yürütme” yapmaz. Eğitim verilerinden desen eşleme yoluyla karmaşık işlemler uygularlar, gerçek anlamda mantıksal çıkarımda bulunmazlar. Eğitim dağılımının ötesinde mantık gerektiren yeni sorunlarla karşılaştıklarında, genellikle büyük başarısızlıklar yaşarlar. Bu nedenle, modern en gelişmiş modeller bile, özellikle desen tanımanın ötesinde gerçek soyut düşünme gerektiren ARC AGI (Soyutlama ve Akıl Yürütme Korpusu) gibi testlerde zorlanır.
AI araştırma topluluğu, büyük dil modellerinin akıl yürütme sınırlamalarını aşmak için her biri kendine özgü avantaj ve dezavantajlara sahip çeşitli teknikler geliştirdi. Bunların en öne çıkanı, modern AI sistemlerinde yaygınlaşan “düşünce zinciri” (chain-of-thought) yönlendirmesidir. Düşünce zinciri, modelin nihai cevabını vermeden önce adım adım akıl yürütme üretmesini teşvik eder. Model doğrudan sonuca atlamak yerine, problemi “düşünerek” ara adımlar üretir ve bu adımlar nihai cevaba yol açar. Bu yaklaşım, akıl yürütme görevlerinde performansı artırmada oldukça etkili olmuştur. Ancak düşünce zincirinin önemli dezavantajları da vardır. Öncelikle, hesaplama açısından pahalıdır—birden fazla akıl yürütme adımı üretmek daha fazla token işlemeyi gerektirir ve bu da hesaplama süresi ile maliyeti artırır. İkincisi, eğitim için yüksek kaliteli akıl yürütme verisi gerektirir ki, bu da pahalı ve zaman alıcıdır. Üçüncüsü ve belki de en önemlisi, düşünce zinciri kırılgandır. Üretilen akıl yürütme yanlış olabilir ve akıl yürütme hatalıysa, son cevap da yanlış olur. Model, akıl yürütmesini gerçekten doğrulamaz; sadece mantıklı görünen açıklamalar üretir—bunlar mantıksal olarak doğru olmayabilir. Başka popüler bir teknik ise pass-at-K örneklemesidir; burada model birden fazla aday cevap üretir ve en iyisini seçer. “5 kere 5 kaçtır?” diye sorduğunuzda, model on farklı yanıt üretebilir ve en doğrusunu seçer. Bu doğruluğu artırsa da, yine hesaplama açısından pahalıdır ve temel sorunu çözmez: Model hâlâ akıl yürütme yapmaz; sadece birden fazla tahmin üretir ve birinin doğru çıkmasını umar. Bu teknikler, araştırmacıların “test zamanı hesaplama ölçeklemesi” olarak adlandırdığı yaklaşımlardır—cevap kalitesini artırmak için çıkarım sırasında daha fazla kaynak kullanmak. Etkili olsalar da, temel model hâlâ gerçek anlamda akıl yürütme yapmadığı için sınırları vardır; sadece daha fazla tahmin üretip şansa bırakır.
Küçük Yinelemeli Model’in başarısının önemini anlamak için değerlendirildiği kıyaslamayı bilmek gerekir: ARC AGI (Soyutlama ve Akıl Yürütme Korpusu). ARC AGI, çoğu AI kıyaslamasının ölçmediği bir şeyi ölçmek için oluşturuldu: gerçek soyut akıl yürütme yeteneği. Bilgi ya da desen tanıma becerisini ölçen klasik kıyaslamaların aksine, ARC AGI yeni durumlara uygulanabilen soyut desenleri tespit etme yeteneğini gerektiren yeni görsel akıl yürütme bulmacaları sunar. Kıyaslama, modele birkaç giriş-çıkış örneği gösterir ve altta yatan kuralı veya dönüşümü bulup yeni girdilere uygulamasını ister. Bunlar, eğitim verisinden ezberleme veya desen eşleme ile çözülebilecek görevler değildir; gerçek akıl yürütme ve soyut kavramları genelleme becerisi gerektirir. 2019’da tanıtılan ARC AGI, AI sistemlerinde akıl yürütme kabiliyetini ölçmenin altın standardı olmuştur. Altı yıldır büyük dil modellerinde yaşanan ilerlemelere rağmen, ARC AGI’de insan seviyesinde doğruluk hâlâ elde edilememiştir. Bu, modern AI sistemlerinin etkileyici yeteneklerine rağmen, insanların nispeten kolay bulduğu görevlerde hâlâ zorlandıklarının çarpıcı bir göstergesidir. En gelişmiş modellerden Gemini 2.5 Pro, ARC AGI 2’de ciddi hesaplama kaynaklarıyla bile sadece %4,9 doğruluk elde edebiliyor. Daha yeni ARC AGI 3 kıyaslaması ise daha da zorlu; sınırdaki modeller anlamlı bir ilerleme kaydedemiyor. İşte bu bağlamda, Küçük Yinelemeli Model’in başarıları gerçekten dikkat çekici. Yalnızca 7 milyon parametreli bir model—Gemini 2.5 Pro’nun parametrelerinin %0,01’inden azı—ARC AGI 1’de %45, ARC AGI 2’de ise %8 doğruluk oranına ulaşıyor ve bu dev modellere açık bir üstünlük sağlıyor.
Küçük Yinelemeli Model’in arkasındaki temel yenilik, sinir ağlarının karmaşık problemleri çözme biçimine temelden farklı bir yaklaşım sunan “yinelemeli hiyerarşik akıl yürütme” tekniğidir. Bu tekniği anlamak için şu benzetmeyi düşünün: Zor bir Sudoku bulmacasını çözmeye çalışıyorsunuz. Tek seferde bütün kararları vererek çözmezsiniz. Bir tahminde bulunur, bu tahminin kısıtlamalara uyup uymadığını düşünür, işe yaramazsa tahmininizi revize eder ve tekrar denersiniz. Bu döngüyü defalarca tekrarlayabilir, her seferinde önceki denemeleriniz ve neden işe yaramadıkları hakkındaki akıl yürütmenize göre çözümü geliştirirsiniz. Bu yinelemeli iyileştirme süreci, aslında yinelemeli hiyerarşik akıl yürütmenin yaptığı şeydir. Model iki önemli bilgi parçası tutar: çözüm için elindeki en iyi tahmin ve o tahmine götüren akıl yürütme izi. Her yineleme adımında model, bu iki bilgi parçasını günceller. Mevcut tahminine, ona götüren akıl yürütmeye bakar ve bu akıl yürütmeye dayanarak daha iyi bir tahmin üretir. Sonra bu süreci tekrarlar; geliştirilmiş tahmin ve güncellenmiş akıl yürütme izini bir sonraki yineleme için girdi olarak kullanır. Bu çalışmaya ilham veren orijinal hiyerarşik akıl yürütme modeli (HRM), farklı hiyerarşilerde veya “hızlarda” çalışan iki ayrı sinir ağı kullanıyordu. Biyolojik gerekçe, insan beyninin farklı zaman frekanslarında çalıştığıydı—bazı süreçler hızlı ve tepkisel, bazıları ise yavaş ve düşüncelidir. HRM’deki iki ağ da bunu taklit ediyordu; biri hızlı, diğeri yavaş çalışıyor, ikisi döngü halinde birlikte çalışıyordu. Ancak Küçük Yinelemeli Model’i geliştiren Samsung araştırmacıları, bu biyolojik gerekçeyi sorguladı. Yapay sinir ağları ile biyolojik beyinler arasında paralellik kurmak ilginç olsa da, bu tür benzetmeler belirli bir mimari seçimin neden etkili olduğunu mutlaka açıklamaz. Orijinal HRM makalesi, biyolojik argümanlara ve karmaşık matematiksel teoremlere (sabitleme noktası teoremleri) ağırlık veriyordu, ancak hangi bileşenlerin performans artışına katkı sağladığını açıkça gösteren ablation çalışmaları sunmuyordu. Araştırmacılar basit ama derin bir soru sordular: Neden iki ağ? Neden bir tane olmasın? Neden üç veya dört? Ve daha temelde, mimari seçimleri biyolojiden ziyade deneysel sonuçlara göre gerekçelendirmemiz gerekmez mi?
Bu soruların cevabı, yinelemeli akıl yürütmenin özünü alıp karmaşıklığı ve biyolojik gerekçeleri ortadan kaldıran Küçük Yinelemeli Model’e (TRM) yol açtı. Farklı hiyerarşilerde çalışan iki orta boy ağ yerine, TRM yalnızca iki katmandan oluşan minik tek bir ağ kullanır. Model son derece basittir—TRM’nin sözde kodunu tek ekrana sığdırmak mümkündür. Bu basitlik bir kısıtlama değil, aksine bir avantajdır. Gereksiz karmaşıklık ortadan kaldırılarak tüm odak noktası yinelemeli iyileştirme sürecinin kendisine verilmiştir. Temel içgörü şudur: Modelin iki bilgi parçasını koruması gerekir: mevcut tahmini ve o tahmine götüren akıl yürütme izini. Bunlar mutlaka farklı hiyerarşiler veya zaman frekansları olmak zorunda değildir; modelin izlemesi gereken iki farklı bilgi türüdür. Her yineleme adımında, model bu iki bilgi parçasını girdi olarak alır, küçük iki katmanlı ağdan geçirir ve hem tahminin hem de akıl yürütme izinin güncellenmiş halini üretir. Bu süreç defalarca tekrarlanır ve her adımda çözüm potansiyel olarak iyileşir. Bu yaklaşımın güzelliği, araştırmacıların “sanal derinlik” olarak adlandırdığı bir özellik sunmasıdır. Ağda yalnızca iki katman olmasına rağmen, defalarca yineleme yapıldığında model fiilen çok daha derin bir ağa sahipmiş gibi çalışır. Model derinliği arttırmak yerine, yineleme ile derinlik kazandırılır. Bu, daha derin ağların her zaman daha iyi olduğu şeklindeki geleneksel bilgeliğe meydan okuyan kritik bir içgörüdür. Klasik sinir ağı tasarımında, karmaşık fonksiyonları öğrenebilmesi için katman sayısı artırılır. Ancak Küçük Yinelemeli Model, ağı sığ tutup yineleme adımlarını artırarak benzer ya da daha iyi sonuçların elde edilebileceğini gösteriyor. Bu, model mimarisine bambaşka bir bakış açısı getiriyor.
Küçük Yinelemeli Model’deki ikinci temel yenilik, “derin denetim” adı verilen tekniktir. Yinelemeli akıl yürütme, yinelemeli iyileştirme mekanizmasını sağlarken, derin denetim modelin her yinelemeden etkin şekilde öğrenmesini sağlar. Klasik denetimli öğrenmede, model bir tahmin yapar ve yalnızca nihai çıktı üzerinden geri bildirim alır. Son cevap yanlışsa, model tüm sürecin yanlış olduğunu öğrenir, ancak hangi ara adımların sorunlu olduğu hakkında özel bir geri bildirim almaz. Derin denetim ise, akıl yürütme sürecindeki birden fazla ara adımda denetim sinyali sağlar. Model, sadece son cevabın doğruluğunu kontrol etmekle kalmaz, her yineleme adımında da geri bildirim alır. Böylece model, sadece nihai cevabının doğru veya yanlış olduğunu değil, akıl yürütme sürecindeki her ara adımın doğru yolda olup olmadığını da öğrenir. Derin denetimin performansa etkisi çarpıcıdır. İlk deneylerde, derin denetim kullanıldığında doğruluk, tek adımlı denetime göre ikiye katlanarak bazı görevlerde %19’dan %39’a yükseldi. Yalnızca mimaride yapılan bir değişiklikle bu kadar büyük bir sıçrama çok nadirdir. Derin denetimin bu kadar etkili olmasının nedeni, çok daha zengin öğrenme sinyalleri sağlamasıdır. Model yalnızca son cevap üzerinden geri bildirim aldığında, hatanın hangi ara adımından kaynaklandığını geri yayılım ile anlamak zorunda kalır. Bu, özellikle derin ağlarda zor bir kredi atama problemidir. Her adımda doğrudan denetim sağlanınca, model, her ara adımın doğruluğu hakkında net geri bildirim alır ve doğru davranışı öğrenmesi kolaylaşır. Ayrıca, derin denetim modelin yerel optimumlarda takılı kalmasını önler. Model akıl yürütme sürecinin başında yanlış bir adım atarsa, derin denetim bunu hemen tespit edip düzeltici geri bildirim verir, böylece hata birçok adımdan geçip sonunda tespit edilmek yerine ilk fırsatta düzeltilir.
Küçük Yinelemeli Model ile elde edilen performans iyileştirmeleri olağanüstüdür. Sudoku Extreme kıyaslamasında modelin doğruluğu %55’ten %87’ye çıktı. Maze Hard kıyaslamasında %75’ten %85’e yükseldi. ARC AGI 1’de önceki yaklaşıma göre %40’tan %45’e çıktı. ARC AGI 2’de ise %5’ten %8’e ulaştı. ARC AGI 2’deki ilerleme küçük gibi görünse de (%5’ten %8’e), bu %60’lık göreli bir artıştır ve bu alanda ilerlemenin genellikle tek haneli yüzdelerle ölçüldüğü düşünüldüğünde çok anlamlıdır. Daha da önemlisi, bu sonuçların model boyutu bağlamında değerlendirilmesi gerekir. Küçük Yinelemeli Model yalnızca 7 milyon parametreye sahiptir. Karşılaştırmak gerekirse, Gemini 2.5 Pro, DeepSeek R1 ve Claude 3.7’nin her biri yüz milyarlarca parametreye sahip. Küçük Yinelemeli Model, bu kıyaslamalarda onların parametrelerinin %0,01’inden azını kullanarak rekabetçi veya üstün performans sağlıyor. Performans/parametre oranı karşılaştırıldığında, Küçük Yinelemeli Model birkaç büyüklük derecesi daha verimli. Bu, AI uygulamaları için çok önemli sonuçlar doğuruyor. Küçük modellerin çalıştırılması daha ucuz, daha az altyapı gerektiriyor ve uç cihazlara veya kaynak kısıtlı ortamlara kolaylıkla uygulanabiliyor. Eğer 7 milyon parametreli bir model, yüz milyarlarca parametreli modellerle rekabet edebiliyorsa, AI uygulamaları için tamamen yeni olanaklar açılıyor. Bu kıyaslamalarda Küçük Yinelemeli Model’i geçen tek sınırdaki model Gro for Thinking oldu ve çok daha iyi sonuçlar elde etti. Ancak Gro for Thinking, 1 trilyondan fazla parametreye sahip devasa bir model—TRM’den 140.000 kat daha büyük! Bu büyüklük farkı hesaba katıldığında bile, Küçük Yinelemeli Model’in verimliliği son derece dikkat çekici.
Yinelemeli akıl yürütmenin neden bu kadar etkili olduğunu anlamak için, karmaşık akıl yürütme problemlerinin doğası hakkında düşünmek gerekir. Pek çok zor akıl yürütme görevi, belirli bir yapıya sahiptir: Birden fazla kısıtlamayı sağlayan bir çözüm bulmak veya bir dizi gözlemi açıklayan bir desen keşfetmek. Bu tür problemler, sinir ağında tek geçişle çözülemez. Bunun yerine, yinelemeli iyileştirme gerekir: bir aday çözüm üretip, kısıtlara/gözlemlere göre kontrol edip, başarısız noktaları tespit edip, ardından çözümü iyileştirirsiniz. Yinelemeli akıl yürütmenin yaptığı tam olarak budur. Hem güncel tahmin hem de akıl yürütme izi tutularak model bu yinelemeli iyileştirme sürecini yürütür. Akıl yürütme izi, bir tür çalışma belleği işlevi görerek modelin neleri denediğini, nelerin çalışıp nelerin çalışmadığını takip etmesini sağlar. Bu, geleneksel sinir ağlarının çalışma şeklinden temelde farklıdır. Geleneksel bir sinir ağı, girdiyi katmanlardan geçirip bir çıktı üretir. Erken kararlarına geri dönme veya akıl yürütme sürecinin kaydını tutma mekanizması yoktur. “Şunu denedim, olmadı, başka bir şey deneyeyim” diyemez; sadece girdi-çıktı üretir. Yinelemeli akıl yürütme, yinelemeli iyileştirme ve akıl yürütme izi tutma mekanizmasını açıkça dahil ederek bu durumu değiştirir. Böylece model, insanların karmaşık problemleri çözerken gösterdiği akıl yürütmeye daha yakın bir süreç yürütür. İnsanlar zor bir bulmacayı çözerken, bir kerede düşünüp cevap vermeyiz; deneriz, aday çözüm üretiriz, kontrol ederiz, sorunları bulur ve iyileştiririz. Bunu defalarca yapabiliriz. Yinelemeli akıl yürütme, sinir ağlarının benzer bir şey yapmasını sağlar. Bir diğer önemli içgörü, yinelemeli akıl yürütmenin bir tür düzenleme oluşturduğudur. Modelin akıl yürütme izi tutmaya ve cevabını yinelemeli olarak iyileştirmeye zorlanması, daha genellenebilir çözümler öğrenmesini sağlar. Tek geçişte cevap üreten bir model, eğitim verisinden belirli desenleri ezberleyebilir. Yanıtını yinelemeli olarak iyileştirip akıl yürütme izi tutan bir model ise, yeni sorunlara da uygulanabilen daha temel ilkeleri öğrenmek zorundadır. Bu, Küçük Yinelemeli Model’in az veriyle bile yeni problemlere neden bu kadar iyi genelleyebildiğini açıklar.
Küçük Yinelemeli Model’in etkileri, akademik araştırmaların ötesinde pratik uygulamalara da uzanıyor. Kuruluşlar, veri analizi ve desen tanımadan karar verme ve problem çözmeye kadar karmaşık akıl yürütme görevlerini giderek daha fazla otomatikleştirmek istiyor. Geleneksel olarak, bu tür işler ya insan uzmanlığı ya da büyük ve pahalı AI modelleri gerektiriyordu. Küçük Yinelemeli Model, bu görevlerin verimli şekilde otomasyonu için yeni olanaklar sunuyor. FlowHunt, bir AI iş akışı otomasyon platformu olarak, bu tür akıl yürütme modellerindeki gelişmeleri kullanarak daha verimli ve maliyet etkin otomasyon çözümleri oluşturabilir. Devasa sınırdaki modeller yerine, FlowHunt küçük ve verimli modelleri—örneğin Küçük Yinelemeli Model’i—otomatik iş akışlarına entegre edebilir. Böylece kuruluşlar, karmaşık akıl yürütme görevlerini büyük modellerin yükü olmadan akıllı otomasyon sistemlerine dönüştürebilir. Örneğin, müşteri verisi analiz edip desenleri tespit eden ve önerilerde bulunan bir iş akışı düşünün. Geleneksel büyük bir dil modeliyle, bu iş akışını ölçekli çalıştırmak pahalı olurdu. FlowHunt iş akışına entegre edilmiş küçük bir yinelemeli modelle aynı işlem, çok daha düşük maliyetle yapılabilir. Model analizini yinelemeli olarak iyileştirir, önerilerinin dayanağını açıklayan bir akıl yürütme izi tutar ve varılan sonuçların şeffaflığını sağlar. Bu, sağlık, finans veya hukuk gibi açıklanabilirliğin önemli olduğu alanlarda özellikle değerlidir. Yinelemeli modelin tuttuğu akıl yürütme izi, modelin düşünce sürecinin açık bir kaydını sunar ve kararlarının anlaşılmasını ve doğrulanmasını kolaylaştırır. Ayrıca, küçük yinelemeli modellerin verimliliği, akıl yürütme kabiliyetinin uç ortamlara veya kaynak kısıtlı cihazlara taşınmasını mümkün kılar. Bir mobil uygulama, eskiden bulut tabanlı işlem gerektiren akıl yürütme yeteneklerini kendi içinde barındırabilir. Bu, çevrimdışı veya minimum ağ bağlantısıyla çalışabilen akıllı uygulamalar için yeni fırsatlar sunar.
FlowHunt’ın yapay zeka içerik ve SEO iş akışlarını nasıl otomatikleştirdiğini deneyimleyin — araştırmadan içerik üretimine, yayından analitiğe kadar her şey tek platformda.
Küçük Yinelemeli Model’in başarısı, modern AI gelişiminin en temel varsayımlarından birine meydan okuyor: On yıldır alanı yönlendiren ölçekleme yasaları. Ölçekleme yasaları, model boyutu, eğitim verisi ve hesaplama kaynakları arttıkça performansın öngörülebilir şekilde iyileştiğini öngörür. Daha büyük modeller daha iyidir. Daha çok veri daha iyidir. Daha çok hesaplama daha iyidir. Bu varsayım, giderek daha büyük modellerin geliştirilmesini tetikledi; şirketler yüz milyarlarca hatta trilyonlarca parametreli modellerin eğitimi için milyarlarca dolar harcadı. Küçük Yinelemeli Model, bu varsayımın bazı bağlamlarda eksik ya da yanıltıcı olabileceğini gösteriyor. Farklı bir mimari yaklaşım—yinelemeli akıl yürütme ve derin denetim—kullanılarak, küçük bir model belirli görevlerde devasa modellerle yarışabilecek ya da onları geçebilecek performansa ulaşabiliyor. Bu, ölçekleme yasalarının yanlış olduğu anlamına gelmiyor; yüksek performansa ulaşmak için birden fazla yol olduğunu, model boyutunu büyütmenin sadece bir seçenek olduğunu gösteriyor. Bu durum, AI gelişiminin geleceği için çok önemli sonuçlar doğuruyor. Küçük modeller, akıllıca mimari yeniliklerle büyüklerle benzer performansa ulaşabiliyorsa, AI sistemleri geliştirme ve uygulama yaklaşımımız değişebilir. Alan, yalnızca daha büyük modeller inşa etmeye odaklanmak yerine, daha az parametreyle yüksek performans sağlayan daha verimli mimariler geliştirmeye yönelebilir. Bu, çevre için, hesaplama verimliliği ve erişilebilirlik için önemli avantajlar getirir. Devasa modellerin eğitimi ve çalıştırılması çok büyük miktarda elektrik ve hesaplama kaynağı gerektirir. Benzer performans, birkaç büyüklük derecesi daha küçük modellerle elde edilebiliyorsa, AI’nın çevresel etkisi azalır ve sınırlı kaynağa sahip kuruluşlar için erişilebilir olur. Küçük Yinelemeli Model ayrıca, model boyutu ile genelleştirme arasındaki ilişkinin düşünüldüğünden daha karmaşık olabileceğini gösteriyor. Klasik bilgiye göre, büyük modeller daha iyi geneller çünkü karmaşık desenleri öğrenme kapasiteleri fazladır. Ancak Küçük Yinelemeli Model, doğru indüktif önyargılarla tasarlanırsa küçük modellerin daha iyi genelleyebileceğini gösteriyor. Yinelemeli iyileştirme ve akıl yürütme izi mekanizmaları dâhil edilerek, model daha genellenebilir çözümler öğrenmeye zorlanır. Bu, bazen mimari yeniliklerin ham model büyüklüğünden daha önemli olabileceğine örnektir.
Küçük Yinelemeli Model’in en dikkat çekici yanlarından biri sadeliğidir. Model yalnızca iki katman kullanır ve performansını, mimari karmaşıklık yerine yinelemeli iyileştirme ile elde eder. Bu sadelik tesadüf değildir; deneysel bulgulara dayalı bilinçli bir tasarım tercihidir. Araştırmacılar, katman eklemenin aşırı öğrenmeye (overfitting) yol açtığını ve genellemeyi azalttığını gördüler. Bu, klasik sinir ağı tasarım bilgisini tersine çeviren şaşırtıcı bir bulgudur. Genellikle, derin ağların daha güçlü ve karmaşık fonksiyonlar öğrenebileceğini düşünürüz. Ancak Küçük Yinelemeli Model, akıl yürütme görevlerinde yineleme ile sağlanan derinliğin, katman eklemeyle sağlanandan daha etkili olduğunu gösteriyor. Neden böyle? Bir açıklama, ek katmanların modelin eğitim verisinden belirli desenleri ezberleme kapasitesini artırması ve aşırı öğrenmeye yol açmasıdır. Ağı sığ tutup yineleme adımlarını artırınca, model daha genellenebilir çözümler öğrenmek zorunda kalır. Her yineleme adımı aynı iki katmanlı ağla çalışmak zorunda olduğundan, ağın yinelenerek uygulanabilecek işe yarar hesaplamalar öğrenmesi gerekir. Bu kısıtlama, ağın belirli desenleri ezberlemek yerine daha temel ilkeleri öğrenmeye zorlar. Diğer bir açıklama, akıl yürütme görevlerinin doğasıyla ilgilidir. Bu görevler genellikle yinelemeli iyileştirme ve kısıt tatmini gerektirir. Yinelemeli olarak uygulanan sığ bir ağ, mevcut çözümü kademeli olarak iyileştirmeye odaklanabildiği için bu tür sorunlara uygundur. Derin bir ağ ise, tüm sorunu tek geçişte çözmeye çalışabilir ve bu, yinelemeli iyileştirme gerektiren problemler için daha az etkilidir. Küçük Yinelemeli Model’in sadeliği, pratik avantajlar da sunar. Daha basit modelleri anlamak, hata ayıklamak ve değiştirmek daha kolaydır. Modelin belirli bir kararı neden verdiğini anlamak için adım adım akıl yürütme sürecini izleyebilirsiniz. Yeni bir problem türüyle başa çıkmak için modeli değiştirmek isterseniz, mimaride ya da eğitim prosedüründe hedefli değişiklikler yapabilirsiniz. Bu, milyarlarca parametreli devasa modellerin aksine, adeta birer kara kutu oldukları ve anlamanın ya da değiştirmenin zor olduğu dev modellerden farklıdır. “Az daha fazladır” ilkesi, yalnızca model mimarisine değil, teorik gerekçelere de uzanır. Araştırmacılar, modelin etkili çalışması için karmaşık matematiksel teoremlere veya biyolojik gerekçelere ihtiyaç olmadığını gördüler. Orijinal hiyerarşik akıl yürütme modeli, sabitleme noktası teoremlerine ve beynin çalışma biçimine dair biyolojik argümanlara dayanıyordu. Küçük Yinelemeli Model ise, bu tür teorik gerekçeler olmadan da çalışıyor. Model, iki bilgi parçasını koruyup yinelemeli olarak iyileştiriyor. Bu da bazen en basit açıklamanın en iyi açıklama olduğunu ve gereksiz teoriyle modellerimizi karmaşıklaştırmamamız gerektiğini gösteriyor.
Küçük Yinelemeli Model’in başarısı, gelecekte AI sistemlerinin nasıl geliştirileceği ve uygulanacağına dair önemli sonuçlar doğuruyor. Birincisi, verimliliğin ana tasarım hedefi olması gerektiğini gösteriyor; sonradan düşünülecek bir unsur olmamalı. Devasa modeller inşa edip sonra sıkıştırmak veya optimize etmek yerine, baştan verimlilik odaklı modeller tasarlanmalı. Küçük Yinelemeli Model, mimari özenle tasarlanırsa küçük, verimli bir modelle yüksek performansın mümkün olduğunu gösteriyor. İkincisi, mimari yeniliğin ölçekten daha önemli olabileceğini gösteriyor. Alan, uzun süredir model ölçeğini büyütmeye odaklanmıştı; ancak Küçük Yinelemeli Model, bazen akıllıca mimari yeniliklerin model büyütmekten daha etkili olabileceğini gösteriyor. Bu, mimari tasarıma yeniden odaklanmaya ve
Küçük Yinelemeli Model, 7 milyon parametreli bir sinir ağıdır ve yinelemeli hiyerarşik akıl yürütme ile derin denetimi birleştirerek, Gemini 2.5 Pro ve DeepSeek gibi çok daha büyük modellere kıyasla karmaşık akıl yürütme görevlerinde üstün performans sergiler.
TRM; yinelemeli akıl yürütmeyi (iyileştirme adımlarında döngüye girme) ve derin denetimi (öğrenilen özellikleri adımlar arasında aktarma) birleştiren yenilikçi bir yaklaşım kullanır. Bu sayede küçük model, tek seferde yanıt tahmin etmek yerine, insanlar gibi adım adım sorunları çözebilir.
TRM, ARC AGI 1'de %45, ARC AGI 2'de ise %8 doğruluk oranına ulaşarak Gemini 2.5 Pro (%4,9), DeepSeek R1 ve Claude 3.7'yi geride bırakıyor ve bunların parametrelerinin %0,01'inden azını kullanıyor.
Yinelemeli akıl yürütme, modelin cevabını adım adım iyileştirmesini sağlar. Model güncel tahminini ve akıl yürütme izini koruyarak, geri bildirim döngüsü oluşturur ve böylece insanlarda olduğu gibi deneme-yanılma ile yanıtlar defalarca gözden geçirilip düzeltilir.
Derin denetim, akıl yürütme sürecinin birden fazla adımında denetim sinyalleri vererek doğruluğu artırır. Sadece son cevabı kontrol etmek yerine, model her ara adımda geri bildirim alır. İlk deneylerde bu, doğruluğu %19'dan %39'a çıkararak ikiye katladı.
Arshia, FlowHunt'ta bir Yapay Zeka İş Akışı Mühendisidir. Bilgisayar bilimi geçmişi ve yapay zekaya olan tutkusu ile, yapay zeka araçlarını günlük görevlere entegre eden verimli iş akışları oluşturmada uzmanlaşmıştır ve bu sayede verimlilik ile yaratıcılığı artırır.
En son AI modellerini ve akıl yürütme tekniklerini kullanan akıllı otomasyon akışları oluşturun ve karmaşık problemleri verimli bir şekilde çözün.
OpenAI O3 Mini sizin için doğru AI aracı mı? İçerik üretimi, hesaplamalar ve daha fazlası ile test ettik. Bu modelin performansı şaşırtıcı derecede verimli bir ...
LG'nin EXAONE Deep 32B akıl yürütme modelinin, DeepSeek R1 ve Alibaba'nın QwQ modellerine karşı test edildiği kapsamlı bir analiz; üstün performans iddialarının...
Llama 3.3 70B Versatile 128k'in bir AI Ajanı olarak gelişmiş yeteneklerini keşfedin. Bu derinlemesine inceleme, modelin akıl yürütme, problem çözme ve yaratıcı ...
Çerez Onayı
Göz atma deneyiminizi geliştirmek ve trafiğimizi analiz etmek için çerezleri kullanıyoruz. See our privacy policy.


