Yapay Zeka Ajanları Yetenekleri Gerçekte Nasıl Uygular: Kapsamlı Platformlar Arası Karşılaştırma

AI Agents LLM Context Management Agent Frameworks

Giriş

Her yapay zeka ajan çerçevesi aynı temel soruyla karşı karşıyadır: Bir LLM’i belirli bir konuda nasıl iyi hale getirirsiniz? Modelin kendisi geniş bir genel bilgiye sahiptir, ancak kod incelemesi yapması, altyapı dağıtması veya Minecraft’ta gezinmesi gerektiğinde — uzmanlaşmış talimatlara, araç erişimine ve alan bağlamına ihtiyaç duyar.

Bu, yetenek enjeksiyonu problemidir. Ve her büyük çerçeve bunu farklı şekilde çözer.

Bazı platformlar her şeyi baştan sistem istemine yükler. Diğerleri tembel yükleme kullanarak yetenekleri yalnızca ajan ihtiyaç duyduğunda ortaya çıkarır. Birkaçı ise anlamsal benzerliğe dayalı olarak ilgili yetenekleri almak için vektör veritabanları kullanır. Farklar akademik değildir — doğrudan token maliyetlerini, ajan güvenilirliğini ve bir ajanın gerçekçi olarak kaç yeteneği yönetebileceğini etkiler.

Yeteneklerin istemde tam olarak nereye düştüğünü, ne zaman yüklendiğini, token cinsinden ne kadara mal olduğunu ve bağlam penceresi dolduğunda nasıl hayatta kaldığını anlamak için 11 büyük yapay zeka ajan platformunu analiz ettik. Bu, yüzeysel bir özellik karşılaştırması değildir. Her platformun kesin enjeksiyon mekanizmalarını haritalamak için kaynak koda, belgelere ve mimari diyagramlara derinlemesine indik.

Ana Karşılaştırma Tablosu

Ayrıntılara geçmeden önce işte genel bakış.

Enjeksiyon Mekanizmaları: Nerede, Ne Zaman ve Nasıl

PlatformEnjeksiyon NoktasıNe Zaman YüklenirMekanizma
Claude CodeSistem hatırlatıcısı (meta veri) + konuşma mesajı (gövde)Meta veri oturum başlangıcında; gövde /command veya otomatik eşleşmedeÇerçeve meta veriyi enjekte eder; Skill aracı etkinleştirmede tam gövdeyi yükler
CrewAIGörev istemi (LLM çağrısından önce eklenir)Her görev yürütmesinde _finalize_task_prompt() aracılığıylaformat_skill_context() tüm yetenek gövdelerini isteme ekler
LangChain Deep AgentsSistem istemi (meta veri) + konuşma geçmişi (gövde)Meta veri başlangıçta; gövde ajan read_file() çağırdığındaSkillsMiddleware dizini enjekte eder; ajan dosya sistemi aracıyla gövdeyi yükler
OpenAI Responses APIKullanıcı istemi bağlamı (platform yönetimli)API çağrısında skill_reference ilePlatform meta veriyi ekler; model çağrıda tam SKILL.md’yi okur
OpenAI Agents SDKAraç tanımları (ToolSearchTool ile ertelenen)Oluşturmada ad alanı adları; ToolSearchTool çağrısında şemalartool_namespace() + kademeli keşif için ToolSearchTool()
AutoGen TeachabilityDeğiştirilmiş kullanıcı mesajı (alınan notlar enjekte edilir)Her turda — her LLM çağrısından önce vektör DB alımıAra yazılım mesajı yakalar, ChromaDB’yi sorgular, en iyi K eşleşmeyi enjekte eder
Semantic KernelFonksiyon çağırma şemaları + istem şablonu içeriğiTüm şemalar başlangıçta; şablon içeriği fonksiyon çağrısındakernel.add_plugin() tümünü kaydeder; kernel.invoke() şablonları işler
MetaGPTAksiyon istem şablonu (LLM çağrısına işlenir)Rolün _act() metodu belirli bir Aksiyon için tetiklendiğindeAction.run() PROMPT_TEMPLATE‘i biçimlendirir, aask() ile gönderir
VoyagerKod üretim istemi (alınan yetenek kodu)Her kod üretiminden önce; gömme benzerlik aramasıSkillLibrary.retrieve_skills() en iyi 5’i az sayıda örnek olarak enjekte eder
DSPyPredict modülü istemlerinde derlenmiş az sayıda örnek demolarOptimize edici tarafından çevrimdışı derlenir; çalışma zamanında sabitBootstrapFewShot / MIPROv2 en iyi demoları seçer; Predict isteme işler
SuperAGIAjanın araç listesindeki araç şemalarıAjan oluşturmada — tüm araç seti araçları önceden kaydedilirBaseToolkit.get_tools() tümünü fonksiyon çağırma araçları olarak kaydeder
CAMEL-AIFonksiyon şemaları + rol sistem mesajıAjan oluşturmada — tüm araçlar önceden kaydedilirChatAgent(tools=[*toolkit.get_tools()]) başlatmada her şeyi yükler

Kalıcılık, Token Maliyeti ve Sürekli Aktiflik

PlatformHer Zaman Mevcut mu?KalıcılıkToken Maliyeti
Claude CodeMeta veri: EVET. Gövde: yalnızca etkinleştirmeden sonraOturum kapsamlı. Sıkıştırmada: yeniden eklenir (5K/yetenek, 25K üst sınır)~250 karakter/yetenek meta verisi; bağlam bütçesinin %1’i
CrewAIEVET — her görev isteminde tam gövdeHer görevde taze enjeksiyon; görevler arası kalıcılık yokHer çağrıda tam gövde. 50K karakter yumuşak sınır
LangChain Deep AgentsMeta veri: EVET. Gövde: talep üzerineGövde konuşma geçmişinde kalır; alt ajan yetenekleri izole~100 token/yetenek meta verisi; gövde bir kez ödenir (~3.302 token)
OpenAI Responses APIAd+açıklama: EVET. Tam gövde: çağrıdaYalnızca tek API yanıtı; çağrılar arası kalıcılık yokPlatform yönetimli
OpenAI Agents SDKAd alanı listesi: EVET. Şemalar: talep üzerineYalnızca tek çalışma; her oturumda yeniden keşifEtkinleştirilene kadar minimum
AutoGen TeachabilityHAYIR — her turda yalnızca ilgili notlarChromaDB ile oturumlar arası; süresiz kalıcılık~3-5 not/tur (değişken)
Semantic KernelTüm şemalar: EVET. Şablonlar: çağrıdaÇekirdek örneği başına bellekte; oturumlar arası yokTüm şemalar her zaman mevcut
MetaGPTHAYIR — yalnızca mevcut Aksiyonun şablonuYalnızca tek aksiyon yürütmesiTur başına tek şablon
VoyagerHAYIR — görev başına en iyi 5 alınırVektör DB’de ömür boyu kalıcılık~500-2.000 token/yetenek örneği
DSPyEVET — derlenmiş demolar sabitlenmişJSON’a serileştirilebilir; oturumlar arası kalıcılıkDerlemeden sonra sabit (3-8 demo/modül)
SuperAGIEVET — tüm şemalar her zaman mevcutAjan oturumu içindeTüm şemalar her zaman mevcut
CAMEL-AIEVET — tüm şemalar + rol istemiKonuşma oturumu içindeTüm şemalar her zaman mevcut
Logo

İşinizi büyütmeye hazır mısınız?

Bugün ücretsiz denemenizi başlatın ve günler içinde sonuçları görün.

“Yetenek Enjeksiyonu” Gerçekte Ne Anlama Gelir

Karşılaştırmaya geçmeden önce problem alanını tanımlayalım. Bir yapay zeka ajanının bağlam penceresi — LLM’in her çağrıda gördüğü toplam metin — sabit bir boyuta sahiptir. Her talimat tokeni, konuşma geçmişi, araç tanımı ve alınan veri, o pencerede yer için yarışır.

Ajan bağlamında bir “yetenek”, ajanın davranışını değiştiren herhangi bir yapılandırılmış uzmanlık paketidir. Bu şunlar olabilir:

  • Talimatlar — ajana belirli bir alana nasıl yaklaşacağını söyler (kod inceleme kılavuzları, dağıtım kontrol listeleri)
  • Araç tanımları — ajana çağrılabilir fonksiyonlar verir (API entegrasyonları, dosya işlemleri)
  • Az sayıda örnek — ajana iyi çıktının nasıl göründüğünü gösterir
  • Alınan bilgi — vektör veritabanlarından veya harici belgelerden

Enjeksiyon mekanizması — bu içeriğin bağlama nerede ve ne zaman girdiği — üç kritik özelliği belirler:

  1. Token verimliliği: Yetenek kaç token tüketir ve bu maliyet yetenek gerekmediğinde bile ödenir mi?
  2. Güvenilirlik: Ajan ilgili olduğunda yeteneği tutarlı bir şekilde kullanacak mı, yoksa ipucunu kaçırabilir mi?
  3. Ölçeklenebilirlik: Bağlam şişkinliği performansı düşürmeden önce ajan kaç yeteneğe erişebilir?

Her çerçeve bu üç boyut arasında farklı ödünleşimler yapar. Her birini inceleyelim.

Enjeksiyon Yelpazesi: Sürekli Aktiften Talep Üzerine’ye

11 platformun tamamında, yetenek enjeksiyonu yaklaşımları “her şey önceden yüklü” ile “açıkça gerekli olana kadar hiçbir şey yüklü değil” arasında bir yelpazede yer alır.

Bir uçta, CrewAI, SuperAGI ve CAMEL-AI gibi platformlar, etkinleştirilmiş her yeteneğin tam içeriğini her LLM çağrısına enjekte eder. Ajan her zaman tam uzmanlığına sahiptir. Basit, güvenilir, ama token açısından pahalı.

Diğer uçta, Claude Code, LangChain Deep Agents ve OpenAI’ın Responses API’si kademeli açıklama kullanır — ajan başlangıçta yalnızca yetenek adlarını ve kısa açıklamaları görür, tam içerik ise talep üzerine yüklenir. Verimli, ölçeklenebilir, ancak ajanın bir yeteneğe ne zaman ihtiyaç duyduğunu fark etmesini gerektirir.

Ortada, AutoGen Teachability ve Voyager her turda yalnızca en ilgili yetenekleri enjekte etmek için anlamsal alma kullanarak dinamik, bağlama duyarlı bir enjeksiyon kalıbı oluşturur.

Sonra da benzersiz yaklaşımlar vardır: DSPy optimize edilmiş az sayıda örnek demoları çevrimdışı derler ve bunları kalıcı olarak modül istemlerine yerleştirir. MetaGPT yetenekleri, yalnızca belirli bir rol belirli bir aksiyona geçtiğinde etkinleşen aksiyon şablonları olarak kodlar.

Her birini ayrıntılı olarak inceleyelim.

Claude Code: Üç Katmanlı Kademeli Açıklama

Claude Code üç katmanlı kademeli açıklama: sürekli aktif meta veri, etkinleştirmede yetenek gövdesi, talep üzerine kaynaklar

Claude Code, farkındalığı token verimliliğiyle dengeleyen üç katmanlı kademeli açıklama sistemi ile en gelişmiş yetenek enjeksiyon mimarilerinden birini uygular.

Katman 1: Her Zaman Bağlamda

Oturum başlangıcında, mevcut her yeteneğin adı ve açıklaması bir system-reminder mesajına — modelin her zaman gördüğü bir meta veri bloğuna — enjekte edilir. Bu, yetenek başına yaklaşık 250 karakter maliyetine sahiptir ve tüm yetenek açıklamaları için bağlam penceresi bütçesinin yaklaşık %1’ini tüketir (yedek bütçe olarak yaklaşık 8K karakter, SLASH_COMMAND_TOOL_CHAR_BUDGET ortam değişkeniyle geçersiz kılınabilir).

Benzer şekilde, ertelenmiş araçlar — tam JSON şemaları henüz yüklenmemiş araçlar — sistem hatırlatıcısı bloklarında yalnızca isim listesi olarak görünür. Claude Code v2.1.69 itibarıyla, Bash, Read, Edit, Write, Glob ve Grep gibi yerleşik sistem araçları bile ToolSearch arkasında ertelenerek, sistem araç bağlamı yaklaşık 14-16K tokenden yaklaşık 968 tokene düşürülmüştür.

Ajan, tam tanımların token maliyetini ödemeden nelerin mevcut olduğunu bilecek kadar bilgi görür.

Katman 2: Etkinleştirmede

Bir kullanıcı eğik çizgi komutu yazdığında (örn. /commit) veya model açıklamasına dayalı olarak bir yeteneği otomatik eşleştirdiğinde, tam SKILL.md gövdesi Skill aracı aracılığıyla bir konuşma mesajı olarak yüklenir. Bu gövde, bazen binlerce token ayrıntılı rehberlik içeren tam talimatları barındırır.

Önemli detay: Önce kabuk ön işlemesi çalışır (yetenek dosyasındaki herhangi bir !command direktifi yürütülür ve çıktıları direktifin yerini alır) ve yüklendikten sonra yetenek gövdesi oturumun geri kalanında konuşmada kalır.

Katman 3: Talep Üzerine

Ek kaynaklar — referans belgeler, betikler, varlık dosyaları — yalnızca model açıkça Read aracını kullanarak erişmeye karar verdiğinde okunur. Bunlar asla otomatik olarak yüklenmez.

Bağlam Sıkıştırma Davranışı

Konuşma bağlam sınırına yaklaştığında ve sıkıştırma tetiklendiğinde, Claude Code en son çağrılan yetenekleri yetenek başına 5K token ve toplam 25K maksimum bütçeyle yeniden ekler. En son çağrılan yetenekler öncelik alır. Daha eski yetenekler tamamen düşürülebilir.

Bu üç katmanlı mimari, 20’den fazla mevcut yeteneğe sahip bir ajanın minimum ön maliyet ödemesini ancak herhangi birinin tam uzmanlığına tek bir turda erişebilmesini sağlar.

CrewAI: Her Görev İstemine Tam Enjeksiyon

CrewAI yetenek enjeksiyonu: format_skill_context() ile her görev istemine tam gövde eklenir

CrewAI, kademeli açıklamanın tam tersi yaklaşımı benimser. Bir ajan için bir yetenek etkinleştirildiğinde, tam içeriği ajanın yürüttüğü her görev istemine enjekte edilir.

Nasıl Çalışır

CrewAI’daki yetenekler, her biri YAML ön bilgisi (ad, açıklama, lisans, uyumluluk, izin verilen araçlar) ve bir markdown gövdesi içeren SKILL.md dosyasına sahip bağımsız dizinlerdir. Yetenek sistemi, yetenekler ve araçlar arasında ayrım yapar: yetenekler, ajanın nasıl düşündüğünü şekillendiren talimatlar ve bağlam enjekte ederken, araçlar eylemler için çağrılabilir fonksiyonlar sağlar.

Ajan başlatma sırasında, Agent.set_skills() meta veri düzeyinde yetenek dizinlerini taramak için discover_skills() çağırır, ardından tam yetenek gövdelerini okumak için activate_skill() çağırır. Görev yürütme zamanında, _finalize_task_prompt() her etkinleştirilmiş yetenek için format_skill_context() çağırır ve tüm biçimlendirilmiş yetenek içeriğini görev istemine ekler.

LLM şunu alır: [sistem mesajı] + [görev istemi + TÜM yetenek gövdeleri]

Token Etkileri

CrewAI yetenek başına 50.000 karakterde yumuşak bir uyarı uygular ancak katı sınır yoktur. Belgeler, büyük istem enjeksiyonlarının modelin dikkatini dağıttığı için yeteneklerin odaklı ve özlü tutulmasını önerir — bağlam çürümesi araştırmaları göz önüne alındığında gerçek bir endişe.

Ödünleşim basittir: ajan her zaman tam uzmanlığa sahiptir (yüksek güvenilirlik), ancak token maliyeti görev başına yetenek sayısıyla doğrusal olarak artar (düşük verimlilik). 1-2 odaklı yeteneğe sahip ajanlar için bu iyi çalışır. Geniş yetenek setlerine ihtiyaç duyan ajanlar için hızla pahalılaşır.

Görevler Arası Kalıcılık Yok

Her görev taze bir enjeksiyon alır. Görevler arasında yetenek içeriği birikimiyle yoktur — bu aslında bir hata değil, bir özelliktir. Her görevin temiz bir bağlamla başladığı anlamına gelir ve oturum tabanlı kalıcılığın yaratabileceği bayatlama sorunlarını önler.

LangChain Deep Agents: SkillsMiddleware ile Ajan Kontrollü Yükleme

LangChain Deep Agents üç katmanlı yetenek yükleme: SkillsMiddleware ile dizin, read_file ile tam içerik, talep üzerine derinlemesine inceleme

LangChain Deep Agents, ajanın kendisinin tam yetenek içeriğini ne zaman yükleyeceğine karar verdiği gelişmiş bir ara yazılım tabanlı yetenek sistemi uygular — ajanın etkinleştirmeyi kontrol ettiği gerçek bir kademeli açıklama modeli.

Üç Katman

Katman 1 (Dizin): SkillsMiddleware başlangıçta tüm SKILL.md ön bilgilerini ayrıştırır ve sistem istemine hafif bir dizin enjekte eder. Bu dizin yalnızca adları ve açıklamaları içerir ve yetenek başına tam içerik için yaklaşık 3.302 token yerine yaklaşık 278 tokene mal olur.

Katman 2 (Tam İçerik): Ajan bir yeteneğin ilgili olduğunu belirlediğinde, yeteneğin SKILL.md yolu üzerinde read_file() çağırır. Bu normal bir araç çağrısıdır — çerçeve gövdeyi enjekte etmez; ajan onu yüklemek için bilinçli bir karar verir. Tam içerik, bir araç sonucu olarak konuşma geçmişine girer.

Katman 3 (Derinlemesine İnceleme): Destekleyici materyaller, referans belgeler ve betikler yalnızca ajan bunları açıkça okuduğunda erişilir.

Pratikte Token Verimliliği

12 yetenekle, kademeli açıklama bağlamı yaklaşık 30.000 tokenden (tümü yüklü) yaklaşık 600 tokene (yalnızca dizin) düşürür ve belirli bir görev için ilgili yetenekler yüklendiğinde 2.000-5.000’e genişler. Bu, yeteneğe bağlı token tüketiminde potansiyel %83-98 oranında bir azalmadır.

Birden fazla yetenek kaynağı katmanlanabilir ve adlar çakıştığında son kaynak kazanır. 10 MB’ın üzerindeki dosyalar otomatik olarak atlanır.

Claude Code’dan Temel Fark

Claude Code yüklemeyi tetiklemek için özel bir Skill aracı kullanırken, Deep Agents ajanın mevcut read_file aracını yeniden kullanır. Bu, yükleme mekanizmasının şeffaf olduğu anlamına gelir — ajan yetenek dosyalarını diğer dosyaları okuduğu gibi okur. Dezavantajı, özel sıkıştırma davranışının olmamasıdır: konuşma geçmişine giren yetenek içeriği, öncelik sırası olmaksızın standart LangChain mesaj kırpmaya tabidir.

OpenAI Responses API ve Agents SDK: Platform Yönetimli Ertelenmiş Yükleme

OpenAI ertelenmiş araç yükleme: platform yönetimli tool_search ile üç erteleme stratejisi

OpenAI, yetenek enjeksiyonunu iki farklı ama felsefi olarak uyumlu mekanizma aracılığıyla uygular: Responses API’nin tool_search araç türü ve Agents SDK’nın ToolSearchTool‘u.

tool_search araç türü (GPT-5.4+ sürümünde mevcuttur) geliştiricilerin büyük araç yüzeylerini çalışma zamanına kadar ertelemesine olanak tanır. Üç erteleme stratejisi mevcuttur:

  • Bireysel fonksiyon erteleme: @function_tool(defer_loading=True) — model fonksiyon adını ve açıklamasını görür ancak parametre şeması ertelenir. Parametre düzeyinde token tasarrufu sağlar.
  • Ad alanı erteleme: tool_namespace(name=..., description=..., tools=[...]) — fonksiyonları tek bir ad alanı altında gruplar. Model yalnızca ad alanı adını ve açıklamasını görür, önemli ölçüde daha fazla token tasarrufu sağlar.
  • MCP sunucu erteleme: HostedMCPTool(tool_config={..., "defer_loading": True}) — tüm MCP sunucu araç yüzeylerini erteler.

Model belirli bir araca ihtiyaç duyduğunu belirlediğinde, bir tool_search çağrısı yapar. API, istem önbelleğini korumak için bağlam penceresinin sonuna enjekte edilen 3-5 ilgili araç tanımı döndürür.

Agents SDK: ToolSearchTool

Agents SDK programatik bir eşdeğer sağlar. Araç ad alanları kaydedilir ancak yüklenmez:

crm_tools = tool_namespace(
    name="crm",
    description="CRM management tools",
    tools=[...]
)
agent = Agent(tools=[*crm_tools, ToolSearchTool()])

Çalışma zamanında ajan yalnızca ad alanı adlarını görür. Tam şemaları keşfetmek ve yüklemek için ToolSearchTool("crm") çağırır, ardından o ad alanı içindeki bireysel araçları çağırabilir.

İstekler Arası Kalıcılık Yok

Her API isteği bağımsızdır. Keşfedilen araçlar çağrılar arasında kalıcı değildir. Bu, karşılaştırmamızdaki en durumsuz yaklaşımdır — temiz, öngörülebilir, ancak araçlar değişirse her istekte yeniden keşif gerektirir.

AutoGen Teachability: Tur Başına Anlamsal Alma

AutoGen Teachability tur başına alma döngüsü: mesaj yakalama, ChromaDB sorgusu, not enjeksiyonu, öğrenme döngüsü

AutoGen’in Teachability yeteneği, bu karşılaştırmadaki diğer tüm çerçevelerden temelden farklı bir yaklaşım benimser. Statik yetenek içeriği enjekte etmek yerine, her turda ChromaDB vektör veritabanından ilgili “notları” dinamik olarak alır.

Tur Başına Alma Döngüsü

Teachability, ajan işlemeden önce gelen her kullanıcı mesajını yakalayan process_last_received_message üzerinde bir kanca kaydeder:

  1. Bir TextAnalyzerAgent gelen mesajdan anahtar kavramları çıkarır
  2. Bu kavramlar ChromaDB’yi sorgulamak için kullanılır (varsayılan olarak Sentence Transformer gömmeleri ile)
  3. En ilgili K not alınır (max_num_retrievals ile yapılandırılabilir, varsayılan 10)
  4. Alınan notlar, ajan görmeden önce mesaj metnine eklenir

Kritik olarak, değiştirilmiş mesaj saklanan konuşma geçmişine yayılmaz — yalnızca orijinal mesaj saklanır. Bu, not içeriğinin turlar arasında birikmesini önler.

Öğrenme Döngüsü

LLM yanıt verdikten sonra, ikinci bir kanca yanıtı yeni öğrenmeler açısından analiz eder:

  1. TextAnalyzerAgent yanıttaki yeni bilgiyi tanımlar
  2. Yeni notlar anahtar-değer çiftleri olarak çıkarılır (giriş metni → çıkış metni)
  3. Bu notlar ChromaDB’de saklanır, gelecekteki turlar ve oturumlar için kullanılabilir

Bu, ajanın zamanla uzmanlık biriktirdiği gerçek bir öğrenme döngüsü oluşturur.

Oturumlar Arası Kalıcılık

AutoGen Teachability, karşılaştırmamızdaki yetenekleri oturumlar arası kalıcı kılan yalnızca üç platformdan biridir (Voyager ve DSPy ile birlikte). ChromaDB veritabanı diskte bulunur, yani bir ajan Pazartesi etkileşimlerinden öğrenebilir ve bu bilgiyi Cuma günü uygulayabilir.

recall_threshold parametresi (varsayılan 1.5), bir mesajın alma için saklanan bir nota ne kadar benzer olması gerektiğini kontrol eder ve reset_db gerektiğinde tüm belleği temizleyebilir.

Token Verimliliği

Her turda yalnızca ilgili notlar enjekte edildiğinden (genellikle 3-5), token maliyeti, not veritabanı ne kadar büyürse büyüsün doğal olarak sınırlıdır. 10.000 saklanan nota sahip bir ajan, yalnızca mevcut turla en ilgili birkaç tanesinin maliyetini öder.

Semantic Kernel: Her Zaman Mevcut Araç Tanımları Olarak Eklenti Şemaları

Semantic Kernel iki enjeksiyon yolu: tüm şemalar her zaman mevcut fonksiyon çağırma ve istem şablonu işleme

Microsoft’un Semantic Kernel’i basit bir yaklaşım benimser: eklentiler, Kernel’e kaydedilen KernelFunction nesnelerinin koleksiyonlarıdır ve şemaları LLM’e fonksiyon çağırma araç tanımları olarak sunulur.

İki Enjeksiyon Yolu

Fonksiyon Çağırma: ToolCallBehavior.AutoInvokeKernelFunctions ayarlandığında, tüm kayıtlı fonksiyonlar her API isteğinde mevcut araçlar olarak LLM’e gönderilir. LLM hangisini çağıracağına karar verir; Semantic Kernel çağrıyı ve sonuç yönlendirmesini yönetir.

İstem Şablonları: Semantic Kernel’in şablon söz dizimi ({{plugin.function}}, Handlebars veya Liquid) fonksiyonların istem işleme sırasında satır içi çağrılmasına olanak tanır. Sonuçlar, LLM’e ulaşmadan önce doğrudan istem metnine gömülür — tembel araç çağırma yerine bir tür hevesli değerlendirme.

Kademeli Açıklama Yok

Her kayıtlı eklentinin şeması her API çağrısına dahil edilir. Yerleşik ertelenmiş yükleme, ad alanı gruplama veya talep üzerine etkinleştirme yoktur. Belgeler, token tüketimini ve hatalı çağrıları azaltmak için yalnızca belirli bir senaryo için gereken eklentilerin içe aktarılmasını açıkça önerir.

Bu, Semantic Kernel’i en öngörülebilir platformlardan biri yapar — ajanın neye erişimi olduğunu her zaman tam olarak bilirsiniz — ancak ölçeklenebilirliği sınırlar. 50 kayıtlı fonksiyona sahip bir ajan, her çağrıda tam şema maliyetini öder.

Kalıcılık

Eklenti kaydı Kernel örneği başınadır ve bellektedir. Oturumlar arası yetenek kalıcılığı için yerleşik bir mekanizma yoktur.

MetaGPT: Rol Tabanlı SOP’lar İçindeki Aksiyon Şablonları

MetaGPT rol tabanlı SOP: persona ile Rol, tepki modu seçimi, aktif Aksiyon şablonu, aask() LLM çağrısı

MetaGPT, yetenekleri bağımsız paketler olarak değil, rol davranışını yöneten Standart İşlem Prosedürleri (SOP’lar) içine gömülü aksiyon şablonları olarak kodlar.

Rol ve Aksiyon Mimarisi

MetaGPT’deki her Role, istemlere enjekte edilen bir persona ön eki ve bir dizi Action sınıfına sahiptir. Her Action, LLM çağrısını yapılandırmak için doğal dil istem şablonları kullanan aask() aracılığıyla çağrılan bir LLM vekili içerir.

Role._act() tetiklendiğinde, üç tepki modunu destekler:

  • "react": LLM, düşün-hareket et döngülerinde dinamik olarak aksiyonlar seçer
  • "by_order": Aksiyonlar önceden belirlenmiş bir sırada sıralı olarak yürütülür
  • "plan_and_act": Ajan önce plan yapar, ardından plana göre aksiyonları yürütür

Dar Enjeksiyon Penceresi

Herhangi bir anda yalnızca mevcut Aksiyonun istem şablonu aktiftir. Ajan diğer aksiyonların şablonlarını görmez — yalnızca rol ön eki ve belirli aksiyonun bağlamını görür. Bu, incelediğimiz tüm çerçeveler arasındaki en dar enjeksiyon penceresidir.

Action sınıfları içindeki bağlam ayrıştırma fonksiyonları, girişlerden ilgili bilgiyi çıkarır, böylece her aksiyon tam konuşma geçmişi yerine mevcut bağlamın seçilmiş bir alt kümesini alır.

Tek Turda Kalıcılık

Şablon her aksiyon yürütmesi için taze işlenir. Birikim veya oturumlar arası kalıcılık yoktur. Bu, her aksiyonu odaklı tutar ancak ajanın tek bir iş akışı içinde daha önce yüklenmiş yetenek içeriği üzerine inşa edemeyeceği anlamına gelir.

Voyager: Ömür Boyu Öğrenme için Gömme Tabanlı Yetenek Alımı

Voyager yetenek kütüphanesi: müfredat görev önerir, gömme araması en iyi 5 yeteneği alır, ömür boyu öğrenme döngüsü ile kod üretimi

NVIDIA ve Caltech’ten Minecraft keşif ajanı Voyager, en zarif yetenek enjeksiyon mimarilerinden birini uygular: gömme benzerliğiyle alınan, büyüyen bir doğrulanmış program kütüphanesi.

Yetenek Kütüphanesi

Voyager, öz doğrulamayı geçen kod yazdığında (üretilen Mineflayer JavaScript oyunda gerçekten çalıştığında), kod ve belgeleme dizesi bir vektör veritabanında saklanır. Belgeleme dizesi gömmesi alma anahtarı olur.

Görev Başına Alma

Otomatik müfredatın önerdiği her yeni görevde:

  1. Görev açıklaması ve çevre geri bildirimi gömülür
  2. Tüm saklanan yetenek gömmelerine karşı kosinüs benzerlik araması yapılır
  3. En ilgili 5 yetenek alınır
  4. Alınan yetenek kodu, aksiyon ajanının istemine az sayıda örnek olarak dahil edilir

İstem şöyle görünür:

You are a Minecraft bot. Here are some relevant skills you've learned:

// Skill: mineWoodLog
async function mineWoodLog(bot) { ... }

// Skill: craftPlanks
async function craftPlanks(bot) { ... }

Now write code to: build a wooden pickaxe

Üretilen kod, alınan yetenekleri ada göre çağırabilir ve birleşimsel yetenek oluşturmayı mümkün kılar — daha basit, doğrulanmış ilkellerden oluşturulan karmaşık davranışlar.

Ömür Boyu Kalıcılık

Yetenek kütüphanesi temel “ömür boyu öğrenme” mekanizmasıdır. Ajanın tüm yaşam süresi boyunca büyür ve yeni yetenekler eskilerin üzerine inşa edilir. Yeteneklerin insanlar tarafından yazıldığı çoğu çerçevenin aksine, Voyager’ın yetenekleri ajanın kendisi tarafından üretilir, doğrulanır ve saklanır.

Token maliyeti doğal olarak sınırlıdır: kütüphane 50 veya 5.000 yetenek içersin, her görev yalnızca en ilgili 5 almanın maliyetini öder.

DSPy: Dondurulmuş Yetenekler Olarak Derlenmiş Az Sayıda Örnek Demolar

DSPy derleme: BootstrapFewShot ve MIPROv2 optimize ediciler dondurulmuş az sayıda örnek demoları Predict modülü istemlerine derler

DSPy, diğer tüm çerçevelerden kökten farklı bir yaklaşım benimser. Çalışma zamanında yetenek enjekte etmek yerine, DSPy optimal az sayıda örnek gösterimleri çevrimdışı derler ve bunları kalıcı olarak modül istemlerine yerleştirir.

Derleme Süreci

İki ana optimize edici derlemeyi yönetir:

BootstrapFewShot: Program boyunca izler oluşturmak için bir öğretmen modülü kullanır. Kullanıcı tanımlı bir metriği geçen izler gösterim olarak tutulur. Program içindeki her dspy.Predict modülü kendi seçilmiş gösterim setini alır.

MIPROv2 (Multi-prompt Instruction Proposal Optimizer v2): Üç aşamalı bir süreç:

  1. Bootstrap: Aday gösterim setleri oluştur
  2. Öner: Hem veri dağılımının hem de gösterimlerin farkında olan aday talimat metinleri oluştur
  3. Ara: Tüm modüller boyunca talimatlar x gösterimler birleşik uzayı üzerinde Bayesyen optimizasyon

max_bootstrapped_demos (üretilen örnekler) ve max_labeled_demos (eğitim verilerinden) gibi parametreler her modülün istemine kaç örneğin gireceğini kontrol eder.

Derlemeden Sonra Sabit

Derlendikten sonra, gösterimler her Predict modülünün demos özniteliğinde saklanır ve her LLM çağrısında isteme biçimlendirilir. Çalışma zamanında değişmezler — “yetenek” dondurulmuştur.

Bu, DSPy yeteneklerinin karşılaştırmamızda en öngörülebilir olduğu anlamına gelir: token maliyeti derlemeden sonra bilinir, turlar arasında varyans yoktur ve ajan her zaman aynı gösterimleri görür. Dezavantajı esneksizliktir — yetenekleri değiştirmek için yeniden derleme yapmanız gerekir.

Kalıcılık

Derlenmiş programlar, tüm gösterimler dahil olmak üzere JSON’a serileştirilir. Tamamen kalıcıdır ve oturumlar arası yüklenebilir, bu da DSPy’yi en dayanıklı yetenek saklama mekanizmalarından biri yapar.

SuperAGI: Araç Seti Tabanlı Ön Kayıt

SuperAGI ve CAMEL-AI önceden araç seti kaydı: ajan başlatmada tüm araç şemaları yüklenir

SuperAGI, tüm araçların ajan başlatma sırasında kaydedildiği geleneksel bir araç seti kalıbı kullanır.

Her araç seti BaseToolkit‘i şunlarla genişletir:

  • name ve description öznitelikleri
  • BaseTool örneklerinin listesini döndüren get_tools() metodu
  • Gerekli ortam değişkenleri için get_env_keys()

Araç setleri, SuperAGI’nın araç yöneticisi aracılığıyla GitHub depolarından yüklenir. Ajan başlatma sırasında, BaseToolkit.get_tools() tüm araçları döndürür ve tam şemaları LLM’e fonksiyon çağırma tanımları olarak sunulur.

Ertelenmiş yükleme, kademeli açıklama veya tur başına filtreleme yoktur. Her kayıtlı aracın şeması her çağrıda mevcuttur. Bu en basit enjeksiyon modelidir ve odaklı, küçük araç setlerine sahip ajanlar için iyi çalışır ancak düzinelerce yeteneğe ihtiyaç duyan ajanlara ölçeklenmez.

CAMEL-AI: ChatAgent Araç Kaydı

CAMEL-AI benzer bir önceden kayıt kalıbı izler. Çeşitli araç setlerinden (örn. MathToolkit, SearchToolkit) araçlar, başlatma sırasında ChatAgent(tools=[...]) olarak bir liste halinde iletilir.

Çerçeve, modelin kullanımı anlayabilmesi için özel fonksiyonların net argüman adlarına ve kapsamlı belgeleme dizelerine ihtiyaç duyduğunu vurgular — araç şeması, modelin gördüğü tek “yetenek” içeriğidir. Ayrı bir talimat enjeksiyon mekanizması yoktur.

Son eklentiler arasında MCPToolkit aracılığıyla MCP (Model Context Protocol) desteği bulunur; bu, ChatAgent‘ın MCP sunucularına bağlanmasına ve harici araçları kaydetmesine olanak tanır. Bu, mevcut araç yüzeyini genişletir ancak enjeksiyon modelini değiştirmez — keşfedilen tüm MCP araçları yine önceden kaydedilir.

Platformlar Arası Karşılaştırma

Yetenekler Ne Zaman Enjekte Edilir

ZamanlamaPlatformlarNe Enjekte Edilir
Her zaman mevcut (oturum başlangıcı)Claude Code, CrewAI, Deep Agents, Semantic Kernel, SuperAGI, CAMEL-AI, DSPyMeta veri (ad + açıklama) veya tam şemalar
Etkinleştirmede (kullanıcı veya ajan tetikli)Claude Code, Deep Agents, OpenAITam yetenek gövdesi
Her görev/turCrewAI, AutoGen TeachabilityTam gövde (CrewAI) veya alınan notlar (AutoGen)
LLM seçimindeSemantic Kernel, MetaGPTİstem şablonu içeriği
Benzerlik eşleşmesindeVoyager, AutoGen TeachabilityAlınan kod veya notlar
Derlenmiş/sabitDSPyOptimize edilmiş az sayıda örnek demolar

Kalıcılık Modelleri

KalıcılıkPlatformlarMekanizma
Yalnızca tek turMetaGPT, VoyagerAksiyon/üretim başına işlenen şablon
Oturum içindeClaude Code, Deep Agents, OpenAI, Semantic KernelGövde mesaj geçmişinde kalır
Her görevde yeniden enjekte edilirCrewAI, SuperAGI, CAMEL-AIHer görev yürütmesinde taze eklenir
Oturumlar arası (kalıcı depolama)AutoGen Teachability, Voyager, DSPyVektör DB / derlenmiş modüller / yetenek kütüphanesi

Bağlam Sıkıştırmada Hayatta Kalma

PlatformBağlam Dolduğunda Ne Olur
Claude CodeEn son yetenekleri yeniden ekler (her biri 5K token, 25K üst sınır). Eski yetenekler düşürülür
CrewAIUygulanamaz — görev başına taze enjekte edilir, birikim yok
Deep AgentsGövde konuşma geçmişinde, standart LangChain kırpmaya tabi
OpenAIUygulanamaz — her API çağrısı bağımsız
AutoGenHer turda yalnızca ilgili notlar alınır, doğal olarak sınırlı
VoyagerGörev başına yalnızca en iyi K yetenek alınır, doğal olarak sınırlı

Kademeli Açıklama Kalıbı

Bu platformlar genelinde en önemli mimari eğilim, kademeli açıklamanın benimsenmesidir — bilginin ihtiyaca göre kademeli olarak ortaya çıkarıldığı, arayüz tasarımından ödünç alınmış bir kavram.

Kademeli Açıklama Neden Önemlidir

Yetenek enjeksiyonuna saf bir yaklaşım — her şeyi önceden yükleme — iki sorun yaratır:

  1. Token israfı: Çoğu yetenek çoğu turda ilgili değildir. Tur başına yalnızca 1-2 gerektiğinde 20 tam yetenek gövdesi yüklemek, yeteneğe bağlı tokenlerin %90’ından fazlasını israf eder.
  2. Dikkat dağılması: Bağlam çürümesi araştırmaları, LLM’lerin bağlamları büyük miktarda ilgisiz bilgi içerdiğinde daha kötü performans gösterdiğini ortaya koyar. Bağlamda daha fazla yetenek, aslında yetenek uygulama kalitesini düşürebilir.

Kademeli açıklama, mevcut yeteneklerin hafif bir dizinini korurken tam içeriği yalnızca gerektiğinde yükleyerek her iki sorunu da çözer.

Uygulama Varyasyonları

Claude Code özel bir sistem kullanır: sistem hatırlatıcısı mesajlarında yetenek meta verisi, etkinleştirme için bir Skill aracı ve ertelenmiş araç şemaları için ToolSearch. Çerçeve, öncelik tabanlı sıkıştırma ile enjeksiyonu otomatik olarak yönetir.

LangChain Deep Agents ajanın mevcut dosya okuma yeteneğini kullanır: SkillsMiddleware dizini enjekte eder ve ajan tam içeriği read_file() aracılığıyla yükler. Bu daha şeffaftır ancak daha az çerçeve düzeyinde optimizasyon sunar.

OpenAI Responses API platform yönetimli arama ile ad alanı tabanlı gruplama kullanır: araç ad alanları üst düzey açıklamalar sağlar ve tool_search ilgili şemaları döndürür. Platform arama mantığını tamamen yönetir.

Pratikte Token Tasarrufu

Rakamlar ikna edicidir. 12 yetenekle:

  • Sürekli aktif enjeksiyon (CrewAI/SuperAGI tarzı): ~30.000 token
  • Kademeli açıklama yalnızca dizin: ~600 token
  • Dizin + 2 etkinleştirilmiş yetenek: ~2.000-5.000 token

Bu, tur başına yeteneğe bağlı token tüketiminde %83-98 oranında bir azalmadır. Yüzlerce turlu uzun bir oturumda, tasarruflar dramatik biçimde birikir.

Mimari Kalıplar ve Ödünleşimler

11 platformun tamamına bakıldığında, dört farklı mimari kalıp ortaya çıkar:

Kalıp 1: Sürekli Aktif Enjeksiyon

Kullananlar: CrewAI, SuperAGI, CAMEL-AI, Semantic Kernel

Nasıl çalışır: Tam yetenek içeriği veya araç şemaları her LLM çağrısında mevcuttur.

Artıları:

  • Maksimum güvenilirlik — ajan her zaman tam uzmanlığa sahiptir
  • En basit uygulama — etkinleştirme mantığı gerekmez
  • Öngörülebilir token maliyetleri — her turda aynı

Eksileri:

  • Token maliyeti yetenek sayısıyla doğrusal olarak artar
  • Çok sayıda yetenekte dikkat dağılması
  • Ajan başına ~5-10’dan fazla yeteneğe ölçeklenmez

En uygun: Her zaman ilgili olan 1-3 temel yeteneğe sahip odaklı ajanlar.

Kalıp 2: Kademeli Açıklama

Kullananlar: Claude Code, LangChain Deep Agents, OpenAI Responses API/Agents SDK

Nasıl çalışır: Hafif meta veri her zaman mevcut; tam içerik talep üzerine yüklenir.

Artıları:

  • Onlarca veya yüzlerce mevcut yeteneğe ölçeklenir
  • Yetenekler gerekmediğinde minimum token maliyeti
  • Tam şemalar sona eklendiğinde istem önbelleğini korur

Eksileri:

  • Ajan ilgili bir yeteneği etkinleştirme ipucunu kaçırabilir
  • Etkinleştirme adımından kaynaklanan ek gecikme
  • Daha karmaşık çerçeve uygulaması

En uygun: Birçok yeteneğe erişmesi gereken ancak görev başına yalnızca birkaçını kullanan genel amaçlı ajanlar.

Kalıp 3: Anlamsal Alma

Kullananlar: AutoGen Teachability, Voyager

Nasıl çalışır: Vektör veritabanı sorguları, mevcut bağlamla anlamsal benzerliğe dayalı olarak ilgili yetenekleri/bilgiyi ortaya çıkarır.

Artıları:

  • Kütüphane boyutundan bağımsız olarak doğal olarak sınırlı token maliyeti
  • Kütüphane büyüdükçe içerik ilgililik oranı zamanla iyileşir
  • Oturumlar arası öğrenme ve birikim
  • Açık etkinleştirme gerekmez — ilgililik otomatik olarak hesaplanır

Eksileri:

  • Alma kalitesi gömme modeli kalitesine bağlıdır
  • Güncelliğini yitirmiş veya ince bir şekilde yanlış bilgi alma riski
  • Vektör veritabanı altyapısı gerektirir
  • Daha az öngörülebilir — farklı turlar farklı içerik yükler

En uygun: Deneyimden öğrenen ve zamanla alan bilgisi biriktirmesi gereken ajanlar.

Kalıp 4: Derlenmiş/Statik Enjeksiyon

Kullananlar: DSPy, MetaGPT

Nasıl çalışır: Yetenekler sabit istem içeriğine derlenir (DSPy) veya katı aksiyon şablonları aracılığıyla etkinleştirilir (MetaGPT).

Artıları:

  • En öngörülebilir davranış — her seferinde aynı içerik
  • Optimizasyon çevrimdışı yapılabilir (DSPy’nin derlemesi)
  • Yetenek seçimi için çalışma zamanı ek yükü yok
  • İyi tanımlanmış, tekrarlanabilir görevler için kanıtlanmış etkili

Eksileri:

  • Esnek değil — yetenekleri değiştirmek yeniden derleme (DSPy) veya kod değişiklikleri (MetaGPT) gerektirir
  • Derlenmiş örneklerin dışındaki yeni durumlara uyum sağlayamaz
  • DSPy’nin derleme sürecinin kendisi birçok LLM çağrısı gerektirir

En uygun: Güvenilirliğin esneklikten önce geldiği, iyi tanımlanmış görevlere sahip üretim pipeline’ları.

Ajan Geliştiriciler İçin Pratik Sonuçlar

Doğru Kalıbı Seçmek

Doğru yetenek enjeksiyon mimarisi ajanınızın profiline bağlıdır:

Ajanınız dar, iyi tanımlanmış bir role sahipse (örn. bir kod inceleme botu, tek bir ürün için müşteri destek ajanı), sürekli aktif enjeksiyon (CrewAI/SuperAGI kalıbı) en basit ve en güvenilirdir. 2-3 sürekli mevcut yeteneğin token maliyeti yönetilebilirdir ve etkinleştirme mantığının karmaşıklığından kaçınırsınız.

Ajanınız geniş yeteneklere ihtiyaç duyuyor ancak etkileşim başına yalnızca birkaçını kullanıyorsa (örn. bir geliştirici asistanı, genel amaçlı bir otomasyon ajanı), kademeli açıklama (Claude Code/Deep Agents kalıbı) açık bir kazanandır. Ölçekte %83-98 token tasarrufu göz ardı edilemeyecek kadar önemlidir.

Ajanınız etkileşimlerden öğrenmesi ve gelişmesi gerekiyorsa (örn. kişisel asistan, bilgi biriktiren bir alan uzmanı), anlamsal alma (AutoGen Teachability kalıbı) diğer kalıpların sunmadığı öğrenme döngüsünü sağlar. Yalnızca bilgi tabanına nelerin girdiği konusunda kalite kontrolleriniz olduğundan emin olun.

Ajanınız iyi tanımlanmış pipeline’lar çalıştırıyorsa (örn. veri işleme, rapor oluşturma, standartlaştırılmış iş akışları), derlenmiş enjeksiyon (DSPy kalıbı) en öngörülebilir, optimize edilmiş davranışı sağlar.

Hibrit Yaklaşım

Ajanların kutudan çıkar çıkmaz çalışması gereken üretim ajan ekipleri için hibrit bir yaklaşım öneriyoruz:

Temel yetenekler (ajan başına 1-2, birincil alan uzmanlığını tanımlayan): CrewAI tarzı, her zaman sistem istemine enjekte edilir. Bunlar, ajanın her turda ihtiyaç duyduğu vazgeçilmez yeteneklerdir.

Genişletilmiş yetenekler (ajanın ihtiyaç duyabileceği ek yetenekler): sistem isteminde yalnızca meta veri, gerektiğinde bir arama/yükleme mekanizması ile yüklenir, Deep Agents tarzı. Bunlar, ajanın yetenek setini ilgili olmadıklarında token maliyeti ödemeden genişletir.

Öğrenilmiş bilgi (birikmiş alan uzmanlığı): bir vektör veritabanında saklanır ve tur başına anlamsal olarak alınır, AutoGen tarzı. Bu, ajanın manuel yetenek yazımı olmadan zamanla gelişmesini sağlar.

Bu katmanlı mimari, bir sistem isteminin nasıl oluşturulduğuyla doğal olarak eşleşir: tarih → persona → sistem talimatları → temel yetenekler → yetenek dizini → rol/ekip bağlamı. Temel yetenekler ve dizin öngörülebilir, yönetilebilir bir token maliyeti eklerken, tam yetenek gövdeleri yalnızca gerektiğinde görünür.

Çerçeveler Genelinde Token Bütçesi En İyi Uygulamaları

Hangi enjeksiyon kalıbını kullanırsanız kullanın, bu token yönetimi stratejileri evrensel olarak geçerlidir:

Önbellek Dostu Sıralama

Değişmeyen bağlamı (sistem talimatları, araç şemaları) istemin başına yerleştirin. İstem önbelleğini destekleyen sağlayıcılarda, önbelleğe alınan tokenler %75 daha az maliyetlidir. Claude Code ve OpenAI, keşfedilen araç şemalarını statik ön ek üzerindeki önbellek isabetlerini korumak için özellikle bağlam penceresinin sonuna enjekte eder.

Boşaltma

Araç yanıtlarını tam sonuçları bağlamda tutmak yerine özetleyin. Tam veriyi, ajanın talep üzerine okuyabileceği harici referanslarda saklayın. Bu, özellikle oturum başına çok sayıda araç çağrısı yapan ajanlar için önemlidir.

Azaltma

Konuşma geçmişini özetleme yoluyla sıkıştırın. Uzun diyaloglardan temel gerçekleri yoğunlaştırılmış temsillere çıkarın. Oturum tabanlı kalıcılığa sahip her çerçeve, agresif geçmiş yönetiminden faydalanır.

Ön Yükleme Yerine Alma

Bilgiyi her şeyi önceden yüklemek yerine çalışma zamanında dinamik olarak alın. Bu, yetenekler, bilgi tabanları ve hatta konuşma geçmişi için geçerlidir. Araştırmalar bunun istem boyutlarını %70’e kadar azaltabileceğini göstermektedir.

İzolasyon

Belirli görevler için alt ajanlar kullanarak her ajanın bağlamını odaklı tutun. Bir ajana 20 yetenek vermek yerine, her biri 4 yetenekli 5 ajanlık bir ekip oluşturun. Her ajan dar bir bağlam penceresi korur ve ekip toplu olarak tam yetenek setini kapsar.

Sonuç

Yapay zeka ajan çerçevelerinin yetenekleri bağlama enjekte etme şekli, ajan tasarımındaki en etkili mimari kararlardan biridir — ancak bu düzeyde ayrıntıyla nadiren tartışılır.

Alan, genel amaçlı ajanlar için tercih edilen kalıp olarak kademeli açıklama üzerinde açıkça yakınsıyor; Claude Code, LangChain Deep Agents ve OpenAI’ın tümü bağımsız olarak benzer üç katmanlı mimarilere ulaşıyor. Bu arada, anlamsal alma (AutoGen, Voyager) ve derlenmiş enjeksiyon (DSPy) gibi uzmanlaşmış kalıplar, kademeli açıklamanın tek başına ele almadığı önemli nişlere hizmet ediyor.

Bugün ajan sistemleri oluşturan uygulayıcılar için temel içgörü, yetenek enjeksiyonunun herkese uyan tek boyutlu bir sorun olmadığıdır. Doğru yaklaşım, ajanınızın rolüne, ihtiyaç duyduğu yetenek sayısına, zamanla öğrenip öğrenmesi gerektiğine ve token maliyetleri ile güvenilirlik ödünleşimlerine karşı toleransınıza bağlıdır.

En sağlam üretim sistemleri muhtemelen birden fazla kalıbı birleştirecektir — temel yetenekler için sürekli aktif, genişletilmiş yetenekler için kademeli açıklama ve birikmiş bilgi için anlamsal alma — hem verimli hem de uzman ajanlar yaratarak.

Sıkça sorulan sorular

Yasha, Python, Java ve makine öğrenimi konusunda uzmanlaşmış yetenekli bir yazılım geliştiricisidir. Yasha, yapay zeka, prompt mühendisliği ve sohbet botu geliştirme konularında teknik makaleler yazar.

Yasha Boroumand
Yasha Boroumand
CTO, FlowHunt

FlowHunt ile Daha Akıllı Yapay Zeka Ajanları Oluşturun

Akıllı yetenek enjeksiyonu ve bağlam yönetimi ile yapay zeka ajan ekipleri tasarlayın. Kod yazmaya gerek yok.

Daha fazla bilgi

AI Ajanı
AI Ajanı

AI Ajanı

FlowHunt iş akışlarında AI Ajanı bileşenini öğrenin. Sistem mesajlarını yapılandırmayı, araçları bağlamayı, modelleri seçmeyi ve ajan performansını optimize etm...

5 dakika okuma
Bileşenler Ajanlar