Pekiştirmeli Öğrenme

Pekiştirmeli Öğrenme, Yapay Zeka ajanlarının deneme-yanılma yoluyla en iyi stratejileri öğrenmesini sağlar; ödül veya cezalar yoluyla geri bildirim alarak uzun vadeli sonuçları en üst düzeye çıkarır.

Temel Kavramlar ve Terimler

Pekiştirmeli öğrenmeyi anlamak için bazı temel kavramlar ve terimler önemlidir:

Ajan

Bir ajan, pekiştirmeli öğrenmede karar verici ya da öğrenici olan varlıktır. Ortamı gözlemler, eylemler gerçekleştirir ve bu eylemlerin sonuçlarından öğrenerek hedeflerine ulaşmaya çalışır. Ajanın amacı, politika olarak bilinen ve zaman içinde toplam ödülü en üst düzeye çıkaran bir strateji geliştirmektir.

Ortam

Ortam, ajanın etkileşimde bulunduğu, ajanın dışında kalan her şeyi ifade eder. Ajanın çalıştığı dünyayı temsil eder ve fiziksel alanlar, sanal simülasyonlar veya ajanın kararlar aldığı herhangi bir ortam olabilir. Ortam, ajanın eylemlerine göre gözlem ve ödül sağlar.

Durum

Bir durum, ajanın ortam içindeki mevcut konumunu temsil eder. O anda karar vermek için gerekli tüm bilgileri kapsar. Durumlar tam gözlemlenebilir olabilir (ajan ortamı tamamen bilir) ya da kısmen gözlemlenebilir olabilir (bazı bilgiler gizlidir).

Eylem

Bir eylem, ajanın ortamın durumunu etkileyen seçimidir. Bir durumda ajanın alabileceği tüm olası eylemlere eylem uzayı denir. Eylemler ayrık (ör. sola veya sağa gitmek) ya da sürekli (ör. bir arabanın hızını ayarlamak) olabilir.

Ödül

Bir ödül, ajanın yaptığı eyleme karşılık ortam tarafından verilen bir skaler değerdir. Bu, o andaki eylemin sağladığı anlık faydayı (veya cezayı) ölçer. Ajanın hedefi, zaman içinde toplam ödülleri maksimize etmektir.

Politika

Bir politika, ajanın davranışını tanımlar ve durumları eylemlere eşler. Politikalar deterministik (her durum için belirli bir eylem seçilir) veya stokastik (eylemler belli olasılıklarla seçilir) olabilir. En iyi politika, en yüksek toplam ödülü sağlar.

Değer Fonksiyonu

Değer fonksiyonu, belirli bir durumda (veya durum-eylem çiftinde) olup belirli bir politikayı izleyerek beklenen toplam ödülü tahmin eder. Ajanın yalnızca anlık ödülleri değil, uzun vadeli faydaları da değerlendirmesine yardımcı olur.

Ortam Modeli

Bir model, ortamın ajanın eylemlerine nasıl tepki vereceğini tahmin eder. Durumlar arası geçiş olasılıklarını ve beklenen ödülleri içerir. Modeller planlama stratejilerinde kullanılır, fakat pekiştirmeli öğrenmede her zaman gerekli değildir.

Pekiştirmeli Öğrenme Nasıl Çalışır?

Pekiştirmeli öğrenme, ajanların deneme-yanılma yoluyla hedeflerine ulaşmak için en iyi davranışları öğrenmelerini içerir. Süreç şu adımlarda özetlenebilir:

  1. Başlatma: Ajan, ortamda bir başlangıç durumunda başlar.
  2. Gözlem: Ajan mevcut durumu gözlemler.
  3. Eylem Seçimi: Politikasına göre ajan, eylem uzayından bir eylem seçer.
  4. Ortam Tepkisi: Ortam, yapılan eyleme bağlı olarak yeni bir duruma geçer ve bir ödül sağlar.
  5. Öğrenme: Ajan, aldığı ödül ve yeni duruma göre politikasını ve değer fonksiyonlarını günceller.
  6. Yineleme: 2–5. adımlar ajan hedefe ulaşana veya terminal duruma gelene kadar tekrarlanır.

Markov Karar Süreçleri (MDP)

Çoğu pekiştirmeli öğrenme problemi, Markov Karar Süreçleri (MDP) kullanılarak biçimlendirilir. MDP, sonuçların kısmen rastgele ve kısmen ajanın kontrolünde olduğu karar süreçlerini modellemek için matematiksel bir çerçeve sağlar. Bir MDP şu şekilde tanımlanır:

  • S: Durumlar kümesi
  • A: Eylemler kümesi
  • P: Geçiş fonksiyonu, bir eylem verildiğinde bir durumdan diğerine geçiş olasılığını tanımlar
  • R: Ödül fonksiyonu, durum-eylem çiftleri için anlık ödül sağlar
  • γ (gama): Anlık ödüllerin gelecekteki ödüllere göre önemini belirleyen indirim faktörü

MDP’ler, Markov özelliğini varsayar: Gelecek durum yalnızca mevcut durum ve eyleme bağlıdır, önceki olayların sırasına değil.

Keşif ve Sömürü Dengesi

Pekiştirmeli öğrenmede temel bir zorluk, keşif (yeni eylemlerin sonuçlarını görmek için denemek) ile sömürü (yüksek ödül getiren bilinen eylemleri kullanmak) arasında denge kurmaktır. Yalnızca sömürüye odaklanmak daha iyi stratejilerin bulunmasını engelleyebilir, aşırı keşif ise öğrenmeyi geciktirebilir.

Ajanlar genellikle ε-greedy gibi stratejiler kullanır; burada küçük bir olasılıkla (ε) rastgele eylemler denenir (keşif), kalan olasılıkla (1 – ε) en iyi bilinen eylemler seçilir (sömürü).

Pekiştirmeli Öğrenme Algoritması Türleri

Pekiştirmeli öğrenme algoritmaları genel olarak model tabanlı ve modelsiz olarak ikiye ayrılır.

Model Tabanlı Pekiştirmeli Öğrenme

Model tabanlı pekiştirmeli öğrenmede, ajan ortamın dinamiklerinin içsel bir modelini oluşturur. Bu model, her eylem için bir sonraki durumu ve beklenen ödülü tahmin eder. Ajan bu modeli, toplam ödülü en üst düzeye çıkaracak eylemleri planlamak ve seçmek için kullanır.

Özellikleri:

  • Planlama: Ajanlar, modeli kullanarak gelecekteki durumları simüle edip karar alır.
  • Örnek Verimliliği: Modelden faydalanıldığı için ortamla daha az etkileşim yeterli olabilir.
  • Karmaşıklık: Özellikle karmaşık ortamlarda doğru model oluşturmak zordur.

Örnek:

Bir labirentte dolaşan robot, labirenti keşfeder ve yolların, engellerin ve ödüllerin (ör. çıkış noktaları, tuzaklar) bir haritasını (modelini) oluşturur; ardından, en kısa yolu planlamak ve engellerden kaçınmak için bu modeli kullanır.

Modelsiz Pekiştirmeli Öğrenme

Modelsiz pekiştirmeli öğrenme, ortamın açık bir modelini oluşturmaz. Onun yerine, ajan ortamla etkileşimlerinden elde ettiği deneyimlerle doğrudan bir politika veya değer fonksiyonu öğrenir.

Özellikleri:

  • Deneme-Yanılma: Ajanlar, doğrudan etkileşim yoluyla en iyi politikaları öğrenir.
  • Esneklik: Model oluşturmanın pratik olmadığı ortamlarda da uygulanabilir.
  • Yakınsama: Etkili öğrenmek için daha fazla etkileşim gerekebilir.

Yaygın Modelsiz Algoritmalar:

Q-Öğrenme

Q-Öğrenme, en iyi eylem-değer fonksiyonunu Q(s, a) (durum s‘de eylem a‘yı seçmenin beklenen toplam ödülü) öğrenmeye çalışan, off-policy, değer tabanlı bir algoritmadır.

Güncelleme Kuralı:

Q(s, a) ← Q(s, a) + α [ r + γ max Q(s', a') - Q(s, a) ]
  • α: Öğrenme oranı
  • γ: İndirim faktörü
  • r: Anlık ödül
  • s’: Sonraki durum
  • a’: Sonraki eylem

Avantajları:

  • Uygulaması basittir
  • Pek çok senaryoda etkilidir

Sınırlamaları:

  • Büyük durum-eylem uzaylarında zorlanır
  • Q-değerlerini bir tabloda saklamak yüksek boyutlarda olanaksız hale gelir

SARSA (Durum-Eylem-Ödül-Durum-Eylem)

SARSA, Q-Öğrenme’ye benzer bir on-policy algoritmadır; ancak değer fonksiyonunu mevcut politika tarafından alınan eyleme göre günceller.

Güncelleme Kuralı:

Q(s, a) ← Q(s, a) + α [ r + γ Q(s', a') - Q(s, a) ]
  • a’: Sonraki durumda mevcut politikaya göre seçilen eylem

Q-Öğrenme ile Farkları:

  • SARSA, gerçekten alınan eyleme göre (on-policy) günceller
  • Q-Öğrenme, mümkün olan maksimum ödüle göre (off-policy) günceller

Politika Gradyan Yöntemleri

Politika gradyan yöntemleri, politikayı doğrudan, beklenen ödülü maksimize edecek şekilde parametrelerini ayarlayarak optimize eder.

Özellikleri:

  • Sürekli eylem uzaylarında çalışabilir
  • Stokastik politikaları temsil edebilir
  • Politika parametrelerini güncellemek için gradyan artışı yöntemleri kullanır

Örnek:

  • REINFORCE Algoritması: Politika parametrelerini, beklenen ödüllerin politika parametrelerine göre gradyanını kullanarak günceller

Aktör-Kritik Yöntemleri

Aktör-kritik yöntemleri, değer tabanlı ve politika tabanlı yaklaşımları birleştirir. İki bileşenden oluşur:

  • Aktör: Eylemleri seçen politika fonksiyonu
  • Kritik: Aktörün aldığı eylemleri değerlendiren değer fonksiyonu

Özellikleri:

  • Kritik, aktörün politika güncellemelerine rehberlik etmek için değer fonksiyonunu tahmin eder
  • Politika gradyan tahminlerinde varyansı azaltarak verimli öğrenme sağlar

Derin Pekiştirmeli Öğrenme

Derin pekiştirmeli öğrenme, derin öğrenmeyi pekiştirmeli öğrenme ile birleştirir; böylece ajanlar yüksek boyutlu durum ve eylem uzaylarını yönetebilirler.

Derin Q-Ağları (DQN)

Derin Q-Ağları, Q-değer fonksiyonunu yaklaşık olarak hesaplamak için sinir ağlarını kullanır.

Temel Özellikler:

  • Fonksiyon Yaklaşıklığı: Q-tablosu yerine sinir ağı kullanılır
  • Deneyim Tekrarı: Deneyimler rastgele örneklenerek korelasyonlar kırılır
  • Kararlılık Teknikleri: Hedef ağlar gibi yöntemlerle eğitim kararlılığı artırılır

Uygulamalar:

  • Atari oyunlarında, doğrudan piksel girdilerinden öğrenerek insan seviyesinde başarı

Deep Deterministic Policy Gradient (DDPG)

DDPG, DQN’i sürekli eylem uzaylarına genişleten bir algoritmadır.

Temel Özellikler:

  • Aktör-Kritik Mimarisi: Aktör ve kritik için ayrı ağlar kullanılır
  • Deterministik Politikalar: Eylem seçiminde deterministik politika öğrenir
  • Gradyan İnişi Kullanımı: Politikaları politika gradyanları ile optimize eder

Uygulamalar:

  • Robotikte tork kontrolü gibi sürekli eylem gerektiren görevler

Pekiştirmeli Öğrenmenin Kullanım Alanları ve Uygulamaları

Pekiştirmeli öğrenme, belirsiz ortamlarda karmaşık davranışları öğrenme yeteneğiyle çeşitli alanlarda uygulanmaktadır.

Oyunlar

Uygulamalar:

  • AlphaGo ve AlphaZero: DeepMind tarafından geliştirilen bu ajanlar, kendi kendine oynama ve pekiştirmeli öğrenmeyle Go, Satranç ve Shogi oyunlarında ustalaştı
  • Atari Oyunları: DQN ajanları, görsel girdilerden öğrenerek insan seviyesinde performans elde etti

Faydaları:

  • Ön bilgi olmadan strateji öğrenme kabiliyeti
  • Karmaşık ve yüksek boyutlu ortamları yönetebilme

Robotik

Uygulamalar:

  • Robotik Manipülasyon: Robotlar, nesne tutma, yerleştirme ve karmaşık görevleri öğrenir
  • Navigasyon: Otonom robotlar, karmaşık arazilerde gezinmeyi ve engellerden kaçmayı öğrenir

Faydaları:

  • Dinamik ortamlara uyum sağlar
  • Davranışların elle programlanma ihtiyacını azaltır

Otonom Araçlar

Uygulamalar:

  • Yol Planlama: Araçlar, trafik koşullarını dikkate alarak en iyi rotayı seçmeyi öğrenir
  • Karar Verme: Diğer araç ve yayalarla etkileşimlerin yönetimi

Faydaları:

  • Uyarlanabilir karar verme ile güvenliği artırır
  • Farklı sürüş koşullarında verimliliği yükseltir

Doğal Dil İşleme ve Sohbet Botları

Uygulamalar:

  • Diyalog Sistemleri: Sohbet botları, kullanıcılarla daha doğal etkileşimler kurmayı öğrenir ve zamanla gelişir
  • Dil Çevirisi: Uzun vadeli bütünlüğe odaklanarak çeviri kalitesini artırır

Faydaları:

  • Kullanıcı deneyimini kişiselleştirir
  • Kullanıcı geri bildirimiyle sürekli gelişim sağlar

Finans

Uygulamalar:

  • Alım-Satım Stratejileri: Ajanlar, maksimum kazanç için alım/satım kararları almayı öğrenir
  • Portföy Yönetimi: Varlık dengesini optimize ederek risk-getiri oranını iyileştirir

Faydaları:

  • Değişen piyasa koşullarına uyum sağlar
  • Karar almada insan yanlılıklarını azaltır

Sağlık

Uygulamalar:

  • Tedavi Planlaması: Hastanın tepkilerine göre kişiselleştirilmiş terapi önerileri
  • Kaynak Tahsisi: Tıbbi kaynakların zamanlanması ve verimli kullanımı

Faydaları:

  • Kişiye özel tedavilerle hasta sonuçlarını iyileştirir
  • Sağlık hizmeti sunumunda verimliliği artırır

Öneri Sistemleri

Uygulamalar:

  • Kişiselleştirilmiş Öneriler: Kullanıcı tercihlerine göre ürün, film veya içerik önerme
  • Uyarlanabilir Sistemler: Gerçek zamanlı kullanıcı etkileşimlerine göre önerileri ayarlama

Faydaları:

  • Kullanıcı etkileşimini artırır
  • İlgili önerilerle daha iyi kullanıcı deneyimi sağlar

Pekiştirmeli Öğrenmede Karşılaşılan Zorluklar

Başarılarına rağmen, pekiştirmeli öğrenme bazı önemli zorluklarla karşı karşıyadır:

Örnek Verimliliği

  • Sorun: RL ajanları, etkili öğrenmek için genellikle çok sayıda ortam etkileşimine ihtiyaç duyar
  • Etkisi: Yüksek hesaplama maliyeti ve gerçek dünyada veri toplamanın pahalı veya zaman alıcı olması
  • Çözüm Yaklaşımları:
    • Model Tabanlı Yöntemler: Deneyimleri simüle etmek için modeller kullanılır
    • Transfer Öğrenme: Bir görevdeki bilgiyi başka bir göreve aktarmak
    • Hiyerarşik RL: Görevleri alt görevlere ayırarak öğrenmeyi kolaylaştırmak

Gecikmeli Ödüller

  • Sorun: Ödüller her zaman hemen gözlemlenmeyebilir; bu da ajanın eylemlerle sonuçları ilişkilendirmesini zorlaştırır
  • Etkisi: Ajana, hangi eylemlerin gelecekteki ödüllere katkı sağladığını belirleme zorluğu (kredi atama problemi)
  • Çözüm Yaklaşımları:
    • Uygunluk İzleri: Zaman içinde ödüle yol açan eylemlere kredi atamak
    • Monte Carlo Yöntemleri: Bölüm sonundaki toplam ödülü dikkate almak

Yorumlanabilirlik

  • Sorun: Özellikle derin sinir ağlarını içeren RL politikaları şeffaf değildir
  • Etkisi: Ajanın kararlarını anlamak ve güvenmek zorlaşır; bu, yüksek riskli uygulamalarda kritiktir
  • Çözüm Yaklaşımları:
    • Politika Görselleştirme: Karar sınırlarını ve politikaları görselleştiren araçlar
    • Açıklanabilir RL: Ajana ait kararların mantığını ortaya koyan yöntemler üzerine araştırmalar

Güvenlik ve Etik

  • Sorun: Özellikle insanları içeren ortamlarda ajanların güvenli ve etik davranmasını sağlamak
  • Etkisi: İstenmeyen davranışların zararlı sonuçlara yol açma potansiyeli
  • Çözüm Yaklaşımları:
    • Ödül Şekillendirme: İstenen davranışlarla uyumlu ödül fonksiyonları tasarlamak
    • Kısıt Zorlaması: Öğrenme sürecine güvenlik kısıtlamaları eklemek

Yapay Zeka Otomasyonu ve Sohbet Botlarında Pekiştirmeli Öğrenme

Pekiştirmeli öğrenme, Yapay Zeka otomasyonunu ilerletmede ve sohbet botlarının yeteneklerini geliştirmede önemli rol oynar.

Yapay Zeka Otomasyonu

Uygulamalar:

  • Süreç Optimizasyonu: Üretim ve lojistik gibi sektörlerde karmaşık karar süreçlerini otomatikleştirmek
  • Enerji Yönetimi: Bina veya şebekelerde enerji tüketimini optimize edecek kontrollerin ayarlanması

Faydaları:

  • En iyi kontrol politikalarını öğrenerek verimliliği artırır
  • İnsan müdahalesi olmadan değişen koşullara uyum sağlar

Sohbet Botları ve Diyalogsal Yapay Zeka

Uygulamalar:

  • Diyalog Yönetimi: Konuşma geçmişine göre en uygun yanıtı belirleyecek politikaları öğrenmek
  • Kişiselleştirme: Kullanıcı davranış ve tercihlerine göre etkileşimleri uyarlamak
  • Duygu Tanıma: Kullanıcı girdilerindeki duygusal tonu tespit ederek yanıtları ayarlamak

Faydaları:

  • Daha doğal ve etkileyici kullanıcı deneyimi sunar
  • Ajan, etkileşimlerden öğrenerek zamanla gelişir

Örnek:

Bir müşteri hizmetleri sohbet botu, pekiştirmeli öğrenme kullanarak talepleri yönetir. Başlangıçta standart yanıtlar verse de, zamanla hangi yanıtların sorunları daha etkili çözdüğünü öğrenir, iletişim tarzını uyarlar ve daha kesin çözümler sunar.

Pekiştirmeli Öğrenme Örnekleri

AlphaGo ve AlphaZero

  • Geliştirici: DeepMind
  • Başarı: AlphaGo, Go’da dünya şampiyonunu yendi; AlphaZero ise Go, Satranç ve Shogi gibi oyunlarda sıfırdan ustalaştı
  • Yöntem: Pekiştirmeli öğrenme, derin sinir ağları ve kendi kendine oynama birleştirildi

OpenAI Five

  • Geliştirici: OpenAI
  • Başarı: Beş sinir ağından oluşan bir takım, karmaşık çok oyunculu bir çevrimiçi oyun olan Dota 2’de profesyonel takımları yendi
  • Yöntem: Pekiştirmeli öğrenme ile milyonlarca kendi kendine oynanan oyun üzerinden strateji geliştirildi

Robotik

  • Robot Kol Manipülasyonu: Robotlar, blok dizme, parça montajı veya boyama gibi görevleri pekiştirmeli öğrenmeyle öğrenir
  • Otonom İHA’lar: İHA’lar engellerden kaçarak ve hava manevraları yaparak görevleri öğrenir

Otonom Araçlar

  • İlgili Şirketler: Tesla, Waymo ve diğerleri
  • Uygulamalar: Çeşitli yol durumlarını, yaya etkileşimlerini ve trafik kurallarını yönetebilecek sürüş politikalarını öğrenmek
  • Yöntem: Navigasyon ve güvenlik için karar verme süreçlerini geliştirmek amacıyla pekiştirmeli öğrenmeden yararlanılır

Pekiştirmeli Öğrenmede Araştırmalar

Pekiştirmeli Öğrenme (RL), ajanların ortamlarıyla etkileşimler yoluyla en iyi davranışları nasıl öğrenebileceğine odaklanan, yapay zekada dinamik bir araştırma alanıdır. İşte Pekiştirmeli Öğrenmenin çeşitli yönlerini inceleyen güncel bilimsel makalelerden bazıları:

  1. Some Insights into Lifelong Reinforcement Learning Systems – Changjian Li (Yayın tarihi: 2020-01-27): Bu makale, sistemlerin hayatları boyunca deneme-yanılma etkileşimleriyle sürekli öğrenmesini sağlayan yaşam boyu pekiştirmeli öğrenmeyi ele alır. Yazar, geleneksel pekiştirmeli öğrenme paradigmalarının bu öğrenme türünü tam olarak kapsamadığını savunur. Makalede, yaşam boyu pekiştirmeli öğrenmeye dair önemli içgörüler sunulmakta ve bu ilkeleri bünyesinde barındıran bir prototip sistem tanıtılmaktadır. Devamını oku
  2. Counterexample-Guided Repair of Reinforcement Learning Systems Using Safety Critics – David Boetius ve Stefan Leue (Yayın tarihi: 2024-05-24): Bu çalışma, pekiştirmeli öğrenme sistemlerinde güvenliğin sağlanması sorununu ele alır. Önceden eğitilmiş ajanlardaki güvensiz davranışları, güvenlik eleştirmenleri ve kısıtlı optimizasyon kullanarak onaran bir algoritma önerir.

Sıkça sorulan sorular

Pekiştirmeli Öğrenme nedir?

Pekiştirmeli Öğrenme (RL), ajanların bir ortamla etkileşime girerek ve ödül veya ceza biçimindeki geri bildirimler yoluyla en iyi kararları öğrenmesini sağlayan bir makine öğrenmesi tekniğidir. Amaç, zaman içinde toplam ödülleri en üst düzeye çıkarmaktır.

Pekiştirmeli öğrenmenin temel bileşenleri nelerdir?

Ana bileşenler arasında ajan, ortam, durumlar, eylemler, ödüller ve politika yer alır. Ajan, ortamla etkileşime girer, mevcut duruma göre kararlar (eylemler) alır ve ödül veya ceza alarak en iyi politikayı öğrenir.

Yaygın pekiştirmeli öğrenme algoritmaları nelerdir?

Popüler RL algoritmaları arasında Q-Öğrenme, SARSA, Politika Gradyan yöntemleri, Aktör-Kritik yöntemleri ve Derin Q-Ağları (DQN) bulunur. Bunlar model tabanlı veya modelsiz olabilir ve basitten derin öğrenme tabanlı yaklaşımlara kadar çeşitlilik gösterir.

Pekiştirmeli öğrenme gerçek hayatta nerede kullanılır?

Pekiştirmeli öğrenme; oyunlarda (ör. AlphaGo, Atari), robotikte, otonom araçlarda, finans (alım-satım stratejileri), sağlık (tedavi planlaması), öneri sistemlerinde ve diyalog yönetimi için gelişmiş sohbet botlarında kullanılır.

Pekiştirmeli öğrenmenin başlıca zorlukları nelerdir?

Temel zorluklar arasında örnek verimliliği (öğrenmek için çok fazla etkileşim gerekmesi), gecikmeli ödüller, öğrenilen politikaların yorumlanabilirliği ve özellikle gerçek dünya veya yüksek riskli ortamlarda güvenlik ve etik davranışların sağlanması yer alır.

Pekiştirmeli Öğrenmeyi İş Başında Keşfedin

Pekiştirmeli öğrenmenin Yapay Zeka sohbet botları, otomasyon ve karar verme süreçlerini nasıl güçlendirdiğini görün. Gerçek dünya uygulamalarını keşfedin ve kendi Yapay Zeka çözümlerinizi oluşturmaya başlayın.

Daha fazla bilgi

Pekiştirmeli Öğrenme (RL)

Pekiştirmeli Öğrenme (RL)

Pekiştirmeli Öğrenme (RL), bir ajanın eylemler gerçekleştirip geri bildirim alarak karar vermeyi öğrendiği bir makine öğrenimi modelini eğitme yöntemidir. Geri ...

2 dakika okuma
Reinforcement Learning Machine Learning +3
Q-learning

Q-learning

Q-learning, yapay zeka (YZ) ve makine öğreniminin temel bir kavramıdır, özellikle pekiştirmeli öğrenme alanında. Ajanların ödül veya ceza yoluyla etkileşim ve g...

2 dakika okuma
AI Reinforcement Learning +3
Zeki Ajanlar

Zeki Ajanlar

Zeki bir ajan, sensörler aracılığıyla çevresini algılayan ve aktüatörler kullanarak bu çevrede hareket eden, karar verme ve problem çözme yetenekleriyle donatıl...

5 dakika okuma
AI Intelligent Agents +4