10 Milyon Token ve Sıfır "Bağlam Çürümesi": MIT’nin Dil Modellerini Özgürleştiren Yeni Yaklaşımı
1. Giriş: Yapay Zekanın "Hafıza" Duvarı
Bugünün en gelişmiş Büyük Dil Modelleri (LLM) bile görünmez bir fiziksel sınıra çarpmış durumda: "Bağlam Penceresi" (context window). Bir modelin tek seferde işleyebileceği metin miktarı ne kadar artarsa artsın, kullanıcılar binlerce sayfalık veriyi sisteme yüklediklerinde "bilgi unutma" veya detayları "yanlış hatırlama" gibi kronik sorunlarla karşılaşıyor. Literatürde bağlam çürümesi (context rot) olarak adlandırılan bu fenomen, yapay zekanın uzun belgelerdeki akıl yürütme becerisini felce uğratıyor.
Ancak MIT CSAIL araştırmacıları, bu sorunu sadece pencereyi büyüterek değil, sistemin mimarisini temelden değiştirerek çözen devrimsel bir çerçeve geliştirdi: Özyinelemeli Dil Modelleri (Recursive Language Models - RLM). Bu yaklaşım, LLM’lerin 10 milyon token ve ötesindeki devasa veri yığınlarını, performans kaybı yaşamadan işlemesine olanak tanıyor.
2. Birinci Şaşırtıcı Gerçek: Prompt Artık Bir Metin Değil, Bir "Dış Ortam"
RLM'nin en temel ve karşı-sezgisel özelliği, uzun metinleri (prompt) modelin içine sığdırılması gereken bir yük olarak değil, modelin etkileşime girdiği bir "dış ortam" (external environment) olarak tanımlamasıdır. Geleneksel yaklaşımlar metni modelin aktif belleğine hapsetmeye çalışırken, RLM bu veriyi bir Python çalışma ortamında dış bir "karakter dizisi" (string variable) olarak saklar.
MIT araştırmacısı Alex Zhang, sadece bağlam penceresini büyütmeye çalışmanın neden verimsiz olduğunu şu çarpıcı argümanla açıklıyor:
"Etkili bağlam penceresi boyutunu artırdıkça, katlanarak daha fazla veri örneğine ihtiyacınız olduğunu ima eden bir entropi argümanı var."
Bu "entropi argümanı" uyarınca, pencere büyüdükçe modelin dikkati dağılıyor ve bilgiye erişim doğruluğu hızla çöküyor. RLM ise metni modelin görüş alanı dışında tutarak bu karmaşayı kökten engelliyor.
3. Klasik Bilgisayar Bilimi Geri Dönüyor: "Out-of-Core" Algoritmalar
MIT ekibi, modern yapay zekanın bu tıkanıklığını aşmak için bilişim tarihinin en köklü çözümlerinden birine, "out-of-core" (çekirdek dışı) algoritmalara yöneldi. Bilgisayar biliminde bu algoritmalar, bir veri seti ana belleğe (RAM) sığmayacak kadar büyük olduğunda kullanılır; veri "sabit diskte" tutulur ve işlemci sadece o an üzerinde çalışacağı parçaları (chunks) belleğe çağırır.
RLM mimarisi de tam olarak bu mantıkla çalışır. Devasa metin yığını dış bir değişkende ("sabit diskte") bekletilir. Model, verinin tamamını "okumak" yerine, sadece o an ihtiyaç duyduğu spesifik bölümleri aktif bağlam penceresine ("RAM") çeker. Böylece fiziksel sınırların çok üzerinde veriyle işlem yapabilir.
4. Yapay Zeka Kendi Kodunu Yazıyor: REPL Ortamında Programcı LLM
RLM çerçevesinde sistem bir dil modelinden ziyade, bir REPL (Read-Eval-Print Loop) ortamında çalışan bir programcı gibi hareket eder. Model, devasa veri yığınına doğrudan bakmak yerine, bu veriyi analiz etmek için Python kodları yazar ve çalıştırır.
Süreç, modelin veriyi "parçalara ayırma" ve "gözetleme" (peek) mantığıyla işler:
- Arama ve Bölme: Model, veri yığını içinde belirli anahtar kelimeleri bulmak için
prompt.split("Bölüm 2")gibi komutlar kullanır. - Sorgulama: Tespit edilen kritik bölümler,
llm_queryfonksiyonu ile modelin aktif penceresine çekilerek analiz edilir. - Döngüsel Analiz: Örneğin bir kitabın bölümlerini özetlemek için model kendi kendine bir döngü kurar; her iterasyonda bir parçayı bulur, özetler ve nihai sonucu
print(FINAL_ANSWER)ile kullanıcıya sunar.
5. İki Ajanlı Güç Birliği: Root LM ve Recursive LM
Sistem, iki farklı ajanın hiyerarşik iş birliği ile çalışır. Bu yapı, hem karmaşık akıl yürütmeyi hem de yüksek verimliliği aynı anda sağlar:
- Root LM (Kök Dil Modeli): Sistemin stratejik "beyni"dir. Dönemin en güçlü modelleri olan GPT-5 gibi yüksek kabiliyetli modellerden seçilir. Planlama yapar, REPL ortamındaki Python kodunu yazar ve süreci yönetir.
- Recursive LM (Özyinelemeli Dil Modeli): Sistemin "işçisi"dir. Daha hızlı ve düşük maliyetli modellerden seçilir. Kök modelin emirleri doğrultusunda alt görevleri (paragraf özetleme, veri doğrulama vb.) yerine getirir.
En kritik nokta ise bu sistemin "tak-çalıştır" (drop-in replacement) doğasıdır. Son kullanıcı için RLM, standart bir API çağrısından farksızdır; sisteme bir metin gönderilir ve yanıt alınır. Tüm bu karmaşık kodlama ve özyineleme süreci arka planda gerçekleşir.
6. Ezber Bozan Performans: Steady Line vs. Felaket Çöküşü
RLM'nin başarısı, 10 milyon token sınırındaki benchmark testlerinde kendini kanıtlamıştır. 6 ila 11 milyon token içeren BrowseComp-Plus testlerinde:
- Standart LLM'ler: Veri boyutu arttıkça tamamen başarısız olarak %0 puan aldı.
- RLM (GPT-5 tabanlı): Aynı devasa ölçekte %91.33 gibi bir başarı oranı yakaladı.
Performans grafiklerindeki en çarpıcı detay ise RLM'nin "kararlılığıdır". Geleneksel modellerin başarısı 33 bin tokendan sonra dikey bir düşüşle sıfıra inerken; RLM'nin performans çizgisi, bağlam uzunluğu arttıkça bile yatay ve sabit (steady) kalmaktadır. Karmaşık akıl yürütme testi OOLONG-Pairs'te standart modeller %0.04 ile "felaket düzeyinde" başarısız olurken, RLM %58 F1 skoru ile tutarlı bir performans sergilemiştir.
7. Ekonomik Devrim ve "Uzun Kuyruklu" Riskler
RLM, işletmeler için maliyeti optimize etme potansiyeline sahiptir. BrowseComp-Plus testlerinde, geleneksel özetleme tabanlı sistemlerden 3 kat daha ucuz olabildiği gözlemlenmiştir. Ancak burada kritik bir "model seçimi" uyarısı mevcuttur.
Araştırmacılar, "uzun kuyruklu maliyetler" (long-tailed costs) konusunda uyarıyor:
- Yetenekli Modeller: GPT-5 gibi modeller alt çağrılar konusunda "muhafazakar" davranarak bütçeyi korur.
- Riskli Modeller: Qwen3-Coder gibi bazı açık kaynaklı modellerin, basit bir görev için farkında olmadan binlerce alt çağrı yaparak maliyeti patlatabildiği görülmüştür. Bu nedenle sistemin kendi "işlem bütçesini" yönetmesi, üzerinde çalışılan en önemli alandır.
8. Sonuç: Geleceğe Bakış ve RAG ile İlişki
MIT'nin RLM çerçevesi, mevcut RAG (Retrieval-Augmented Generation) sistemlerinin yerini almak yerine onlarla el ele çalışmaktadır. RAG veriyi bulmaya odaklanırken, RLM bu veriyi milyonlarca sayfa arasından çekip karmaşık bir mantık silsilesiyle işleyebilen bir "orkestra şefi" görevi görür.
Geliştiriciler için bu teknoloji artık ulaşılabilir durumda; RLM çerçevesinin kodları halihazırda GitHub üzerinden denemeye açılmış durumda.
Kapanış Sorusu: Yapay zekanın hafıza sınırları ortadan kalktığında, milyonlarca sayfalık bir veri setine saniyeler içinde hükmedebilen bir "dijital iş ortağı" iş yapış biçiminizi nasıl değiştirirdi? RLM ile bu gelecek artık sadece bir olasılık değil, teknik bir gerçeklik.