Yapay zeka modellerindeki ilerlemeler, değişen ölçekleme yasaları ve yeni teknikler yazımızda.
Yapay zeka alanında çığır açan modeller artık yalnızca veri miktarına ve işlem gücüne dayanarak gelişmiyor. Büyük dil modellerinin (LLM) performansına yönelik değerlendirmeler, geleneksel “ölçekleme yasalarının” yavaşladığını ortaya koyarken, sektör şimdi akıl yürütme ve mimari inovasyonlara yöneliyor.
“AI scaling laws” olarak bilinen bu kavram, ilk kez OpenAI tarafından yayımlanan 2020 tarihli “Scaling Laws for Neural Language Models” başlıklı makale ile gündeme geldi. Buna göre, daha büyük modellerin daha fazla işlem gücüyle eğitilmesi daha iyi sonuçlar veriyordu. Ancak 2022 yılında Google DeepMind tarafından yayımlanan “Training Compute-Optimal Large Language Models” adlı çalışma, ezberi bozdu. Bu araştırmada kullanılan “Chinchilla” modeli, GPT-3’ten daha küçük olmasına rağmen dört kat daha fazla veriyle eğitildi ve GPT-3’ü geride bıraktı.
Y Combinator Başkanı Garry Tan konuyla ilgili şunları söyledi: “Son birkaç yılda AI laboratuvarları kazanan bir stratejiye ulaştı: daha fazla parametre, daha fazla veri, daha fazla işlem gücü. Modeli büyüttükçe performansı da artıyor.” Ancak bu yaklaşımın sınırlarına gelinmiş olabilir.
UST şirketinin yapay zeka ve makine öğrenimi baş mimarı Adnan Masood, yakın tarihli blog yazısında “Veri ve işlem gücü gibi ölçekleme kaynakları artık hem daha kıt hem de daha pahalı. Bu eğilimler, büyük dil modellerinde mevcut ilerleme hızının bir plato seviyesine ulaştığını gösteriyor,” ifadelerini kullandı. Örnek olarak MMLU bilgi sınavı verilerine dikkat çekti: GPT-3 bu testte %43,9 başarı sağlarken GPT-4 ile bu oran %86,4’e yükseldi. Ancak 2024 itibarıyla bu başarı yalnızca %90 seviyesine çıkabildi.
Peki sırada ne var?
Garry Tan bu soruya şöyle yanıt veriyor: “Eski ölçekleme yasaları etkisini yitiriyorsa, sıradaki adım nedir? Cevap, yeni tekniklere geçişte saklı. Artık yalnızca işlem gücünü artırmak yeterli değil; yapay zeka modellerinin düşünme biçimi değişiyor.“
Tan, OpenAI’ın GPT serisinin ardından geliştirdiği “o1” ve “o3” adlı yapay zeka akıl yürütme modellerine dikkat çekiyor. Bu modellerde, “chain of thought” yani düşünce zinciri teknikleri kullanılarak, modelin yanıtlarını oluştururken adım adım düşünmesi sağlanıyor. “OpenAI araştırmacıları, o1 modeline ne kadar uzun düşünme süresi tanınırsa, performansının o kadar iyi olduğunu fark etti,” diyen Tan, “o3” modelinin ise önceki sınırları zorlayarak yeni rekorlara imza attığını belirtti.
Haziran 2025 tarihli Innovation Endeavors raporuna göre, Amerika Birleşik Devletleri’nde en çok kullanılan yapay zeka modelleri, sadece üç haftada tahtını yeni rakiplere bırakıyor. Özellikle açık kaynaklı modellerin hızla yükselmesi dikkat çekiyor. Model döngüsü hâlâ hızlı ancak artık üstel bir büyüme sergilemiyor.
Yapay zeka topluluğu hâlâ ölçekleme yasalarının sona ermediğini kabul etse de, sektör artık daha zeki mimariler, akıl yürütme tabanlı modeller ve dağınık veri kaynaklarının kullanımına odaklanıyor. Yeni nesil yapay zeka artık sadece büyüklükle değil, nasıl düşündüğüyle fark yaratıyor.
Yapay zeka dünyasında uzun süredir sürdürülen “daha büyük daha iyidir” yaklaşımı, yerini “daha akıllı daha sürdürülebilir” bir modele bırakıyor. Verimliliğin sınırlarına ulaşılması, Ar-Ge süreçlerini yalnızca donanım kapasitesine değil, düşünsel altyapıya da taşımaya zorluyor. Bu paradigma kayması, özellikle açık kaynaklı modellerin yükselişiyle birlikte demokratikleşen yapay zeka rekabetinde yeni bir denge kurabilir.

