7 puan yazan GN⁺ 2025-09-15 | Henüz yorum yok. | WhatsApp'ta paylaş
  • Bu yıl küresel büyük teknoloji şirketlerinden dördü AI’a 344 milyar dolar harcıyor ve bunun büyük bölümünü büyük dil modellerini (LLM) eğitmek ve çalıştırmak için gereken veri merkezlerine yatırıyor
  • LLM’ler, haftada 700 milyondan fazla kişinin ChatGPT kullanmasıyla kitleselleşmede başarı yakalamış olsa da gelişim hızı yavaşlıyor ve halüsinasyon, yüksek maliyet ve sınırlı performans artışı gibi sınırlar ortaya çıkıyor
  • Çinli DeepSeek, daha küçük ve verimli bir model yayınlayarak pazarı şaşırttı; Covariant (robotik) ve Atman Labs (derin öğrenme dışı yaklaşım) gibi şirketler ise fiziksel dünyaya tepki veren AI üzerinde çalışıyor
  • Son araştırmalara göre LLM’lerin sosyal akıl yürütme yeteneği, az sayıdaki özelliğe dayanıyor ve küçük değişikliklere karşı bile kırılgan; OpenAI da savunmasız gruplara yönelik güvenlik önlemlerinin başarısız olabileceğini kabul etti
  • Uzmanlar LLM’leri yalnızca birer “token üreticisi” olarak eleştiriyor; tek bir teknolojiye saplanmak, pazar kırılganlığını artırabileceği için yeni yaklaşımların yükselişine hazırlıklı olunması gerektiği uyarısında bulunuyor

Dev AI yatırımı ve LLM merkezcilik

  • Tüm yatırımcılar "bütün yumurtaları aynı sepete koymamak" gerektiğini bilir; peki neden Silikon Vadisi yapay zeka (AI) inşa etmenin tek bir yöntemine bahis oynuyor?
  • Dünyanın en büyük dört teknoloji şirketi, 2025’te AI’a 344 milyar dolar yatırım yapıyor; bunun odağında da çoğunlukla büyük dil modellerini (LLM) eğitmek ve çalıştırmak için veri merkezleri kurmak var
  • LLM’ler metin, ses ve görsel içerik gibi çok modlu girdileri işler ve dizideki bir sonraki token’ı tahmin etme tekniğine dayanır
  • Kişisel chatbotlar hızla büyürken bazı AI girişimleri gelir üretmeye başladı ve şirketler üretken AI ile erken dönem verimlilik artışları da elde ediyor
  • LLM’ler, ana akım benimsenmeye ulaşan ilk AI teknolojisi oldu; ChatGPT haftada 700 milyondan fazla kullanıcıya sahip
  • Bazı girişimler başa baş noktasına ulaşmış olsa da sağlık ve hukuk gibi hassas alanlarda halüsinasyon sorunu nedeniyle güven kazanmakta sınırlamalar sürüyor

Tek teknoloji takıntısının riski

  • Ancak tek bir teknolojiye odaklanmak riskli; geçmişte BlackBerry’nin fiziksel klavyede ısrar edip Apple’ın dokunmatik ekranına yenilmesi ya da Yahoo’nun portal bahsinin Google’ın arama hakimiyetine karşı kaybetmesi gibi başarısız örnekler var
  • LLM’ler de aynı yola girme riski taşıyor; yeni AI yaklaşımları ortaya çıkarsa devasa yatırımlar batık riskine maruz kalabilir
  • Çinli DeepSeek, ocakta daha küçük ve verimli bir LLM yayınlayıp mimarisini açarak pazarı şaşırttı ve alışılmadık yaklaşımların mümkün olduğunu gösterdi

Alternatif yaklaşımların aranışı

  • AI ilerlemesi, geçmiş içgörülerin yeni fikirlerle birleşmesiyle gerçekleşir; süper zeki makineler arayışı da çok yönlü bir yaklaşım gerektirir
  • Covariant gibi girişimler, veri örüntülerini analiz etmek yerine mekânsal farkındalık yazılımı geliştirerek LLM merkezli çizgiden uzaklaşıyor
  • Robotik, drone, ilaç keşfi ve iklim modelleme şirketleri gerçek zamanlı fiziksel tepki gerektirdiği için LLM merkezcilikten uzak duruyor
  • Birleşik Krallık merkezli Atman Labs, derin öğrenme öncesinin unutulmuş fikirlerini yeniden gündeme getiriyor; bu da Google DeepMind’ın ilk dönem çok hatlı yaklaşımını (ör. AlphaGo, pekiştirmeli öğrenme) yansıtıyor

LLM sınırları ve güvenilirlik sorunu

  • Artık büyük dil modeli mantığında çatlaklar görülüyor: son derece yüksek maliyetlerden azalan getiri beklentisine kadar
  • OpenAI ya da Google’ın son modelleri, önceki modellere göre yalnızca biraz daha iyi; daha fazla para harcandığında da durum değişmiyor
  • Buna rağmen halüsinasyon sorunu ortadan kalkmadığı için sağlık veya hukuki analiz gibi alanlarda kurumsal kullanımın önünde engel olmaya devam ediyor
  • Yakın tarihli bir Nature araştırması, dil modellerinin sosyal akıl yürütme yeteneğinin çok az sayıdaki özelliğe dayandığını ve küçük değişikliklerde bile çöktüğünü gösteriyor; bu da güvenilirlik konusunda temel sorular doğuruyor
  • OpenAI, uzun süreli sohbetlerde savunmasız gruplara yönelik güvenlik bariyerlerinin çökebileceğini kabul etti; nitekim bir olayda bir gence kendine zarar verme talimatları verildi

Sektör eleştirileri ve görünüm

  • Fei-Fei Li: “Doğada dil yoktur; dünya fizik yasalarına göre işler” diyerek dil merkezli yaklaşımın sınırlarına işaret etti
  • Alex Karp (Palantir CEO’su): “Silikon Vadisi LLM’leri aşırı pazarladı” eleştirisinde bulundu
  • Yann LeCun: LLM’lerin daha akıllı makineler için bir “çıkmaz sokak” olduğunu, yalnızca birer “token üreticisi” sayılabileceğini ve fiziksel çevreyi anlayamadıklarını ya da önceden plan yapamadıklarını söyledi
  • Sonuç olarak LLM’ler varlığını sürdürecek olsa da tek bir çözüme saplanmak risklidir; yatırımcılar ve şirketler yeni bir teknolojik paradigma değişimi ihtimaline hazırlıklı olmalıdır

Henüz yorum yok.

Henüz yorum yok.