10 puan yazan GN⁺ 28 일 전 | 2 yorum | WhatsApp'ta paylaş
  • Google DeepMind, Gemini 3 teknolojisini temel alan yeni nesil açık yapay zeka modeli Gemma 4’ü duyurdu; model, parametre başına zeka verimliliğini en üst düzeye çıkaran bir mimariyle tasarlandı
  • Model E2B, E4B, 26B, 31B olmak üzere dört boyutta sunuluyor ve mobil·IoT’den kişisel GPU ortamlarına kadar geniş bir çalışma aralığını destekliyor
  • Başlıca özellikler arasında çok modlu akıl yürütme, 140 dil desteği, ajan tabanlı iş akışları, ayrıntılı fine-tuning, verimli mimari yer alıyor
  • Matematik·kodlama·çok modlu anlama alanlarında Gemma 3’e kıyasla performans önemli ölçüde artırıldı; güvenlik·güvenilirlik standartları ise Google’ın ticari modelleriyle aynı seviyede tutuluyor
  • Model ağırlıkları Hugging Face, Ollama, Kaggle, LM Studio, Docker gibi platformlardan indirilebiliyor; yerel ve bulut ortamlarında entegre çalışma da destekleniyor

Gemma 4 — yeni nesil açık yapay zeka modeli

  • Gemma 4, Gemini 3’ün araştırma ve teknolojisini temel alarak geliştirilen Google DeepMind’in en yeni açık modeli; parametre başına zeka verimliliğini (intelligence-per-parameter) en üst düzeye çıkaran bir yapıya sahip
  • Model E2B, E4B, 26B, 31B olmak üzere dört boyutta sunuluyor ve mobil·IoT’den kişisel iş istasyonlarına kadar çeşitli ortamlarda çalışabiliyor
  • Başlıca özellikler arasında çok modlu akıl yürütme, 140 dil desteği, ajan tabanlı iş akışları, ayrıntılı fine-tuning, verimli mimari bulunuyor
  • Performans benchmark’larında Gemma 3’e kıyasla genel iyileşme kaydedilirken, özellikle matematik·kodlama·çok modlu anlama alanlarında yüksek puanlara ulaşıldı
  • Güvenlik·güvenilirlik standartları, Google’ın ticari modelleriyle aynı seviyede korunuyor; model ağırlıkları Hugging Face, Ollama, Kaggle, LM Studio, Docker gibi platformlardan indirilebiliyor

Model yapısı ve verimlilik

  • Gemma 4, Gemini 3 teknolojik temelinde tasarlanmış olup zeka verimliliğini en üst düzeye çıkaran açık bir model mimarisini benimsiyor
  • Model boyutları E2B, E4B, 26B, 31B olmak üzere dört sürüme ayrılıyor; her sürüm hesaplama kaynakları ve bellek verimliliğine göre optimize edildi
    • E2B·E4B: mobil ve IoT cihazları için, en yüksek verimlilik ve çevrimdışı çalışma desteği
    • 26B·31B: kişisel GPU ortamlarında frontier seviyesinde akıl yürütme yeteneği sunuyor

Başlıca özellikler

  • Agentic workflows

    • Fonksiyon çağırmayı (function calling) yerel olarak destekleyerek, kullanıcı adına planlama·uygulama içinde gezinme·iş yürütme yapabilen otonom ajanlar oluşturmayı mümkün kılıyor
  • Multimodal reasoning

    • Ses ve görsel anlama yeteneklerini birleştirerek zengin çok modlu uygulama geliştirmeyi destekliyor
  • Support for 140 languages

    • Basit çevirinin ötesine geçerek kültürel bağlam anlayışını da içeren çok dilli deneyimler oluşturmayı mümkün kılıyor
  • Fine tuning

    • Kullanıcıların tercih ettiği framework ve tekniklerle belirli görevlerde performans artışı için fine-tuning yapmasına olanak tanıyor
  • Efficient architecture

    • Kendi donanımınızda çalıştırılabiliyor ve verimli bir geliştirme ile dağıtım ortamı sunuyor

Performans

  • Gemma 4, çeşitli metin üretimiyle ilgili veri kümeleri ve metrikler temel alınarak değerlendirildi
  • Başlıca benchmark sonuçları (Gemma 4 31B IT baz alınarak):
    • Arena AI (text): 1452 (Gemma 3 27B’ye kıyasla 1365)
    • MMMLU (çok dilli Soru-Cevap): 85.2%
    • MMMU Pro (çok modlu akıl yürütme): 76.9%
    • AIME 2026 (matematik): 89.2%
    • LiveCodeBench v6 (kodlama problemleri): 80.0%
    • GPQA Diamond (bilimsel bilgi): 84.3%
    • τ2-bench (ajan araç kullanımı): 86.4%
  • Genel olarak Gemma 3’e göre tüm kalemlerde performans artışı görülüyor; özellikle matematik·kodlama·çok modlu anlama alanlarında büyük iyileşme var

E2B ve E4B — mobil ve IoT için

  • Ses·görü desteği sayesinde uç cihazlarda gerçek zamanlı işleme mümkün
  • Akıllı telefon, Raspberry Pi, Jetson Nano gibi cihazlarda tam çevrimdışı çalışma ve neredeyse sıfır gecikme (latency) performansı sunuyor
  • Google AI Edge Gallery üzerinden denenebiliyor

26B ve 31B — yüksek performanslı yerel yapay zeka

  • IDE, kodlama asistanı, ajan tabanlı iş akışları için uygun gelişmiş akıl yürütme özellikleri sunuyor
  • Tüketici sınıfı GPU’lara optimize edilerek öğrencilerin·araştırmacıların·geliştiricilerin yerel yapay zeka sunucu ortamı kurabilmesini sağlıyor
  • Google AI Studio üzerinden doğrudan çalıştırılabiliyor

Güvenlik ve güvenilirlik

  • Gemma 4, Google’ın ticari modelleriyle aynı altyapı güvenlik protokollerini uyguluyor
  • Şirketler ve kamu kurumları için kullanılabilecek şeffaf ve güvenilir bir temel sunuyor
  • En üst düzey güvenlik·güvenilirlik standartlarını karşılarken en yeni yapay zeka yeteneklerini de sağlıyor

İndirme ve çalıştırma

  • Model ağırlıklarını indirme

    • Hugging Face, Ollama, Kaggle, LM Studio, Docker Hub üzerinden Gemma 4 model ağırlıkları sunuluyor
  • Eğitim ve dağıtım desteği

    • Jax, Vertex AI, Keras, Google AI Edge, Google Kubernetes Engine, Ollama gibi çeşitli platformlarla entegre destek veriliyor
    • Resmî dokümantasyon ve API üzerinden eğitim·dağıtım·çıkarım ortamı yapılandırması mümkün

Gemmaverse topluluğu

  • Gemmaverse üzerinden, dünyanın dört bir yanındaki geliştiricilerin Gemma ile oluşturduğu projeler keşfedilebiliyor
  • En güncel gelişmeler Google DeepMind’in X, Instagram, YouTube, LinkedIn, GitHub kanalları üzerinden paylaşılıyor
  • Abone olarak yapay zekadaki en son yeniliklerden haberdar olunabiliyor

2 yorum

 
GN⁺ 28 일 전
Hacker News yorumları
  • Gemma 4'ün reasoning, multimodal ve araç çağırma özelliklerini birleştiren bir sürümü yayımlandı
    Kuantize edilmiş modeller Hugging Face koleksiyonu üzerinden indirilebiliyor ve Unsloth rehberi de birlikte sunuluyor
    Önerilen parametreler temperature=1.0, top_p=0.95, top_k=64, EOS olarak " ve thinking trace için <|channel>thought\n kullanılıyor

    • Daniel'in çalışması dünyayı değiştiriyor
      OCR, embedding ve özetleme hattı kurarak 1800'lerden kalma arazi kayıtlarını aranabilir hale getirdim
      GGUF ve llama.cpp tabanı sayesinde çok dilli arama mümkün oldu; 1 dakikalık işlem gecikmesi de hiç sorun gibi gelmiyor
    • llama.cpp içinde “thinking” özelliğini kapatmaya çalıştım ama --reasoning-budget 0 ve --chat-template-kwargs '{"enable_thinking":false}' işe yaramadı
      Yeni --reasoning off bayrağını kullanmak gerektiğini fark ettim
      MacBook Air M4(32GB) üzerinde unsloth/gemma-4-26B-A4B-it-GGUF:UD-Q4_K_XL test ettim ve qwen3.5-35b-a3b'den çok daha etkileyiciydi
    • Rehberdeki “Search and download Gemma 4” adımının ekran görüntüsü qwen3.5 için görünüyor ve Unsloth Studio'da yalnızca Gemma 3 modelleri görünüyor
    • Acemi bir soru olabilir ama neden orijinal model yerine bu sürümün tercih edilmesi gerektiğini merak ediyorum
    • Windows 11'de Unsloth ile Gemma 4 kurarken parola belirleme adımında hata aldım
      PowerShell birkaç bileşen kurduktan sonra localhost URL'sini açmamı istedi ama hemen ardından başarısız oldu
      Geliştirici değilim, PowerShell kullanımı bana yabancı geldi ve tek bir çalıştırılabilir dosya (.exe) olarak dağıtılsa iyi olurdu
  • LM Studio'da Gemma 4 modellerini test ettim
    2B ve 4B modeller garip pelikan görselleri üretirken, 26B-A4B modeli şimdiye kadar gördüğüm en iyi sonucu verdi
    Test sonuçlarını paylaştım
    31B modeli yerelde sadece "---\n" çıktısı verdi ama AI Studio API'de düzgün çalıştı

    • Pelikan benchmark'ı sayesinde her yeni model çıktığında Hacker News yorumlarına bakar oldum
    • Acaba pelikan artık eğitim verisinin bir parçası haline mi geldi diye merak ediyorum
    • Tüm pelikan görsellerini tek bakışta görebileceğimiz bir galeri sayfası olsa güzel olurdu
      Örneğin: clocks.brianmoore.com
    • instruction-tuned sürüm kullanılırsa pelikan kalitesinin çok daha iyi olacağını düşünüyorum
    • Hangi dizüstü bilgisayar özelliklerinde çalıştırıldığını merak ediyorum
  • Gemma 4 ile Qwen 3.5 benchmark'larını karşılaştıran bir tablo hazırladım
    MMLU-Pro, GPQA, Codeforces ELO gibi çeşitli metrikleri içeriyor

    • ELO puanları tfa'nın grafiğinden epey farklı
      Qwen 3.5-27B ile Gemma 4 26B/31B karşılaştırıldığında sonuçların tersine döndüğü yerler var
      Unsloth ekibinin GGUF sürümünü bu kadar hızlı yayımlaması etkileyici ve Qwen 3.5 ile aynı seviyedeyse bu çok cesaret verici
    • 24GB GPU'su olan bir kullanıcının bu tabloda hangi modeli seçmesi gerektiğini pek çıkaramadım
    • Eksenleri ters çevirip bazı modelleri çıkarmak yapılan karşılaştırmayı yanıltıcı hale getirebilir
      Küçük Gemma modelleri, Qwen'in küçük modellerinden belirgin biçimde daha zayıf
      Qwen3.5-4B ve Gemma 4 ile ilgili Reddit başlığı incelenebilir
  • Gemma ekibinin bir parçası olarak bu büyük sürüm üzerinde çalışanlardan biriyim
    Sorular varsa yanıtlayabilirim

    • Gemma 3'te olduğu gibi kuantizasyon farkındalıklı eğitim (QAT) sürümleri yayımlama planınız var mı diye merak ediyorum
      İlgili blog yazısı burada
    • Bu kez neden 12B sürümünün olmadığını merak ediyorum
      Qwen3.5 9B ile rekabet edecek orta seviye bir model bekliyordum
    • “Büyük sürüm numarası”nın gerçekten hesaplama kaynağı ölçeğinin artması anlamına mı geldiğini, yoksa yeni bir mimariye geçişi mi ifade ettiğini merak ediyorum
    • ELO puanı dışındaki benchmark'larda performansın neden daha düşük göründüğünü soruyorum
      Acaba benchmark'ların kendisi mi karşılaştırmayı çarpıtıyor diye düşünüyorum
    • Kendi testlerimde Gemini 3 Pro ile neredeyse aynı performansı gördüm ve maliyeti 10 kat daha düşüktü
      Karşılaştırma bağlantısı
  • Unix timestamp hesaplama prompt'u ile Gemma 4 ve Qwen 3.5'i karşılaştırdım
    Qwen 8 dakikadan fazla düşünüp doğru cevabı verdi, Gemma ise 30 saniye içinde yanlış sonuç verdi
    Gemma Python betiği yazdı ama çalıştıramadığı için yanlış cevap verdi

    • Modelin gerçekten kod çalıştırabilmesi için agentic harness ortamında sandbox ve spesifikasyon sağlanması gerekiyor
      Aksi halde sadece tahminde bulunabilir
    • date komutu GNU ortamında doğru çalışıyor
      macOS'ta gdate kurmak gerekiyor (brew install coreutils)
    • RX 9070 XT(24GB VRAM) ortamında araç kullanmadan da doğru sonucu aldım
      gist bağlantısı
    • Orijinal yorumu yazan kişi modele gerçek komut çalıştırma yetkisi vermemişti
      Model sadece “hayal ederek” çalıştırmış gibi davrandı
    • Son cümle komikti
  • Modular'ın MAX nightly sürümü, Blackwell ve AMD MI355 üzerinde en hızlı açık kaynak uygulama
    Modular blogunda pip ile doğrudan kurulabildiği söyleniyor

    • TensorRT-LLM'den daha hızlı olup olmadığını ya da TensorRT-LLM'in neden açık kaynak sayılmadığını soruyor
    • PyTorch'a kıyasla hız artış oranının ne kadar olduğunu merak ediyorum
  • Gemma 4'ün ELO merkezli benchmark'ı yanlış anlaşılmaya açık
    Çoğu metrikte Qwen 3.5 27B'nin gerisinde kalıyor
    Yine de 2B ve 4B modeller ASR ya da OCR için ilgi çekici görünüyor

    • Açık benchmark'larla oynamak kolay
      Ben Lmarena (insan değerlendirmesine dayalı) puanlarına daha çok güveniyorum
    • Kendi testlerimde kodlama dışındaki alanlarda oldukça iyi sonuç verdi
      Karşılaştırma bağlantısı
    • Çin modelleri arc-agi 2 gibi özel testlerde daha düşük performans gösteriyor
    • Benchmark'lar yalnızca bir referans; en doğrusu gerçek kullanım senaryonla doğrudan test etmek
    • “ELO Score”un tam olarak hangi metriği ifade ettiği belirsiz
  • Nihayet beklenen sürüm geldi
    Bir iki yineleme daha olursa self-hosting ortamında çoğu ihtiyacı karşılayacak gibi görünüyor

    • Katılıyorum ama benim “gündelik ihtiyaçlarım” her yıl daha karmaşık hale geliyor
      Eskiden basit soru-cevap yeterliydi, artık kodlama ajanı seviyesinde bir şey bekliyorum
      Açık modeller henüz o seviyede değil ama bu sürüm umut verici
    • Gemma3:27b ve Qwen3-vl:30b-a3b en sık kullandığım yerel LLM'ler
      Çeviri, sınıflandırma ve kategorilendirme işlerinin çoğunu hallediyorlar
    • Self-hosting'i ne tür işler için kullandığını merak ediyorum
  • Bu sürümdeki en iyi şey Apache 2.0 lisansı
    E2B, E4B(mobil için), 26B-A4B(MoE) ve 31B(büyük dense) modelleri var
    Mobil sürümler ses girdisini destekliyor ve 31B ajan görevlerinde güçlü
    26B-A4B ise benzer VRAM verimliliği sunarken çıkarım hızında çok daha hızlı

  • Küçük bir Rust projesini Gemma 4 26B ve Qwen 3.5 27B'ye verip karşılaştırdım
    Qwen bir saatten uzun sürede, Gemma ise 20 dakikada pes etti
    Codex'in özetine göre Qwen yapısal bütünlük açısından daha iyiydi, Gemma ise daha hızlı ama tamamlanmamıştı
    Ben de bu değerlendirmeye katılıyorum

    • Şu anda chat template hatası yüzünden araç çağırma kararsız çalışıyor
      İlgili PR ve issue incelenebilir
      Çıkışın hemen başında acele hüküm vermemek lazım
    • Qwen 3.5 27B dense bir model olduğu için Gemma 4 31B ile karşılaştırılması daha doğru
      26B-A4B ise Qwen 3.5 35B-A3B ile kıyaslanmalı
    • Qwen dense, Gemma ise MoE yapısında; bu yüzden doğrudan karşılaştırmak zor
 
eoeoe 28 일 전

120b söylentisi maalesef doğru değilmiş.