Google, açık model Gemma 4’ü duyurdu
(deepmind.google)- Google DeepMind, Gemini 3 teknolojisini temel alan yeni nesil açık yapay zeka modeli Gemma 4’ü duyurdu; model, parametre başına zeka verimliliğini en üst düzeye çıkaran bir mimariyle tasarlandı
- Model E2B, E4B, 26B, 31B olmak üzere dört boyutta sunuluyor ve mobil·IoT’den kişisel GPU ortamlarına kadar geniş bir çalışma aralığını destekliyor
- Başlıca özellikler arasında çok modlu akıl yürütme, 140 dil desteği, ajan tabanlı iş akışları, ayrıntılı fine-tuning, verimli mimari yer alıyor
- Matematik·kodlama·çok modlu anlama alanlarında Gemma 3’e kıyasla performans önemli ölçüde artırıldı; güvenlik·güvenilirlik standartları ise Google’ın ticari modelleriyle aynı seviyede tutuluyor
- Model ağırlıkları Hugging Face, Ollama, Kaggle, LM Studio, Docker gibi platformlardan indirilebiliyor; yerel ve bulut ortamlarında entegre çalışma da destekleniyor
Gemma 4 — yeni nesil açık yapay zeka modeli
- Gemma 4, Gemini 3’ün araştırma ve teknolojisini temel alarak geliştirilen Google DeepMind’in en yeni açık modeli; parametre başına zeka verimliliğini (intelligence-per-parameter) en üst düzeye çıkaran bir yapıya sahip
- Model E2B, E4B, 26B, 31B olmak üzere dört boyutta sunuluyor ve mobil·IoT’den kişisel iş istasyonlarına kadar çeşitli ortamlarda çalışabiliyor
- Başlıca özellikler arasında çok modlu akıl yürütme, 140 dil desteği, ajan tabanlı iş akışları, ayrıntılı fine-tuning, verimli mimari bulunuyor
- Performans benchmark’larında Gemma 3’e kıyasla genel iyileşme kaydedilirken, özellikle matematik·kodlama·çok modlu anlama alanlarında yüksek puanlara ulaşıldı
- Güvenlik·güvenilirlik standartları, Google’ın ticari modelleriyle aynı seviyede korunuyor; model ağırlıkları Hugging Face, Ollama, Kaggle, LM Studio, Docker gibi platformlardan indirilebiliyor
Model yapısı ve verimlilik
- Gemma 4, Gemini 3 teknolojik temelinde tasarlanmış olup zeka verimliliğini en üst düzeye çıkaran açık bir model mimarisini benimsiyor
- Model boyutları E2B, E4B, 26B, 31B olmak üzere dört sürüme ayrılıyor; her sürüm hesaplama kaynakları ve bellek verimliliğine göre optimize edildi
- E2B·E4B: mobil ve IoT cihazları için, en yüksek verimlilik ve çevrimdışı çalışma desteği
- 26B·31B: kişisel GPU ortamlarında frontier seviyesinde akıl yürütme yeteneği sunuyor
Başlıca özellikler
-
Agentic workflows
- Fonksiyon çağırmayı (function calling) yerel olarak destekleyerek, kullanıcı adına planlama·uygulama içinde gezinme·iş yürütme yapabilen otonom ajanlar oluşturmayı mümkün kılıyor
-
Multimodal reasoning
- Ses ve görsel anlama yeteneklerini birleştirerek zengin çok modlu uygulama geliştirmeyi destekliyor
-
Support for 140 languages
- Basit çevirinin ötesine geçerek kültürel bağlam anlayışını da içeren çok dilli deneyimler oluşturmayı mümkün kılıyor
-
Fine tuning
- Kullanıcıların tercih ettiği framework ve tekniklerle belirli görevlerde performans artışı için fine-tuning yapmasına olanak tanıyor
-
Efficient architecture
- Kendi donanımınızda çalıştırılabiliyor ve verimli bir geliştirme ile dağıtım ortamı sunuyor
Performans
- Gemma 4, çeşitli metin üretimiyle ilgili veri kümeleri ve metrikler temel alınarak değerlendirildi
- Başlıca benchmark sonuçları (Gemma 4 31B IT baz alınarak):
- Arena AI (text): 1452 (Gemma 3 27B’ye kıyasla 1365)
- MMMLU (çok dilli Soru-Cevap): 85.2%
- MMMU Pro (çok modlu akıl yürütme): 76.9%
- AIME 2026 (matematik): 89.2%
- LiveCodeBench v6 (kodlama problemleri): 80.0%
- GPQA Diamond (bilimsel bilgi): 84.3%
- τ2-bench (ajan araç kullanımı): 86.4%
- Genel olarak Gemma 3’e göre tüm kalemlerde performans artışı görülüyor; özellikle matematik·kodlama·çok modlu anlama alanlarında büyük iyileşme var
E2B ve E4B — mobil ve IoT için
- Ses·görü desteği sayesinde uç cihazlarda gerçek zamanlı işleme mümkün
- Akıllı telefon, Raspberry Pi, Jetson Nano gibi cihazlarda tam çevrimdışı çalışma ve neredeyse sıfır gecikme (latency) performansı sunuyor
- Google AI Edge Gallery üzerinden denenebiliyor
26B ve 31B — yüksek performanslı yerel yapay zeka
- IDE, kodlama asistanı, ajan tabanlı iş akışları için uygun gelişmiş akıl yürütme özellikleri sunuyor
- Tüketici sınıfı GPU’lara optimize edilerek öğrencilerin·araştırmacıların·geliştiricilerin yerel yapay zeka sunucu ortamı kurabilmesini sağlıyor
- Google AI Studio üzerinden doğrudan çalıştırılabiliyor
Güvenlik ve güvenilirlik
- Gemma 4, Google’ın ticari modelleriyle aynı altyapı güvenlik protokollerini uyguluyor
- Şirketler ve kamu kurumları için kullanılabilecek şeffaf ve güvenilir bir temel sunuyor
- En üst düzey güvenlik·güvenilirlik standartlarını karşılarken en yeni yapay zeka yeteneklerini de sağlıyor
İndirme ve çalıştırma
-
Model ağırlıklarını indirme
- Hugging Face, Ollama, Kaggle, LM Studio, Docker Hub üzerinden Gemma 4 model ağırlıkları sunuluyor
-
Eğitim ve dağıtım desteği
- Jax, Vertex AI, Keras, Google AI Edge, Google Kubernetes Engine, Ollama gibi çeşitli platformlarla entegre destek veriliyor
- Resmî dokümantasyon ve API üzerinden eğitim·dağıtım·çıkarım ortamı yapılandırması mümkün
Gemmaverse topluluğu
- Gemmaverse üzerinden, dünyanın dört bir yanındaki geliştiricilerin Gemma ile oluşturduğu projeler keşfedilebiliyor
- En güncel gelişmeler Google DeepMind’in X, Instagram, YouTube, LinkedIn, GitHub kanalları üzerinden paylaşılıyor
- Abone olarak yapay zekadaki en son yeniliklerden haberdar olunabiliyor
2 yorum
Hacker News yorumları
Gemma 4'ün reasoning, multimodal ve araç çağırma özelliklerini birleştiren bir sürümü yayımlandı
Kuantize edilmiş modeller Hugging Face koleksiyonu üzerinden indirilebiliyor ve Unsloth rehberi de birlikte sunuluyor
Önerilen parametreler temperature=1.0, top_p=0.95, top_k=64, EOS olarak
"ve thinking trace için<|channel>thought\nkullanılıyorOCR, embedding ve özetleme hattı kurarak 1800'lerden kalma arazi kayıtlarını aranabilir hale getirdim
GGUF ve llama.cpp tabanı sayesinde çok dilli arama mümkün oldu; 1 dakikalık işlem gecikmesi de hiç sorun gibi gelmiyor
--reasoning-budget 0ve--chat-template-kwargs '{"enable_thinking":false}'işe yaramadıYeni
--reasoning offbayrağını kullanmak gerektiğini fark ettimMacBook Air M4(32GB) üzerinde unsloth/gemma-4-26B-A4B-it-GGUF:UD-Q4_K_XL test ettim ve qwen3.5-35b-a3b'den çok daha etkileyiciydi
PowerShell birkaç bileşen kurduktan sonra
localhostURL'sini açmamı istedi ama hemen ardından başarısız olduGeliştirici değilim, PowerShell kullanımı bana yabancı geldi ve tek bir çalıştırılabilir dosya (.exe) olarak dağıtılsa iyi olurdu
LM Studio'da Gemma 4 modellerini test ettim
2B ve 4B modeller garip pelikan görselleri üretirken, 26B-A4B modeli şimdiye kadar gördüğüm en iyi sonucu verdi
Test sonuçlarını paylaştım
31B modeli yerelde sadece "---\n" çıktısı verdi ama AI Studio API'de düzgün çalıştı
Örneğin: clocks.brianmoore.com
Gemma 4 ile Qwen 3.5 benchmark'larını karşılaştıran bir tablo hazırladım
MMLU-Pro, GPQA, Codeforces ELO gibi çeşitli metrikleri içeriyor
Qwen 3.5-27B ile Gemma 4 26B/31B karşılaştırıldığında sonuçların tersine döndüğü yerler var
Unsloth ekibinin GGUF sürümünü bu kadar hızlı yayımlaması etkileyici ve Qwen 3.5 ile aynı seviyedeyse bu çok cesaret verici
Küçük Gemma modelleri, Qwen'in küçük modellerinden belirgin biçimde daha zayıf
Qwen3.5-4B ve Gemma 4 ile ilgili Reddit başlığı incelenebilir
Gemma ekibinin bir parçası olarak bu büyük sürüm üzerinde çalışanlardan biriyim
Sorular varsa yanıtlayabilirim
İlgili blog yazısı burada
Qwen3.5 9B ile rekabet edecek orta seviye bir model bekliyordum
Acaba benchmark'ların kendisi mi karşılaştırmayı çarpıtıyor diye düşünüyorum
Karşılaştırma bağlantısı
Unix timestamp hesaplama prompt'u ile Gemma 4 ve Qwen 3.5'i karşılaştırdım
Qwen 8 dakikadan fazla düşünüp doğru cevabı verdi, Gemma ise 30 saniye içinde yanlış sonuç verdi
Gemma Python betiği yazdı ama çalıştıramadığı için yanlış cevap verdi
Aksi halde sadece tahminde bulunabilir
datekomutu GNU ortamında doğru çalışıyormacOS'ta
gdatekurmak gerekiyor (brew install coreutils)gist bağlantısı
Model sadece “hayal ederek” çalıştırmış gibi davrandı
Modular'ın MAX nightly sürümü, Blackwell ve AMD MI355 üzerinde en hızlı açık kaynak uygulama
Modular blogunda pip ile doğrudan kurulabildiği söyleniyor
Gemma 4'ün ELO merkezli benchmark'ı yanlış anlaşılmaya açık
Çoğu metrikte Qwen 3.5 27B'nin gerisinde kalıyor
Yine de 2B ve 4B modeller ASR ya da OCR için ilgi çekici görünüyor
Ben Lmarena (insan değerlendirmesine dayalı) puanlarına daha çok güveniyorum
Karşılaştırma bağlantısı
Nihayet beklenen sürüm geldi
Bir iki yineleme daha olursa self-hosting ortamında çoğu ihtiyacı karşılayacak gibi görünüyor
Eskiden basit soru-cevap yeterliydi, artık kodlama ajanı seviyesinde bir şey bekliyorum
Açık modeller henüz o seviyede değil ama bu sürüm umut verici
Çeviri, sınıflandırma ve kategorilendirme işlerinin çoğunu hallediyorlar
Bu sürümdeki en iyi şey Apache 2.0 lisansı
E2B, E4B(mobil için), 26B-A4B(MoE) ve 31B(büyük dense) modelleri var
Mobil sürümler ses girdisini destekliyor ve 31B ajan görevlerinde güçlü
26B-A4B ise benzer VRAM verimliliği sunarken çıkarım hızında çok daha hızlı
Küçük bir Rust projesini Gemma 4 26B ve Qwen 3.5 27B'ye verip karşılaştırdım
Qwen bir saatten uzun sürede, Gemma ise 20 dakikada pes etti
Codex'in özetine göre Qwen yapısal bütünlük açısından daha iyiydi, Gemma ise daha hızlı ama tamamlanmamıştı
Ben de bu değerlendirmeye katılıyorum
İlgili PR ve issue incelenebilir
Çıkışın hemen başında acele hüküm vermemek lazım
26B-A4B ise Qwen 3.5 35B-A3B ile kıyaslanmalı
120b söylentisi maalesef doğru değilmiş.