1 puan yazan GN⁺ 2025-09-27 | 1 yorum | WhatsApp'ta paylaş
  • Google, Gemini 2.5 Flash ve 2.5 Flash-Lite için yeni önizleme sürümlerini duyurdu; odak noktası kalite artışı ve verimlilik iyileştirmeleri
  • Flash-Lite, komut anlama gücünün artırılması, gereksiz uzun yanıtların azaltılması, çok modluluk ve çeviri yeteneklerinin geliştirilmesi ile yüksek hız ve düşük maliyetli ortamlar için optimize edildi
  • Flash, araç kullanma becerilerinin güçlendirilmesi ve token verimliliğinin iyileştirilmesi sayesinde karmaşık ajan tipi işlerde performansını önemli ölçüde artırdı
  • Gerçek testlerde SWE-Bench Verified skoru %5 arttı, iç kıyaslamalarda ise uzun vadeli görev performansı %15 iyileşti
  • Her iki model de -latest takma adını destekliyor; böylece en yeni özellikler kod değişikliği olmadan kullanılabiliyor. Kararlılık isteyenler ise mevcut 2.5 modellerini kullanmaya devam edebiliyor

Gemini 2.5 Flash ve Flash-Lite'a genel bakış

  • Gemini 2.5 Flash ve Flash-Lite'ın en yeni sürümleri Google AI Studio ve Vertex AI'da yayınlandı. Bu sürümün amacı sürekli olarak daha iyi model kalitesi ve daha yüksek verimlilik sunmak
  • Yeni Flash-Lite ve Flash; genel kalite, hız ve maliyet açısından önceki modellere kıyasla belirgin şekilde daha iyi performans gösteriyor
  • Flash-Lite'ta çıktı token'ları %50, Flash'ta ise %24 azaltılarak işletim maliyeti tasarrufu ve daha hızlı işleme sağlanıyor

Updated Gemini 2.5 Flash-Lite

  • Komut takibinin geliştirilmesi: Karmaşık komutlar veya sistem prompt'larında anlama ve uygulama becerisi büyük ölçüde iyileştirildi
  • Daha fazla kısalık: Daha kısa ve anlaşılır yanıtlar üreterek token maliyetini düşürüyor ve yüksek trafikli ortamlarda gecikmeyi azaltıyor
  • Çok modluluk ve çeviri kalitesinin güçlendirilmesi: Ses dökümü, görüntü tanıma ve çeviri kalitesinde güvenilirlik arttı
  • Flash-Lite önizleme sürümü, gemini-2.5-flash-lite-preview-09-2025 model adıyla hemen denenebiliyor

Updated Gemini 2.5 Flash

  • Araç kullanma becerisinin güçlendirilmesi: Karmaşık çok adımlı senaryolarda ajan tabanlı kullanım büyük ölçüde iyileştirildi ve SWE-Bench Verified ölçütünde önceki sürüme göre 5 puanlık artışla (%48.9 → %54) performans elde edildi
  • Maliyet verimliliğinin artırılması: Daha az token kullanımıyla daha yüksek çıktı kalitesi sunarak gecikme ve altyapı maliyetlerini azaltıyor
  • Primer kullanıcılarından gelen geri bildirimler de olumlu
    • Manus'un kurucu ortağı ve Chief Scientist'i Yichao ‘Peak’ Ji, "Yeni Gemini 2.5 Flash modeli hem etkileyici hız hem de zeka sunuyor. Uzun vadeli hedef tabanlı ajan görevlerinde performans %15 iyileşti ve maliyet verimliliği sayesinde ölçek daha da büyüdü" değerlendirmesinde bulundu
  • Gemini 2.5 Flash önizleme sürümü, gemini-2.5-flash-preview-09-2025 model adıyla kullanılabiliyor

Gemini ile geliştirmeye başlamak

  • Geçtiğimiz bir yıl boyunca önizleme (preview) modelleri yayınlanarak geliştiricilerin en yeni özellikleri hızlıca denemesi ve geri bildirim vermesi sağlandı
  • Bugün duyurulan önizleme sürümleri, yeni bir kararlı (stable) sürüm olarak resmi geçiş anlamına gelmiyor; bunun yerine bir sonraki resmi sürümün kalitesini yükseltmek için temel olarak kullanılıyor
  • Uzun model adları yerine -latest takma adı eklendi; böylece her zaman en yeni model kolayca kullanılabiliyor. Bu takma ad otomatik olarak en güncel sürüme bağlanıyor ve kodu değiştirmeden yeni özelliklerin denenmesini sağlıyor
    • gemini-flash-latest
    • gemini-flash-lite-latest
  • Belirli bir sürüm güncellenecek veya kullanımdan kaldırılacaksa en az 2 hafta önce e-postayla bilgilendirme yapılacak. Takma adlar yalnızca basit bir referans olup fiyat, özellik ve limitler her sürümde farklı olabilir
  • Uzun vadeli kararlılığa ihtiyaç duyanlar için mevcut gemini-2.5-flash ve gemini-2.5-flash-lite model adlarının kullanılması öneriliyor

Önemi

  • Bu sürüm, resmi kararlı sürüme yükseltme değil bir önizleme güncellemesi niteliğinde; gelecekteki kararlı modeller için deneyler yapmak ve kullanıcı geri bildirimi toplamak amacı taşıyor
  • Google, Gemini ile hız, zeka ve maliyet verimliliği arasında denge kurmayı hedefliyor ve geliştiricilerin daha iyi yapay zeka uygulamaları oluşturabilmesi için sürekli iyileştirmeler yapıyor

1 yorum

 
GN⁺ 2025-09-27
Hacker News görüşleri
  • Son zamanlarda Gemini kullanırken hissettiğim sorunu çok iyi yakalayan bir içerik. Modelin kendisi gerçekten çok iyi ama pratikte kullanırken konuşmanın ortasında kesilmesi sorunu tekrar tekrar yaşanıyor. Bunun token sınırı ya da filtrelerden değil, modelin yanıt tamamlandı sinyalini yanlış göndermesine yol açan bir bug'dan kaynaklandığı tahmin ediliyor. Bu konu aylardır GitHub ve geliştirici forumlarında P2 issue olarak yer alıyor. Gemini’nin tam yanıtlarını Claude ya da GPT-4 ile karşılaştırınca kalite aslında hiç de fena değil. Ama güvenilirlik önemli. Kusursuz olmasa bile her seferinde sonuna kadar cevap veren bir model kullanması daha kolay oluyor. Google’ın teknik gücü var ama bu tür temel konuşma akışı sorunlarını düzeltmedikçe benchmark’ları ne kadar iyi olursa olsun rakiplerine kıyasla bozuk hissi vermekten kaçamıyor. İlgili referanslar için issue #707 ve geliştirici forumu tartışması bakılabilir
    • Gemini’nin bir başka dezavantajından bahsediliyor. Tool calling ile JSON output talebini aynı anda işleyemiyor. İstekte application/json belirtilirse tool kullanımı mümkün olmuyor; ikisini birlikte kullanmak için ya JSON’un düzgün gelmesini ummak gerekiyor (ki sık sık başarısız oluyor) ya da ilk istekte tool kullanıp ikinci istekte formatlama yapmak gerekiyor. Zahmetli ama workaround nispeten basit
    • Bu sadece Gemini’ye özgü bir sorun değil; ChatGPT ile de güvenilirlik açısından büyük problemler yaşadığım çok oldu
    • Böyle ufak sorunlar ya da AI Studio’da kaydırmanın bile düzgün çalışmaması anlaşılır gibi değil. Bu kadar harika bir aracın neden en temel işlevlerde eksik kaldığını merak ediyorum
    • Ben de benzer hissediyorum. Gemini 2.5 Pro yazılım mimarisine gerçekten çok uygun. Ama sürekli dürtmek zorunda kalmak yorucu. Sonnet de bunu yeterince iyi yapıyor
    • chatgpt’nin de güvenilirlik sorunu çok
  • llm-gemini eklentisine ilgili model desteği eklendi. uvx ile ayrı kurulum yapmadan çalıştırılabiliyor. Örnek:
export LLM_GEMINI_KEY='...'
uvx --isolated --with llm-gemini llm -m gemini-flash-lite-latest 'An epic poem about frogs at war with ducks'

Sürüm notları için buraya bakılabilir. Pelikanla ilgili tartışma için şu yazıya bakılabilir

  • Bisiklete binen bir pelikanın SVG örnek görselinin eğitim veri setine girip girmediğini merak ediyorum. Bu alandaki mühendisler arasında da Hacker News’a sık gelen çok kişi var
  • Sonunda kimin kazanacağını merak ediyorum. Kurbağalar mı? Ördekler mi? Yoksa pelikan mı?
  • 2.5 geliştirilmiş modelse neden sürüm 2.6 değil diye merak ediyorum. Eski 2.5 ile yeni 2.5’i ayırt etmek gerekiyor ve bu kafa karıştırıyor. Eskiden Apple’ın numaralandırma olmadan the new iPad diye çıkardığı dönem gibi zahmetli geliyor
    • Bu yüzden Sonnet v3.5’in ikinci sürümüne sık sık v3.6 deniyordu ve Anthropic de bir sonrakini v3.7 olarak adlandırdı
    • Modelleri genelde çıkış ayı/yılına göre adlandırıyorum. Örneğin en yeni Gemini 2.5 Flash, "google/gemini-2.5-flash-preview-09-2025" diye geçiyor. Bkz.
    • 2.5 bir sürüm adı değil, mimari nesli gösteriyor. Mazda 3 örneğini verirsek, bu Mazda 4 değil; mevcut modele yeni bir donanım seviyesi ya da küçük bir makyaj gelmesi gibi. SemVer’in (anlamlı sürümleme kuralları) daha iyi olacağına katılıyorum
    • Belki de sadece bug fix düzeyinde bir değişiklik anlatılmak isteniyordur diye tahmin ediyorum
    • Ama bu durumda 2.6 Flash ile 2.5 Pro arasında hangisinin daha iyi olduğu daha da kafa karıştırıcı olurdu
  • Google büyük foundation model sağlayıcıları arasında latency, TPS ve maliyet tarafına gerçekten çok odaklanıyor gibi görünüyor. Anthropic ve OpenAI model zekâsında önde gidiyor ama belli bir performans eşiğinin altında yavaş yanıtlar işbirliğine dayalı araçlarda rahatsızlık yaratıyor. Biraz daha az akıllı olsa bile Gemini gibi hızlı bir model iş akışında daha akıcı hissettiriyor. Yine de bazen claude ya da gpt-5’e kıyasla tamamen körelmiş gibi geldiği oluyor
    • Kişisel olarak bu kadar ikili bir tablonun gerçeği yansıtıp yansıtmadığından emin değilim. Gemini’nin “zekâ” tarafında o kadar da geri kaldığını düşünmüyorum ve sonraki model döngülerinde farkın daha da kapanacağını tahmin ediyorum. Ayrıca Google sadece latency/TPS/maliyet değil, kendi modellerini basit chatbot’ların ötesinde pek çok ürüne hızla entegre etmeye de odaklanıyor gibi. Örneğin Google Workspace ve Google Search dışında jules ya da labs.google/flow, finans panosu gibi yeni alanlarda da aktif biçimde deney yapıyor. Gemini’nin YouTube’a gelmesi de bence an meselesi
    • Son zamanlarda Gemini (2.5-pro) kullanımımı azaltıyorum. Önceden derin araştırma yeteneği ve güvenilir alıntı özelliği beni etkilemişti. Ama son birkaç haftada daha tartışmacı hale geldi ve kaynaklarla ilgili halüsinasyonları ayırt edemiyor. Örnek olarak GitHub Actions’ın secrets map erişimiyle ilgili bir soru sordum; düzgün cevap vermek yerine yanlış bir workflow testi önerdi ve ne kadar itiraz etsem de saçma argümanlar üretmeye devam etti. Buna karşılık Chatgpt sorunu yaşamadan cevap verdi. İlgili referanslar: birinci, ikinci
    • Bence latency/TPS/cost rekabeti esasen grok ile gemini flash arasında dönüyor. Image→text işlerinde bu ikisinin seviyesine çıkan model yok. OpenAI ya da Anthropic’in bu alana pek ilgisi yok
    • 10 yıl önceki “evlenmeden önce karşı tarafı yavaş internete oturt” sözünden, artık “evlenmeden önce karşı tarafı yavaş bir AI modelinin önüne oturt” dönemine geçtik ;-)
    • Katılmak zor. Gemini sadece fiyat/performans oranı yüksek bir model değil, genel kullanıcı açısından en iyi “günlük kullanım” modeli. Özellikle kodlama gibi “agentic” alanlarda Claude ya da GPT-5’in oldukça gerisinde ama uzun konuşmalar ve önceki bağlamı hatırlama konusunda Gemini en iyisi. Debug yaparken birden fazla modeli paralel kullandığımda, geçmiş mesajlardaki önemli noktaları yakalayıp doğru kod örnekleri veren tek model çoğu zaman Gemini oluyor. Düşük kaynaklı dil desteğinde, OCR ve görsel tanımada da baskın. Google’ın pazarlama ve AI UX tarafı şu anda en zayıf noktası ama iyileşirse daha da büyür. Ben de zaten üç modeli neredeyse her gün birlikte kullanıyorum
  • AI içermeyen özet: İki model de yapay zeka analiz endeksinde daha akıllı hale geldi ve uçtan uca yanıt süresi de kısaldı. Çıktı token verimliliği %24~50 arttı (bu da maliyeti düşürmeye yardımcı oluyor). Gemini 2.5 Flash-Lite’ın başlıca iyileştirmeleri; komut anlama yeteneğinin artması, gereksiz uzun anlatımın azalması ve multimodal/çeviri yeteneklerinin güçlenmesi. Gemini 2.5 Flash ise daha güçlü agent tool kullanımı ve token-verimli akıl yürütmeyle öne çıkıyor. Model string’leri gemini-2.5-flash-lite-preview-09-2025 ve gemini-2.5-flash-preview-09-2025
    • “AI içermeyen özet” gibi bir yaklaşımın gelecekte trend olacağını düşünüyorum. Sadece bir insanın derlemiş olması bile okumayı daha keyifli hale getiriyor
    • “AI içermeyen özet” terimini ben de alıp kullanacağım
    • “output token efficiency” tam olarak ne demek, merak ediyorum. Gemini Flash giriş/çıkış token sayısına göre ücretlendiriliyorsa, çıktı aynı kaldığında maliyet de aynı olmalı. Yani tokenizer ya da iç mekanizmada bir değişiklik yoksa maliyetin nasıl düştüğünü anlamak zor
    • 2.5 Flash, AI’ı ilk kez gerçekten faydalı hale getiren model oldu. Aslen #1 AI nefreti duyan kişiydim ama artık Google aramasından önce Gemini uygulamasını açıyorum. Daha doğru, reklamsız ve verdiği bilgilerin çoğu isabetli. İnternetin doğru bilgisini elimin altında tutuyormuşum gibi hissettiriyor. Tek başıma Gemini uygulamasında lahana ekim sıcaklığı gibi sohbetlere dalabiliyorum. Her türlü blog, bot ve SEO spam’ine kıyasla çok daha odaklı. Ama Google bunun ne kadarını ne kadar süre korur, gelir yapısını cannibalize etme sorunu sürüyor
    • Genel olarak önceki sürüme göre artımlı iyileştirmeler gibi görünüyor
  • Sürüm numaralandırmasıyla ilgili küçük bir şikâyet ama her iyileştirmede numaranın artması daha sezgisel olurdu. Şu anki gibi çıkınca kafa karıştırıyor
    • Benim de aynı şikâyetim var. Anthropic de benzer bir şey yaptı ve “nerf” tartışmaları büyüdü. Biz token’ları paket halinde satın alıyoruz, geçerlilik süreleri de kısa ve modelin gerçekte ne kadar güncellendiğini pek bilmiyoruz. Bence %1 bile daha iyi ya da daha kötü olduysa açıklanmalı. Temelde AI şirketlerinin şeffaflık ve erişilebilirlik konusunda daha dikkatli olması gerekiyor. İlgili örnek için Claude incident bakılabilir
    • Bu küçük bir şikâyet değil, ciddi bir sorun. Böyle bir politikayla sürüm numaralandırmasının kendisi anlamsızlaşıyor
    • Muhtemelen mevcut 2.5 Flash modelinin yerine geçecek bir kavram. openai’nin 4-o modeli gibi sessiz güncellemeler yaptığı ve geçmişte glazing sorunu yüzünden rollback yaptığı olayları hatırlatıyor
  • Modellere özel anlamlı bir sürümleme sistemi, yani semver benzeri yeni bir yapı kurulmalı. Küçük optimizasyonlarla tam retrain/mimari değişiklikler net biçimde ayrıştırılabilmeli
  • Gemini 2.5 Flash son dönemde en çok kullandığım LLM. Özellikle image input ve structured output konusunda OpenAI/Anthropic’ten daha iyiydi
    • Gemini 2.5 Flash benim iş alanımda ChatGPT 5’i eziyor. Bu kadar az popüler olması şaşırtıcı
    • Fiyat değişti mi, emin değilim
  • Acaba ben farklı bir Gemini mi kullanıyorum diye düşünüyorum. Şirkette Google Workspace kullandığımız için Gemini varsayılan olarak geliyor. Ama diğer modellere kıyasla sonuçları korkunç derecede kötü. Herkes övüyor ama benim yaşadığım Gemini ya yanlış cevap veriyor ya da çok uzun yazıyor (özet istiyorum, makale veriyor) ve hiç tatmin etmiyor. Aynı soruyu Gemini’ye ve oldukça zayıf bir ChatGPT sürümüne sorduğumda ChatGPT çok daha iyi çıkıyor. Acaba bir şeyi mi kaçırıyorum?
    • Ben sadece ai studio’da kullandım ve orada diğer modellerden çok daha üstün buldum. IDE entegrasyonu gibi şeylerde deneyimim yok. Yalnız aşırı övgüyü azaltmasını özellikle söylemek gerekiyor; bu, bağlam penceresini yönetmeye de yardımcı oluyor
    • Ben de benzerim. Çeviri dışında neredeyse hiç kullanamadım; çeviride bile bazen durduk yere reddediyor ya da alakasız davranıyor. En son çok temel bir soruya sadece tek bir virgül gönderdi ya da gereksiz yere etik gerekçeler öne sürüp (ör. “kapüşonlu sırt çantası”) reddetti. En büyük sorun, tamamen makul istekleri bile reddetmesi
    • Kullanım amacına bağlı. Basit Soru-Cevap’ta GPT-5 daha iyi ama metinden rapor üretme, özetleme ya da vurgu ekleme gibi yazı işleri için Gemini en iyisi
    • Bence ChatGPT’nin güçlü yanı, ek açıklama istemeden soruyu iyi yorumlaması ve sonucu kolay okunur bir formatta düzenlemesi. GPT’nin post-training tarafı bir seviye yukarıda gibi
    • Belki de yanlış yöntemle kullanıyor olabilirsin
  • Gemini 2.5 Flash fiyatına göre etkileyici bir performans sunuyor. Buna rağmen Gemini 2.0 Flash’ın neden hâlâ bu kadar popüler olduğunu anlamıyorum. OpenRouter’daki son model rakamları:
    • xAI: Grok Code Fast 1: 1.15T
    • Anthropic: Claude Sonnet 4: 586B
    • Google: Gemini 2.5 Flash: 325B
    • Sonoma Sky Alpha: 227B
    • Google: Gemini 2.0 Flash: 187B
    • DeepSeek: DeepSeek V3.1 (ücretsiz): 180B
    • xAI: Grok 4 Fast (ücretsiz): 158B
    • OpenAI: GPT-4.1 Mini: 157B
    • DeepSeek: DeepSeek V3 0324: 142B
    • OpenRouter’ın bir dezavantajı, her model için gerçek kullanıcı şirket sayısını açıklamaması. Büyük müşterilerden biri geçiş yaptığında metriklerin tamamı değişebilir. Bu konuda daha şeffaf olmaları iyi olurdu
    • Bizim şirkette de eski modele bağlı kalmış ve güncellenmemiş çok iş var
    • Sebep fiyat. 2.0 Flash, 2.5 Flash’tan daha ucuz ve hâlâ oldukça iyi bir model
    • 2.0 Flash, 2.5 Flash’tan belirgin şekilde daha ucuz ve son güncellemeden önce 2.5-Flash-Lite’tan bile daha iyiydi. Metin ayrıştırma, özetleme ve görsel tanıma gibi işlerde iyi bir işçi model. Ama şimdi 2.5-Flash-Lite çıktığı için yerini ona bırakabilir
    • Muhtemelen en yeni sürüme göre isimleri güncellemek zahmetli olduğu için 2.5 Flash’ta da aynı adlandırma şemasını koruyorlar.