OpenAI, API’ye GPT-5.5 ve GPT-5.5 Pro’yu sundu
(developers.openai.com)- GPT-5.5, Chat Completions API ve Responses API’de kullanıma sunuldu; ayrıca daha fazla hesaplamanın avantaj sağladığı zor problemler için GPT-5.5 pro da Responses API isteklerine eklendi
- GPT-5.5, 1 milyon token bağlam penceresi, görüntü girdisi, yapılandırılmış çıktı, fonksiyon çağırma, prompt caching, Batch, tool search, yerleşik computer use, hosted shell, apply patch, Skills, MCP ve web aramayı destekliyor
- Varsayılan reasoning effort değeri
mediumolarak ayarlandı;image_detailayarlanmamış durumdayken veyaautoiken mevcut davranış korunuyor - GPT-5.5 önbelleklemesi yalnızca extended prompt caching içinde çalışıyor ve in-memory prompt caching desteklenmiyor: behavioral changes
- 21 Nisan değişiklikleri
- GPT Image 2, görüntü üretimi ve düzenleme için en yeni görüntü oluşturma modeli olarak sunuldu
- GPT Image 2, esnek görüntü boyutları, yüksek doğruluklu görüntü girdisi, token tabanlı görüntü ücretlendirmesi ve %50 indirimli Batch API desteği içeriyor
2 yorum
Artık 5.4'ten itibaren
proiçin Chat Completions API artık sunulmuyor gibi görünüyor.Hacker News görüşleri
Prodüksiyon sorunu yüzünden hemen denedim; Claude bunu böyle yapmazdı ama GPT-5.5 yaptı
Sorun giderme sonrasında
updateifadesi kullanmasını sağladım, sonra ben de "tamam, bunu bir transaction içine alalım ve rollback de ekleyelim" dedim, o da eski usul şöyle verdi:BEGIN TRAN;-- put the query herecommit;sadece bunu verdi
Uzun zamandır modele gerçekten istediğim işi yapması için yeniden iteklemem gerekmiyordu; bu epey sarsıcıydı
Daha az token harcamaya çalıştığını anlıyorum ama en ileri seviye model için para ödüyorken böyle tembel davranması sinir bozucu
Cursor'da model seçicide görünüyordu, ben de sadece denemiş oldum
Sorun, yanıtta sadece
-- put the query hereyazıp sorguyu tekrar etmemesiyse, bunu mutlaka sorun olarak görmüyorumGerçek hedef çalıştırılacak sorguyu elde etmekti ve sen de "bunu transaction olarak yapalım" dedinse, sadece önce
beginyazman gerektiğini söylemesi gayet makulSorgu uzunsa daha az token harcar;
permission deniedalınca tüm komutu yeniden yazmak yerine başınasudoekle demesine benziyorÖte yandan modelin sorguyu gerçekten çalıştırmasını bekliyordun da o "işte burada, sen çalıştır" gibi davrandıysa, bu kesinlikle tembellik olur ve şaşırtıcıdır
Emergent behavior'ın böyle ortaya çıkması ilginç
Şakayı bir kenara bırakırsak, OpenAI'nin takıntılı biçimde ittiği token başına intelligence odaklı optimizasyon bana M1 öncesi Apple'ın MacBook'ları aşırı inceltmeye çalıştığı dönemi hatırlatıyor
Sanki tek bir metriği sonuna kadar kovalayıp diğer her şeyi feda ediyorlar
GPT-5.3+ açıkça en zeki modeller arasında ama o kadar tembel ki birlikte çalışmak çoğu zaman eziyet olabiliyor
Az önce kendi Wordpress+GravityForms benchmark'ımla denedim; performans açısından da liderlik tablosunun en altlarındaydı ve fiyat/performans olarak da berbattı: https://github.com/guilamu/llms-wordpress-plugin-benchmark
Bunun sadece tek bir benchmark olduğunu biliyorum ama nasıl bu kadar kötü olabildiğini anlamıyorum
Bugünlerde kelimelerin anlamı fazla kolay aşınıyor; o yüzden böyle şeyler sık oluyor
Eskiden gerçekten teknik iş yapan insanların çok olduğu forumlar bile artık vibe researcher kitlesiyle doluyor; belli bir popülerlik eşiği aşılınca işler zaten böyle oluyor
HN de hâlâ ciddi araştırmanın kaldığı son kalelerden biri gibi ama ana yorum bile tam bağışık olmadığını gösteriyor
Bu tür benchmarking hoşuma gidiyor
judge benchmark'ı nasıl değerlendirdiğini merak ediyorum; ben de benzer bir benchmark'ı kendim kurmak isterim
Prompt aşırı ince ama puanlama kalemleri inanılmaz fazla
Bağlam uzunluğuna göre fiyatlandırma şöyleymiş
Girdi 272K'ya kadar $5/M, üstünde $10/M
Çıktı 272K'ya kadar $30/M, üstünde $45/M
Cache okuması 272K'ya kadar $0.50/M, üstünde $1/M
272K'yı aşınca Opus 4.7'den belirgin biçimde daha pahalı oluyor ve en azından benim işlerimde token verimliliği bunu telafi edecek kadar iyi görünmedi
Bu fiyat farkını dengeleyecek düzeyde değildi
GPT-5.4'ün güçlü yanı 400k context ve güvenilir compaction'dı ama ikisi de bir miktar gerilemiş gibi görünüyor
Yine de compaction güvenilirliğinin gerçekten düştüğünü kesin söylemek için erken
Front-end çıktıları da hâlâ o göze çok batan, kartlarla dolu mavi tonlu şablona kayma eğiliminde
Bu, GPT-5 çıkmadan önce Horizon Alpha/Beta döneminden beri şüpheli görünen bir stil; o zaman task adherence o kadar iyiydi ki o büyük kusura rağmen yine de kullanışlıydı
Ama GPT-5.5 tamamen yeni bir foundation denirken bu kısmın hâlâ böyle sınırlı olması biraz garip
GPT 5.5'in genel kodlama ve akıl yürütme benchmark sonuçları https://gertlabs.com/'da yayımlandı
Live decision ve daha ağır agentic eval sonuçları da 24 saat boyunca eklenmeye devam edecek ama artık liderlik tablosu sıralaması değişecek gibi görünmüyor
GPT 5.5, herkese açık modeller arasında en zekisi ve önceki sürüme göre belirgin şekilde daha hızlı
Dün şöyle denmişti
https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
O yüzden bunun bu yayını öne çekmiş olabileceğini düşünüyorum
Geçmişte de örnekleri vardı
Sadece bana mı öyle geliyor bilmiyorum ama OpenAI sanki bu tür her haberde ücretli yorumcu ya da bot çalıştırıp Claude'u kötülemeye ve Codex'in çok daha iyi olduğunu itmeye çalışıyor gibi
Sayıları fazla ve Claude'u her gün kullanan biri için pek mantıklı gelmeyen iddia da çok
OpenAI'nin denetimsiz otonom silahlar ve ülke içi kitlesel gözetim konusunda iş birliği yaparak demokrasiyi sattığı gerçeğini de herkes unutmuş gibi bir hava var
En azından dışarıdan belli olmaya başlaması Opus 4.6 hype'ından hemen sonraydı
Bugünlerde kendi ürününü pazarlayan şirketlerin hepsi aşağı yukarı aynı
Enterprise kullanıcısıyım ama hâlâ sadece 5.4 görünüyor
Dünkü duyuruda herkese rollout'un birkaç saat sürebileceği söylenmişti ama OpenAI beklenti yönetimi için GTM tarafında biraz daha iyi olmalı
Hızlı açılmış olması güzel
Demek ki bir dahaki sefere daha erken şikâyet etmeliyim
Kendi benchmark'ımda 25/25 alan ikinci model oldu
İlki Opus 4.7'ydi; sonuçlar burada: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
Opus'tan daha ucuz ama daha yavaş
API sayfasında knowledge cutoff tarihi 2025-12-01 olarak yazıyor ama modele doğrudan sorunca 2024 Haziran diye cevap veriyor
Knowledge cutoff: 2024-06Current date: 2026-04-24You are an AI assistant accessed via an API.Cutoff tarihini doğrulamak için modele kendisini sormak, oldum olası en düşük güvenilirliğe sahip yöntemdi
Hatta bunun gibi yorumları bile eğitim verisinde görmüş olabilir
Sadece 2025-12-01'den hemen önce olan bir olayı sorun yeter
Mümkünse spor karşılaşması iyi olur
Eski model API sayfalarının çoğunda da 2024 Haziran cutoff'u yazıyordu; belki onu tekrar ediyor
Gerçek cutoff'u doğrulamanın doğru yolu, o tarihten önce var olmayan ya da yaşanmamış bir şeyi sormaktır
Kabaca birkaç denemeden sonra 5.5'in genel bilgi cutoff'unun hâlâ 2025 başları civarında olduğunu düşünüyorum
GPT 5.5 + Codex kombinasyonu gerçekten çok iyi
İster soru sorayım, ister plan yapayım, ister kod uygulatayım; artık neredeyse hiç tereddütsüz emanet ediyorum
Opus 4.7 ise sürekli ikinci kez kontrol ettiriyor
CLAUDE.mdtalimatlarını iyi izlemiyor, halüsinasyon da çok yapıyor ve cevabı bulamayınca varsayılanı uydurmak oluyor; bu da büyük bir fark yaratıyorGeçen yıl insanlar OpenAI'nin geride kaldığını, code red durumunda olduğunu söylerken her şey gerçekten çok hızlı olmuştu ama şimdi dönüp bakınca tablo tamamen değişmiş görünüyor