18 puan yazan princox 2026-03-10 | 7 yorum | WhatsApp'ta paylaş

Son günlerde r/codex’te ilginç bir gönderi paylaşıldı.
Bir kullanıcı, ChatGPT Pro + Codex’te GPT-5.4 kullanırken bağlamın yalnızca 258K göründüğünü soran bir paylaşım yaptı.
“GPT-5.4’ün 1M bağlam sunduğunu duymuştum; neden sadece 258K görünüyor?”
Gerçekten de Codex CLI veya IDE içinde kontrol edildiğinde varsayılan bağlamın yaklaşık 258K olarak gösterildiği durumlar olabiliyor.

Yorumlarda paylaşılan çözüm, config ayarını doğrudan eklemek.

Örnek:

model_context_window=800000
model_auto_compact_token_limit=700000

Bunlar config.toml dosyasına eklendiğinde, bağlamın yaklaşık 800K seviyesine kadar genişletilerek kullanılabildiğine dair deneyim paylaşımları vardı.

Birkaç nokta:
• GPT-5.4’ün en fazla yaklaşık 1M token bağlamını desteklediği biliniyor
• Ancak Codex ortamında varsayılan ayar bazen yaklaşık 258K ile sınırlı şekilde başlayabiliyor
config değerleri değiştirilirse daha büyük bağlam kullanılabiliyor

Ayrıca kullanıcılar, değeri üst sınıra fazla yaklaştırmanın performans düşüşüne yol açabileceğini, bu yüzden bir miktar pay bırakmanın iyi olacağını da belirtti.

Kişisel olarak ilginç bulduğum nokta

Yapay zeka araçları giderek daha karmaşık hale geldikçe,
“model spesifikasyonu = gerçek varsayılan ayar” eşitliğinin çoğu zaman geçerli olmadığı görülüyor.

Özellikle agentic coding / Codex gibi ortamlarda, performansı gerçekten tam almak için ayarlarla doğrudan oynamak gereken durumlar epey yaygın görünüyor.

Codex veya CLI’da long context’i (500K~1M) gerçekten kullanan var mı?
Gerçek geliştirme workflow’unda hissedilir bir fark yaratıp yaratmadığını da merak ediyorum.

7 yorum

 
gmlwo530 15 일 전

model_context_window=800000 kullanıldığında, context %50 tüketildiği noktadan itibaren soruya verilen yanıtın önceki soruya verilen yanıt olarak ilerlemeye başlaması gibi bir sorun var. Bilginize.

 
ujinyang 2026-03-10

Bu değerin üstüne çıkınca token fiyatının iki katına çıktığı söyleniyor; kontrol etmenizde fayda var.

 
apkas 2026-03-10

Denedim; gpt-5.4'ün kendisinden performans olarak fazlasıyla memnunum ama bazen hemen önceki mesaja değil daha önceki bir mesaja yanıt üretmesi gibi durumlar oluyor, yani çok stabil değil. Ayrıca long context kullanıldığında needle in the haystack task'te performansın %50'nin altına düştüğüne dair raporlar da var; o yüzden özellikle tavsiye etmek istemem. Ama needle in the haystack task'in kendisinin long-context performansını ölçmek için uygun bir benchmark olup olmadığından emin değilim. Her neyse, Codex'te compaction da uzun sürmüyor ve compact sonrasında bağlamı da pek unutmuyor, o yüzden normal şekilde kullanırken büyük bir rahatsızlık yaşamadım.

 
sea715 2026-03-10

Uygun bir harness varsa yine de fena görünmüyor. Çünkü compaction’ın kendisi daha az yapıldığından, ara kayıp sorununun kendisi de azalıyor...

 
mwma91 2026-03-13

1M bağlamın mümkün olduğunu bile bilmiyordum.

 
princox 2026-03-10

Bunun macOS için codex uygulamasında da aynen geçerli olduğunu doğruladım.

 
click 2026-03-10

Ah... meğer ben de context window'ların neden bu kadar küçük olduğunu düşünüyordum; ayrı bir ayar yapmak gerekiyormuş.