Claude Code için Haftalık Kullanım Sınırı
(news.ycombinator.com)- Anthropic’in Claude Code hizmeti için haftalık kullanım sınırı getirildi
- Hem ücretsiz hem de ücretli kullanıcılar için geçerli
- Kullanıcılar, bir hafta içinde azami sorgu sayısı veya işlenen token miktarı ile sınırlandırılacak
- Sınırın amacı, hizmetin kötüye kullanımını önlemek ve sistem kaynaklarının istikrarını sağlamak
- Geliştiriciler ve startup’ların API kullanırken kaynak yönetimine ek dikkat göstermesi gerekiyor
Claude Code için Haftalık Kullanım Sınırının Ana Hatları
Anthropic tarafından sunulan Claude Code hizmetine yeni bir haftalık kullanım sınırı politikası uygulanıyor
- Tüm kullanıcılara (ücretsiz ve ücretli) belirli bir sorgu veya token kullanım kotası tanımlanıyor
- Bu kota; hizmetin kötüye kullanımını önlemek, adil hizmet sunumu sağlamak ve altyapı kaynaklarının istikrarını korumak amacıyla getirildi
- Kota her hafta sıfırlanıyor; sınır aşılırsa o hafta ek kullanım yapılamıyor
Geliştiriciler ve Startup’lar İçin Başlıca Etkiler
- Ürün geliştirmede Claude Code kullanılırken kullanım planlaması ihtiyacı artıyor
- API entegrasyonlu hizmetlerde otomatik yönetim veya limit aşımı uyarısı mantığının uygulanması gerekebilir
- Büyük ölçekli kod üretimi, analiz ve tekrarlı çağrılar söz konusuysa kaynak kullanımını optimize etmenin önemi artıyor
Sonuç
- Claude Code’un haftalık kullanım sınırı politikası, sürdürülebilirlik ve hizmet kalitesini artırma amacı taşıyor
- Startup’lar ve BT profesyonellerinin mevcut sistem entegrasyonu ve hizmet tasarımı sırasında haftalık limitleri kontrol etmesi ve kullanım planı yapması gerekiyor
1 yorum
Hacker News görüşü
Muhtemelen haftalık sınıra ulaşmam ama sınırın 36 saatlik dilimler yerine haftalık olması tedirgin edici.
Sınıra takılırsam o haftanın geri kalanında kullanamam.
Alıştığım bir aracı bu kadar uzun süre kullanamamak rahatsız edici.
Birileri Claude’a fazla bağımlı olduğumu söyleyebilir ama aynı şey
ripgrepgibi diğer araçlar için de geçerli.Birkaç gün kullanamamak tamam ama bir hafta fazla uzun.
Ayrıca sadece “kullanıcıların %5’inden azı”nın etkileneceğini söylemeleri de dikkat çekici.
Genelde bu tür duyurular %1’den az kişinin etkilendiğini söyler ama Anthropic, 20 kişiden 1’inin sınıra takılacağını söylüyor.
ChatGPT Plus planındaki haftada 100
o3sınırı da tam olarak böyle hissettiriyor.Ne kadar kullandığını göremiyorsun ve önemli bir kaynak olduğu için içgüdüsel olarak sakınmaya başlıyorsun.
Sonunda planı gerektiği gibi kullanamayıp
o4-minigibi modellere dönüyorsun.Açıkçası günlük sınır daha iyi olurdu.
Ama belki de haftalık sınırın amacı, sınıra gelmeden insanları tasarruflu kullanmaya itmektir.
Geliştiricilerin tekel niteliğindeki çevrimiçi hizmetlere bağımlı hale gelmesi üzücü.
Eskiden her şeyi FOSS araçlarla yapabiliyorduk ve belli bir şirkete ya da hizmete aylık abonelik ödeyip ona bağımlı olmamız gerekmiyordu.
Şimdi bazıları Monsanto çiftçileri gibi, her ay para ödeyip araç kullanmadan çalışmayı unutuyor.
Ben
sonnetile Pro sınırına günde 3 kez sık sık ulaşıyorum.Claude Code ve Claude’u birlikte kullanınca 30 dakika içinde bitiyor.
24/7 multi-agent çalıştırmıyorum ya da bir sürü pencere açmıyorum ama yine de böyle oluyor.
Kendimi ilk %5’lik kullanıcı diliminde görmüyorum ama sınırın çarşamba günü bitmesi de bana şaşırtıcı gelmiyor.
Tam da Claude sohbetini daha fazla kullanmayı deneyecektim ama birkaç gün güvenemeyip kullanacaksam bunun bir anlamı yok.
Anthropic 20 kişiden 1’inin sınıra takılacağını söylüyorsa, hesap paylaşan ya da 24/7 otomasyon kullanan kullanıcı sayısı o kadar fazla varmış gibi gelmiyor.
Sınıra takılırsan haftanın tamamında kullanamıyor olmuyorsun, sadece kalan süre boyunca kullanamıyorsun.
Sen de muhtemelen pek ulaşmayacağını söylemişsin; eğer ulaşırsan büyük ihtimalle haftanın son 36 saati civarında olur.
API ücretini ödeyip kullanmanın yolu da var.
Uzun vadede iş nereye gider bilmiyorum ama LLM kullanırken her seferinde sınırlı bir kaynak kullanıyormuş gibi hissetmek hoş değil.
İnsanlar sınırsız planlara alışık.
Mevcut fiyatlandırma modeli zorakiymiş gibi hissettiriyor ve rahatsız edici.
Sınırsızlığın iyi çalıştığı şeyler, “ölçmeye değmeyecek kadar ucuz” olan tüm hizmetlerdir.
İnternet, SMS vb. bunu kaldırabiliyor çünkü doğrudan maliyetleri çok düşük.
Ama LLM’lerde her çalıştırmanın hâlâ oldukça yüksek bir doğrudan maliyeti var.
Kullanımın ayın tamamına dengeli yayılmasının beklendiği yapıya katılmıyorum.
Ben bazen bütün ay boyunca kullanmam, sonra birkaç gün boyunca 11 saatlik yoğun kullanım yaparım; o durumda çoğu zaman sınıra takılabilirim.
Bu yüzden API’yi doğrudan kullanmak daha iyi hissettiriyor, çünkü sınır cüzdanının derinliğine göre belirleniyor.
OpenRouter gibi şeyler kullanırsan abonelik modelinin sınırlamalarından da kaçınabiliyorsun.
Bugünlerde
Gemini 2.5 Pro, kod işi için Claude’dan daha uygun geliyor.Bunun dışında maliyet açısından rekabetçi başka hangi seçenekler var merak ediyorum.
https://docs.anthropic.com/en/api/rate-limits#rate-limits
Bence bu araçlarda “aylık 20 dolar”, “aylık 200 dolar” gibi belli bir miktara erişim verip sınır hesabını anlaşılmaz kılan model tamamen kalkmalı.
Tamamen kullanım bazlı bir modele geçmeleri gerçekten kullanıcı dostu olur.
Deneme amaçlı ilk 20 kullanım ücretsiz bir free tier olabilir ya da belli bir kullanım miktarına kadar kademeli fiyatlandırma uygulanıp en uç kullanıcılar gerçek maliyete göre ücretlendirilebilir.
Böylece düşük kullanımlı kullanıcılar daha ucuza kullanır ve pazar payı da korunur.
OpenRouter’dan daha iyi fiyat verirlerse insanlar üçüncü taraf araçlara gitmek yerine bu ekosistemde kalır.
Araç gerçekten iyiyse kullanım bazlı olsa bile kullanıcı kalır.
Sorun, sağlayıcıların pazar payı için kullanıcıları sübvanse ederken kötüye kullanım ve aşırı kullanımı da engellemeye çalışması.
%100 çözüm, giriş ücreti olmadan tamamen kullanım bazlı bir yapı.
Ama böyle olursa abone olup az kullanan insanlar dezavantajlı duruma düşebilir, o yüzden satış ekibi buna karşı çıkar gibi geliyor.
Bir de bu durumda insanlar fiyat karşılaştırıp kolayca platform değiştirir; bir-iki aylık bağlılık hissi de ortadan kalkar.
Uzun vadede yerel LLM’lerin 2025’in en iyi bulut LLM’lerinden daha iyi hale geleceğini düşünüyorum; günlük işlerin %99’u sınırsız yapılacak,
gerçekten karmaşık problemler içinse yalnızca buluta bağlanılacak.
LLM’ler daha verimli hale gelecek, GPU, bellek ve depolama maliyetleri de düşmeye ve erişilebilir olmaya devam edecek.
Şu anda sadece geçiş dönemindeyiz, bu yüzden biraz rahatsız edici görünüyor.
Kaynak sınırlı olsa bile ne kadar kullandığımı görebilsem sorun etmezdim.
İlerleme durumunu görememek rahatsız ediyor.
Max 5x ile Max 20x arasındaki fark kafamı karıştırıyor.
Bana gelen e-postada “çoğu Max 20x kullanıcısı Sonnet 4’ü haftada 240-480 saat, Opus 4’ü ise 24-40 saat kullanabilir” yazıyor.
Resmî duyuruda ise “çoğu Max 5x kullanıcısı Sonnet 4’ü haftada 140-280 saat, Opus 4’ü ise 15-35 saat kullanabilir” deniyor.
Bari fiyatla orantılı olarak sınırlar da 2 kattan fazla olsa iyiydi; Opus 4 tarafında fark sadece 5-9 saat.
En azından iki katı olması gerekmez mi? Sonuçta iki kat para ödüyorsun.
Eğer gerçekten durum buysa Max 20x’ten hemen alt plana düşerim.
Avustralya’da ayda 350 dolar ödüyorum.
Ben sürekli Opus sınırına takıldığım için 20x’e yükseltmiştim ama şimdi 20x ile 5x arasında neredeyse fark olmadığını görüyorum.
Bu yüzden MAX kullanmayı bıraktım, Pro’ya düştüm ve
o3ile diğer modelleri API üzerinden kullanıyorum.Başta o kadar çok zamana ihtiyacım olmuyor; proje başına yaklaşık 10 dolara
o3, Gemini ve Opus’un hepsini kullanabiliyorum.Birkaç günde bir yeni model çıkıyor, tek bir sağlayıcıya bağlı kalmak istemiyorum.
Aslında kullanım 2 katına çıkmıyor, sadece trafik yoğun olduğunda önceliğin artıyor.
Eğer pazarlama materyalleri gerçeği yansıtmıyorsa, keşke biri bunu gerçek verilerle inceleyip toplu dava açsa.
Ayda 200 doların bile yetmediğini anlıyorum.
O zaman hiç sınır kaygısı yaşamadan kullanabilecek kadar yüksek bir plan da sunmaları gerekir.
“Zaman doldu!” tarzı bir mesaj kadar akışı bozan bir şey yok.
En azından kredi sistemi olsa ne kadar harcadığımı görüp ek ödeme yapabilirdim.
“GPU soğuyana kadar bekle” mantığı üretkenliğe yardımcı olmuyor.
Birden fazla ajan çalıştırıyorsan “35 saat” kesinlikle yetersiz.
Aracın kendisinin zaten buna uygun tasarlanmış olması da garip.
Herkese yetecek ve yine de kâr ettirecek bir plana geçerlerse, bu kez de herkes rakiplere kaçabilir.
Kullanıcıları araca bağımlı hale getirip fiyatı yavaş yavaş artırmak stratejik olarak daha mantıklı olabilir.
“Birden fazla ajan çalıştırmak” bence bireysel planlarda genel bir kullanım senaryosu değil.
Bu gibi durumlarda her zaman API kullanım ücreti ödemek gerekirdi.
Sabit fiyatlı planda buna izin verilmesi hizmetin cömertliğiydi; zaten en başından beri “daha yüksek limitler” diye pazarlanıyordu, “sınırsız” diye değil.
API’de limitler çok daha esnek ve fiilen neredeyse sınırsız.
Claude, Aws ve gcp üzerinden de kullanılabiliyor; limitler, krediler ve fiyatlandırma da bunlarda farklı.
Politikaları “iyi kullanıcıya” göre optimize etmek gerekir, “kötü kullanıcıya” göre değil.
Direkt API kullan.
Genel açıdan bakınca bunun, bazı kullanıcılar 24/7 çok sayıda ajan çalıştırırken sistemi koruyup
daha fazla kullanıcının hizmeti istikrarlı biçimde kullanabilmesini sağlayan olumlu bir değişiklik olduğunu düşünüyorum.
Yine de “ne kadar kullanım hakkı kaldığını” göstermemeleri sinir bozucu.
Yüzde kaçta olduğunu tam bilmesem de en azından ara ara bildirim gelseydi (örneğin yarısını geçtiğinde) plan yapmak daha kolay olurdu.
Bunu sunmamaları, “bunu ölçmemizi istemiyorlar galiba” hissi yaratıyor.
Ben milimetrik takip istemiyorum, sadece kabaca nerede olduğumu bilmek istiyorum.
Anthropic’in Reddit hesabına göre
bir kullanıcı 200 dolarlık planla on binlerce dolarlık LLM kullanımı yapmış.
Şirket, ileri seviye kullanıcılar için ayrı bir çözüm geliştiriyormuş
ama yeni limitlerin amacı artık daha adil bir deneyim sağlamak ve hesap paylaşımıyla yeniden satışı önlemek.
Yani “iyi hizmete” sahip olamama nedenimiz bu.
Eskiden çalıştığım startup da bir zamanlar sınırsız seçenek sunmuştu.
İlk başta kimsenin o kadar fazla kullanamayacağını düşünüyorduk ama gerçekte hizmet sınırlarını yaratıcı biçimde zorlayan çok fazla kullanıcı çıktı.
Hesaplar 24/7 çalışan servislerde kullanılıyor ve istek kotasının %95’ine kadar sürekli istek gönderiyordu.
Farklı IP’ler kullanıyorlardı ve insan kullanımına benzemeyen kalıplar bile vardı.
Başta bunu aykırı değer olarak görüp tolere ettik ama bu tür hesaplar geometrik şekilde artınca
aslında birden fazla şirketin çok sayıda hesap açıp load balancing yaptığını gördük.
Kullanıcı başına ortalama kâr/zarar grafiğine baktığında, bu hesapların devasa zarar yazdırıp kaynağı sonuna kadar tükettiği görülüyordu; sonunda politika değişti.
Bu tür “müşterileri” kaybediyorsun ama çoğu normal kullanıcı etkilenmiyor.
Hatta genel hizmet kalitesi artıyor.
Bu, yüksek hacimli her startup’ın yaşadığı bir deneyim.
Şirket gerçekten zararına hizmet satıyor olabilir.
Mevcut limitlerle bile bu tür suistimaller doğrudan engellenemiyor mu? Pek anlayamıyorum.
Dün Twitter’da biri bununla övünüyordu.
200 dolarlık hesapla 13.200 dolarlık kullanım yaptığını, yalnızca Opus kullanan 4-5 ajanı 24/7 birbirini özyinelemeli şekilde çağıracak biçimde çalıştırdığını söylüyordu.
Bu kesinlikle suistimal ve hedef alınması gerekiyor.
Ama bir inference sağlayıcısının bunu tam olarak nasıl engellemesi gerektiğini de bilmiyorum.
Cursor, Anthropic/OpenAI’ye göre daha yüksek premium koyduğu için işi daha da zorlaştırmış durumda.
Anthropic de benzer durumda ama burada premium bir seçenek yok.
20 dolara aylık gerçek maliyetin 500 dolara kadarına izin versen bile bu fiilen %95 indirim demek ve bu yapı asla sürdürülemez.
Bu şekilde sübvansiyon verildikçe toplulukta “hak iddia etme” havası büyüyor.
İnsanlar alıştıkları bir şeyi kaybediyormuş gibi hissediyor ama aslında sadece CAPEX/OPEX bile taşınamaz durumda; Ar-Ge maliyetleri de düşünülünce modeli ayakta tutmak daha da zor.
Bu yüzden fiilen yapılabilen tek şey, fiyat yapısını durmadan değiştirmek ve kullanıcıların bir sonraki daha cömert sübvansiyon veren şirkete gitmesi.
Keşke bu tür politikalar en baştan bir deneme olarak sunulup ne kadar sübvansiyon olduğu açıkça anlatılsaydı.
İnsanlar modeli dener, bir kısmı kalırdı; bir kısmı ayrılsa bile tepki daha az olurdu.
Gerçekten CAPEX/işletme gideri/geliştirme maliyeti yapısını şeffaf biçimde paylaşsalar
insanlar da bunun “yorulmak bilmeyen kıdemli bir mühendis tutmakla” aynı seviyede bir maliyet olduğunu anlayabilirdi.
Bu e-postada aylık olarak “hangi aylarda sınıra ulaştığınız” bilgisi olsaydı (Aug 2024, Jan 2025, May 2025 gibi) çok daha faydalı olurdu.
İlk %5’te miyim hiç bilmiyorum.
Aslında %1’lik bir limit anlaşılabilir ama SaaS dünyasında %5 gerçek kullanıcıların büyük kısmı demek.
Bu tür hizmetlerin ölçümlü fiyatlandırmaya ihtiyacı var.
Tüm AI şirketleri aynı sorunla karşılaşıyor.
Sabit ücretli abonelik modeli, kullanıcıların maliyeti düşünmemesi üzerine kurulu.
Ama çok küçük bir power user grubu abonelik limitini sonuna kadar zorluyor.
Terragon gibi hizmetler de bu kullanımı optimize etmek için ayrı olarak geliştiriliyor.
Bunun yüzünden şirketler sınırları sürekli düşürüyor, kullanıcılar da maliyeti daha çok düşünmeye başlıyor.
Cursor da limitleri birkaç kez değiştirdi, şimdi Anthropic de aynı yola giriyor.
Sonuçta yaptıkları şey, en üstteki %10’luk aşırı kullanıcı kitlesini artık sübvanse etmemek.
Keşke web arayüzünde doğrudan kullanılabilen ölçümlü bir plan olsa.
API zaten var; token üretip Claude Code’u ayrı bir plan olmadan doğrudan kullanabiliyorsun.
Bu bana 1990’lardaki shared hosting dönemini hatırlatıyor.
Ölçümlü bir web planı sunarlarsa, inference desteğinin gerçekte ne kadar pahalı olduğunu da açığa çıkarmaları gerekir; bu da zor bir durum.
Yüksek üretkenlik sağlayan gerçek kullanım düzeylerinde AI çalıştırmak bugün hâlâ çok pahalı.
“Claude’u 24/7 arka planda çalıştıran ileri seviye kullanım biçimleri” yüzünden iyi bir hizmete sahip olamıyoruz.
AI servisleri reklam yaparken “AI işleri kendi kendine yürütür, geliştirici kahve içerken ya da uyurken bile iş yapar” diye öne çıkarıyor; gerçekten de bunu makul biçimde kullanan geliştiriciler oldu.
Şimdi dönüp bu kullanıcıları sorunlu ilan etmek tuhaf.
O kısmı görünce güldüm.
Sanki “iyi niyetli bir dünya yıkıcısı” evrensel ısı ölümünü biraz daha hızlandırmaya çalışıyor gibi.
Bunun olacağı en baştan belliydi bence.
İlk fiyatlandırma yapılırken bu yeterince düşünülmüştür.
Sadece lansmanı geciktirmek istemedikleri için ertelemişler gibi geliyor; şimdi de gerçeğe uygun şekilde uygulamaya alıyorlar.
Fiyatlandırmayı nasıl yaparsan yap, kullanıcılar planlarını %100 kullanmak ister.
Ben Max abonesiyim ama sık sık sınıra takılıyorum.
Parasını ödediğim kadar kullanmaya çalışırken limite takılmam başlı başına garip.
Bu zaten fiyat deneyi modelinin ta kendisi.
Kısıtlar gevşek olursa bir noktada aşırı kullanım yapanlar çıkar ve şirket bunu sürdürülebilir değilken sanki sürdürülebilirmiş gibi sunup sonra da sonradan verilen bonusu geri alır.
Belki saçma bir öneri ama adaptif limit nasıl olur diye düşündüm.
Seçenek 1: Başta kısa bir süre boyunca patlama şeklinde yoğun kullanıma izin verip sonra giderek yavaşlatmak, soğuma süresinden sonra yeniden patlama hakkı vermek.
Böylece kullanıcı kısa süreli verim zirvesi yaşayabilir, sunucular da dinlenir.
Seçenek 2: Mobil veri gibi, belli bir istek miktarına kadar tam hız, sonra hız düşürme ve daha fazlası için ek ücret.
Bu aynı zamanda ek gelir de yaratır.
Seçenek 3: Altyapı ve ağ tarafında adaptif kaynak tahsisi.
GPU gerektirmeyen işleri daha düşük önceliğe almak, ağ isteklerini yavaşlatmak ya da
k8sgibi ortamlarda kullanıma göre işleri farklı sunuculara dağıtmak.Ve limit tartışmasının ötesinde, gerçekten maliyeti yükselten isteklerin neler olduğunu izleyip verimsiz kod yollarını veya altyapı düzenini iyileştirirsen alan açılabilir.
Küçük kod optimizasyonlarının bile sistemde büyük bir rahatlama sağlayabileceğini vurguluyorum.