7 puan yazan GN⁺ 2026-03-29 | 1 yorum | WhatsApp'ta paylaş
  • Bulut zamanlama özelliği ile tekrarlayan işler otomatikleştirilebilir ve bilgisayar kapalı olsa bile arka planda çalıştırılabilir
  • Zamanlama yöntemleri Cloud, Desktop ve /loop olmak üzere üçe ayrılıyor; çalışma konumu ve periyot ayar birimleri farklılık gösteriyor
  • Web, masaüstü uygulaması ve CLI üzerinden görev adı·depo·ortam·periyot·bağlayıcılar belirlenerek zamanlama oluşturulabiliyor
  • Otomatik saat dilimi dönüşümü, özel periyot ayarı ve MCP bağlayıcı entegrasyonu ile Slack·Linear·Google Drive ile entegrasyon sağlanabiliyor
  • Geliştiriciler bununla kod incelemesi, CI analizi, doküman senkronizasyonu gibi sürekli otomasyon iş akışları kurabiliyor

Web’de zamanlanmış görev çalıştırma

  • Bulut tabanlı zamanlanmış görevler ile tekrarlayan işler otomatikleştirilebilir
    • Anthropic’in yönettiği altyapıda çalışır; bu nedenle kullanıcının bilgisayarı kapalı olsa bile çalışmaya devam eder
    • Örnekler arasında her sabah Pull Request incelemesi, gece CI hata analizi, doküman senkronizasyonu ve haftalık bağımlılık denetimi yer alır
    • Claude Code on the web’in tüm kullanıcılarına sunulur (Pro, Max, Team, Enterprise)

Zamanlama seçeneklerinin karşılaştırması

  • Claude Code, Cloud, Desktop ve /loop olmak üzere üç zamanlanmış çalıştırma yöntemini destekler
    • Cloud, Anthropic bulutunda çalışır; bilgisayar kapalı olsa bile görevler çalışmaya devam eder
    • Desktop ve /loop yerel makinede çalışır; oturumun korunması ve dosya erişim izinleri açısından farklılık gösterir
  • Cloud görevlerinde en az 1 saatlik aralık, Desktop ve /loop için ise 1 dakikalık aralıklar ayarlanabilir
  • Cloud otomatik olarak çalışır ve izin istemleri olmadan işler; Desktop’ta ise görev bazında izin ayarı yapılabilir

Zamanlanmış görev oluşturma süreci

  • Zamanlanmış görevler web, masaüstü uygulaması ve CLI üzerinden oluşturulabilir
    • Web: claude.ai/code/scheduled adresinde New scheduled task seçeneğine tıklayın
    • Masaüstü: Schedule sayfasında New remote task seçin
    • CLI: /schedule komutuyla etkileşimli kurulum yapın veya /schedule daily PR review at 9am gibi doğrudan belirtin
  • Oluşturma adımları
    • Görev adı ve istem yazımı: Özerk çalışacağı için açık ve tamamlanmış bir istem gerekir
    • Depo seçimi: GitHub deposu eklenir, varsayılan branch’ten klonlanır ve değişiklikler claude/ önekli branch’e push edilir
    • Ortam seçimi: Ağ erişimi, ortam değişkenleri ve kurulum script’lerini içeren bulut ortamı belirlenir
    • Periyot seçimi: Varsayılan olarak yerel saate göre her gün sabah 9’da çalışır; CLI’de /schedule update ile ayrıntılı ayar yapılabilir
    • Bağlayıcı incelemesi: Slack, Linear, Google Drive gibi MCP bağlayıcılarının dahil edilip edilmeyeceği seçilir
    • Oluşturmanın tamamlanması: Oluşturulduktan sonra listede görünür ve bir sonraki zamanlamada otomatik çalışır veya Run now ile hemen başlatılabilir

Çalıştırma periyodu seçenekleri

  • Zamanlama periyotları otomatik saat dilimi dönüşümünü destekler ve belirtilen yerel saatte çalışır
  • Çalıştırma birkaç dakika gecikebilir, ancak her görev için sabit bir ofset korunur
  • Hazır periyotlar
    • Hourly: Her saat çalışır
    • Daily: Günde bir kez, varsayılan 9:00 AM
    • Weekdays: Yalnızca hafta içi çalışır
    • Weekly: Haftada bir kez belirlenen gün ve saatte çalışır
  • Her 2 saatte bir, her ayın 1’inde gibi özel periyotlar CLI’deki /schedule update ile ayarlanabilir

Depo ve branch izinleri

  • Her çalıştırmada depo yeniden klonlanır ve varsayılan branch’ten başlanır
  • Varsayılan olarak yalnızca claude/ önekli branch’lere push yapılabilir
  • Korumalı branch’lerde değişiklik gerekirse Allow unrestricted branch pushes seçeneğiyle kısıtlama kaldırılabilir

Bağlayıcılar

  • Zamanlanmış görevler MCP bağlayıcıları üzerinden harici servislerle etkileşim kurabilir
    • Örnek: Slack kanalındaki destek taleplerini okuyup Linear’da issue oluşturma
  • Varsayılan olarak bağlı tüm bağlayıcılar dahil edilir; gerekmeyenler kaldırılabilir
  • Bağlayıcılar görev oluşturma formunda, Settings > Connectors bölümünde ve CLI’deki /schedule update ile yönetilebilir

Ortam yapılandırması

  • Her görev bulut ortamında çalışır; ağ erişimi, ortam değişkenleri ve kurulum script’leri kontrol edilebilir
  • API erişimi, bağımlılık kurulumu ve ağ kısıtları için önceden yapılandırma gerekir
  • Varsayılan ortamın (Default) dışında özel ortamlar da oluşturulabilir

Zamanlanmış görevlerin yönetimi

  • Scheduled listesinden göreve tıklandığında ayrıntı sayfası açılır
    • Depo, bağlayıcılar, istem, periyot ve geçmiş çalıştırmalar görüntülenebilir
  • Çalıştırma geçmişini görüntüleme ve etkileşim

    • Her çalıştırma (run) tıklandığında tam oturum olarak açılır
    • Claude’un yaptığı işlemler, değişiklikler incelenebilir, Pull Request oluşturulabilir ve konuşmaya devam edilebilir
    • Oturum başlığının yanındaki açılır menü ile yeniden adlandırma, arşivleme veya silme yapılabilir
  • Görevi düzenleme ve kontrol etme

    • Run now ile hemen çalıştırma
    • Repeats anahtarı ile duraklatma veya yeniden başlatma
    • Düzenleme simgesiyle ad, istem, periyot, depo, ortam ve bağlayıcıları değiştirme
    • Silme simgesiyle görevi kaldırma (mevcut oturumlar korunur)
    • CLI’de de /schedule list, /schedule update, /schedule run komutlarıyla yönetilebilir

İlgili kaynaklar

1 yorum

 
GN⁺ 2026-03-29
Hacker News yorumları
  • Resmi sitede özelliğin kullanıma sunulduğu duyurulurken, kullanım kısıtlarının bir ekip üyesinin Twitter hesabı üzerinden duyurulması ilginç
    Daha önce kullanım miktarının 2 katına çıkarıldığı açıklandığında bunun gibi bir "rug pull" geleceğini öngörenler de olmuştu (ilgili tweet)

    • Bence bu yaklaşım mantıklı. Herkes için fiyat artırmak yerine, belirli davranışları teşvik eden bir yöntem. Bir nevi zaman bazlı yol ücretlendirmesi gibi
    • Anthropic'in fiyat politikası yüzünden son zamanlarda GLM-5'i daha sık kullanıyorum. Opus seviyesinde değil ama gayet iş görür. Şans eseri Alibaba Coding Model'in ucuz planını yakalamıştım, ama o plan artık yok
    • Bulut sağlayıcı kullanıyorsan bu tür kısıtları kabullenmek gerekir. İstikrar istiyorsan Mac Studio ya da Strix Halo gibi yerel donanım alıp kendi çıkarım ortamını kurmak daha iyi
    • İkinci tweet'in yorumlarında Anthropic'in bir Claude Code mühendisi, bunun doğru olmadığını söylüyor. Yanlış bilginin yayılmasına bir örnek
  • Giderek yapay zeka tabanlı yazılım yinelemeli geliştirmenin varsayılan olduğu bir dünyaya yaklaşıyoruz
    Güvenilir kullanıcılar geri bildirim veriyor, yapay zeka bunları ticket'lara dönüştürüyor, başka bir yapay zeka PR hazırlıyor ve incelemeden sonra dağıtıma gidiyor
    Sanki artık neredeyse tamamlanmış durumda

    • Eskiden ben de bu yöne inanıyordum ama artık şüpheliyim. Her aşamadaki hata oranı fazla yüksek ve bunu azaltmaya çalışan sistemler bile yeni hatalar üretiyor
      Yapay zeka bakımı yapılabilir kod yazamıyor, hatta hızı düşürüyor. Sonuçta yapay zeka destekli kodlama çok daha verimli
      FAANG'in satır başına 300 dolar harcamasının nedeni hız değil, doğruluk ve yapı
    • Bu yönelim hoşuma gidiyor ama çıkarım maliyeti çok yüksek. Eğitim maliyeti kabul edilebilir ama çıkarım maliyeti düşerse model yayımlama teşviki ortadan kalkar
      Taalas modeli doğrudan donanıma gömebilirse bu büyük bir ilerleme olurdu, ama sonuçta sorun sadece donanım darboğazına taşınmış olur
      Belki bir gün Game Boy kartuşu gibi model takıp kullanacağımız bir dönem gelir
    • Kullanıcı açısından bakınca, insan yapımı yazılımlarla aradaki mesafe zaten o kadar açıldı ki kimin yaptığı artık önemsenmiyor
      Hacker News yazılarını okumak bile zaten çok katmanlı otomatik sistemlerden geçmiş bir sonuç
    • Aradan onlarca yıl geçse de kullanıcıların düzgün ticket yazması hâlâ zor
    • Böyle bir geri bildirim döngüsü sonuçta garbage-in → garbage-out etkisini üstel biçimde büyütüyor. "Robot kendi kendini düzeltiyor" hayali gibi
  • Daha önce ChatGPT benzeri bir şeyde "her gün sabah 8'de, yalnızca işe gidiş trafiğinde yoğunluk varsa haber ver" diye ayarlamıştım, ama yoğunluk olmasa da her gün bildirim geldi

    • Çoğu ajan sistemi bunu sadece cron ile çözmeye çalışıyor ama prospective memory kavramını görmezden geliyor
      İlgili yazı için bkz. The Missing Memory Type
    • Sonuçta prompt'u daha açık yazmak gerekiyor. Programcı şakasındaki gibi, koşulu yanlış yazarsan saçma sonuç çıkıyor
    • Ajanlar araçları bir döngü içinde çalıştırıyor. Tekrarlanabilir sonuç istiyorsan "yoğunluk" tanımını araç üzerinden netleştirmen gerekir
      Ben hava durumu, tren tarifeleri, çalışma takvimi ve Telegram bildirim aracını bağlayarak bu sistemi çalıştırıyorum
      Aslında cron ile de rahatça yapılabilir
    • Kendi değerlendirme ölçütünü pi-mono gibi bir şeyle tanımlayabilirsin (GitHub bağlantısı)
    • Ben de aynı sorunu yaşadım. Sistem sadece true positive bildirmiyor, false positive olanları da bildiriyor. Fazlasıyla aptalca
  • Birçok kişi ve şirket web otomasyonu istiyordu ama site sahipleri bunu engelliyordu
    Şimdi adına AI eklenince sanki izin verilmeye başlanmış gibi

  • Kısa süre önce GitHub Copilot Pro'dan Claude Code Max (20x)'e geçtim
    Claude birçok açıdan güçlü ama uzak/bulut ajanları tarafı zayıf
    Elixir projesinde "Claude on the web" kurmaya çalışırken ağ güvenlik duvarı sorunu yüzünden başarısız oldum
    Loglar da sadece son kısmı gösterdiği için debug etmek zor
    Buna karşılık Copilot'un "Coding Agents" yapısı GitHub Actions altyapısını kullandığından çok daha stabil
    "Schedule task on the web" de aynı yapıyı kullanıyorsa benzer sorunlar çıkmasından endişe ediyorum

  • İnsanlar sonunda AI yerine basit kural tabanlı otomasyonla yapılabilecek işleri AI ile çözmeye çalışacak gibi görünüyor
    "X sorununu AI ile çözelim" sözü şirketlerde de sık geçiyor ama çoğu zaman aslında buna gerek yok

    • Sektör genelinde "cron ile iş çalıştırma" gibi temel otomasyonların bilerek engellendiği hissi var
      AI, "then" kısmında yardımcı olabilir ama sadece "if" koşulunu iyi ele almak bile yeterince faydalı
    • Bizim şirkette de benzer durum var. Bir birleşme ve satın alma sürecindeyiz, yatırımcılar da "AI'ı daha fazla kullanmalıyız, yoksa rekabette geri kalırız" diye baskı yapıyor
      AI benimsemenin amaç hâline gelmesi asıl sorun
    • Böyle sistemler daha çok "bugün iyi bir fırsat var mı kontrol et" gibi gevşek ve sezgisel işler için uygun
    • Kullanıcı niyetini net ifade edebiliyorsa sorun yok.
      Ben insanların ajan becerilerini anlamasına yardımcı olan bir yazı yazdım
      Building Agent Evals
      Ayrıca deterministik olmama sorununu ele alan bir yazım da var
      Error Compounding
    • Genel kullanıcı için zor olan kısım "then" bölümünü yazmak. Sonuçta niyeti doğal dille anlatabilen bir yapay zeka, bu eşiği düşürüyor
  • Claude Code Max 20x planında olmama rağmen bulut zamanlanmış görevler 3 taneyle sınırlı
    Yine de özelliğin kendisi harika. Yerelde izin sorunları uğraştırıyordu, burada ise bulut sandbox içinde çalıştırılabiliyor
    Kurduğum üç görev şunlar

    1. Her pazartesi pnpm audit ve pnpm outdated çalıştırıp güvenlik/güncelleme raporu hazırlamak
    2. Hafta içi her gün Sentry logları ve metriklerini analiz edip yeni sorun raporu oluşturmak
    3. Bir önceki günün develop branch commit'lerini inceleyip hata, güvenlik ve eksik dokümantasyonları kontrol etmek
      Bunu günlük/haftalık otomatik çalıştırmak faydalı görünüyor. Claude Code'un Sentry bağlayıcısı oldukça isabetliydi
      İleride bunu otomatik issue oluşturma veya PR gönderme seviyesine çıkarmayı deneyeceğim
    • Aslında tek satırlık cron yeter
      0 7 * * 1-5 ANTHROPIC_API_KEY=sk-... /path/to/claude-cron.sh /path/to/repo >> ~/claude-reports.md 2>&1
  • Claude'un hızı etkileyici.
    Grok bu özelliği zaten sunuyordu, şimdi diğerleri yetişmeye başladı
    Bu tür özellikler kullanıcı kilitleme etkisi yaratıyor. Grok, ücretsiz olarak eşzamanlı 10 görev sunuyor
    Ben bunu her sabah çeşitli kaynaklardan haber çekmek için kullanıyorum

  • Bu özellik biraz kısıtlı. Ekran görüntüsü alamıyor veya rastgele bir domaine curl isteği gönderemiyor
    Bu yüzden Cronbox adında bir bulut servisi yaptım
    Bunu "Show HN: Cronbox – Schedule AI Agents" diye tanıtmıştım,
    örnek görev olarak da Pelican Rides a Bicycle var

  • Sanırım temel bir şeyi kaçırıyorum. Bunun bir git deposunda prompt çalıştırdığını anlıyorum, ama sonuç nereye gidiyor?
    Commit yetkisi verilip doğrudan mı uygulanıyor, yoksa MCP araçları üzerinden mi çalışıyor merak ediyorum

    • Yapı, MCP bundling üzerinden sunuluyor. Oldukça hoş bir yaklaşım
    • Biz haftalık otomatik güvenlik denetimi çalıştırıp sonuçları Slack'e gönderiyorduk