1 puan yazan GN⁺ 3 시간 전 | 1 yorum | WhatsApp'ta paylaş
  • Ajanik kodlama yaparken yalnızca projeyi değil, kullanıcının uzmanlığını da geliştirmeye yardımcı olan Claude Code ve Codex için bir eklenti
  • Yeni dosya oluşturma, şema değiştirme, refaktör etme gibi mimari işleri tamamladıktan sonra Claude, 10–15 dakikalık seçmeli bir öğrenme alıştırması önerir
  • Alıştırmalar, tahmin, üretim, hatırlama alıştırması, aralıklı tekrar gibi öğrenme bilimi tekniklerini kullanır ve kullanıcının gerçek proje çalışmalarından yarı çözülmüş örnekler oluşturur
  • Yapay zeka kodlama araçlarının ürettiği sorunlar olan oluşturulan kodu sorgulamadan kabul etme, akıcılık yanılsaması, uzun süre aralıksız yüklenme, üstbiliş eksikliği ve öz-testin azalmasını azaltacak şekilde tasarlanmıştır
  • Claude, “Bu konu hakkında kısa bir öğrenme alıştırması yapmak ister misiniz? Yaklaşık 10–15 dakika sürer” gibi sorular sorar ve kullanıcı kabul ederse etkileşimli bir alıştırma yürütür
  • Temel tasarım ilkesi, Claude'un kendi sorularını kendi yanıtlamaması ve kullanıcı girdisini beklemesi; böylece hızlı ajanık kodlamadan farklı bir yansıma ve keşif modu oluşturmasıdır
  • Alıştırma türleri arasında tahmin→gözlem→değerlendirme, üretim→karşılaştırma, yürütme yolu izleme, hata ayıklama tahmini, yeni bir geliştiriciye açıklama yapma ve önceki oturum içeriğini hatırlama kontrolü bulunur
  • Şu anda önerilen bastırma koşulları; bir oturumda alıştırma zaten reddedildiyse veya aynı oturumda alıştırma 2 kez tamamlandıysa öğrenme fırsatının yeniden önerilmemesidir
  • Codex'te codex plugin marketplace add https://github.com/DrCatHicks/learning-opportunities.git ile pazaryerine eklenebilir; learning-opportunities, learning-opportunities-auto, orient içerir
  • Claude Code'da Claude Code plugin marketplace üzerinden eklendikten sonra /plugin install learning-opportunities@learning-opportunities kurulup yeniden başlatılarak etkinleştirilir
  • learning-opportunities-auto, Linux ve macOS'ta git commit sonrasında Claude'un alıştırma önermeyi değerlendirmesini sağlayan seçmeli bir kancadır; Windows'ta da ek kurulum ile kullanılabilir
  • orient eklentisi, yeni bir depoyu öğrenirken orientation.md oluşturur ve programı anlama ile kod tabanı keşfi araştırmalarına dayalı önerilen dersler sunar
  • Learning-Goal ile birlikte kullanmak için uygundur; ilgili eklentinin, MCII tekniğiyle yarı yapılandırılmış etkileşimli öğrenme hedefi belirlemeye yardımcı olduğu belirtilir
  • Ekip denemelerinde MEASURE-THIS.md birlikte kullanılabilir; doğrulanmış anket maddeleri, sonuç yorumlama kılavuzu, liderlikle paylaşım için “team boast” şablonu ve Claude.md için istatistiksel titizlik hatırlatmaları sunar
  • Creative Commons Attribution 4.0 International License ile lisanslanmıştır

1 yorum

 
GN⁺ 3 시간 전
Hacker News yorumları
  • Skills hakkında çok bilgim yok ama depoya bakınca, commit sonrası çalışan bash scriptindeki kısa bir prompta kıyasla süslü kod ve metin biraz fazla görünüyor
    Asıl mesele, kullanıcının az önce commit attığını anlayıp yeni dosya, şema değişikliği, mimari karar, refactor veya alışılmadık bir pattern varsa 10-15 dakikalık bir öğrenme alıştırması önermesi gibi duruyor

    • Skills; tekrarlanabilir iş akışlarını standart biçimde tanımlamak, kademeli açığa çıkarma ile bağlamı korumak, promptları paylaşmak ve seyrek kullanılan ama deterministik olmayan kısımları script gibi deterministik prosedürlere bağlamak için faydalı
      Kavramsal olarak bunu başkasının yaptığı sihri alıp kullanmak değil, adım adım büyüyen bir yazılım gibi görmek gerekir https://alexhans.github.io/posts/series/evals/building-agent...
      Coding harness tarafında çoğu zaman SkillBuilder agent skill bulunduğu için oluşturması kolay ve zaman içinde geliştirilebilir
      Kendi sıkıntılarınıza göre bizzat yapmanızı öneririm; değerlendirmelerle otomasyon doğruluğunu yeterince yükselten basit bir örnek de var https://alexhans.github.io/posts/series/evals/sketch-to-text...
    • Bu araçların çoğu sonuçta prompt içine sokulan bir başka Markdown dosyası ve büyük dil modellerinin çalışma biçimi düşünüldüğünde bu normal bir yapı
      O yüzden Claude ile kendinize benzer araçlar yapmanızı tavsiye ederim. Başta token harcar ama sonrasında anlamlı işler için gereken token ve çağrı sayısını kendi araçlarınızla ciddi biçimde azaltabilirsiniz
      Tool call'ları daha güvenli biçimde kilitleyebilir, agent işlerini yeniden denenebilir hale getirebilir ve hata modlarını azaltabilirsiniz. Dizüstü bilgisayar çalışırken kapanırsa agent'ın nereye kadar geldiğini yeniden canlandırmak için tonla token yakma durumunu da önlersiniz
  • Bazı Skills'lerin tam prosedürü ya da yapılacak işleri yazmadığını, sadece belirli görevlerde modelin daha iyi metin üretmesi için motivasyon konuşması gibi priming yaptığını görmek şaşırtıcıydı
    Claude'un kullandığı frontend design skill de iyi font seçmesini ve tasarımı tutarlı tutmasını neredeyse rica ediyor; hangi fontun kullanılacağı ya da renk paletiyle yerleşimin nasıl kurulacağı konusunda somutluk yok
    https://github.com/anthropics/claude-code/blob/main/plugins/...

  • Kod yazan agent'larda yinelenen bir borç oluşabiliyor. Coding assistant'ın çıktısını doğrulamadan kabul ederseniz kendi kod tabanınıza dair bilginizi kaybediyorsunuz
    CLAUDE.md gibi bağlam dosyaları, migration protokolleri ve kimlik doğrulama protokolleri ancak onları doğru güncelleyecek kadar iyi anladığınızda işe yarıyor
    Agent'ın ürettiği kodu iki saat boyunca körlemesine kabul ettikten sonra kod tabanının nasıl çalıştığını unutup yeni bir bağlam dosyası oluşturamadığım oldu. Bu tür bir beceri borcu diff'te görünmüyor; agent'ı yönlendirmeniz gereken anda ortaya çıkıyor

    • Yinelenenden çok özyinelemeli demek daha doğru olabilir
      Büyük bir özellik değişikliğinde, agent'a kod yazdırmadan önce önce chatte çözmek istediğiniz iş alanı problemini netleştirmekte fayda var. Bir dış yazılım ekibiyle oturup ne istediğinizi tarif etmek gibi
      Ardından agent ile birlikte hiyerarşik bullet'larla bir tasarım dokümanını gerçek bir .md dosyası olarak yazın; büyük kısmını agent oluştursun ve düzenlesin ama problemle muğlak kararları dikkatlice sorgulayarak tasarım seviyesindeki kararları burada önceden bitirin
      Sonra tasarım spesifikasyonunu bir BDD spesifikasyon test paketi iskeletine dönüştürtün ve uygulama sırasında doldurtun
      Uygulama aşamasında unit test ve integration test eklenebilir, değiştirilebilir, silinebilir; ama tasarım spesifikasyonu dosyası ve ondan türeyen BDD test yapısı sabit kalmalı. Bitmeden önce BDD testleri etiketlerine uygun mantıkla doldurulmuş olmalı ve hepsi geçmeli
      Proje çok büyükse yeni iş gereksinimleri tanımlama, tasarımı revize etme, yeni BDD paketleri ekleme gibi süreçleri tekrarlayan sprint'ler çalıştırabilirsiniz. Ya da 2. ve 3. adım arasında tasarımı milestone'lara bölüp yalnızca mevcut milestone için BDD maddeleri üretmesini ve çözmesini isteyebilirsiniz
      Sonuçta LLM'lerle waterfall yaklaşımı kullanmayı öneriyorum. Tüm süreç bir saat içinde bitiyorsa waterfall gayet konforlu olabilir
      Asıl püf nokta, proje ya da milestone bittikten sonra agent'a yazdığı kodu chatte anlattırmak ama tasarımda zaten ortaya çıkmış kısımları açıklamamasını istemek
      Böylece şaşırtıcı kısımlara dair açıklamaları kod yorumlarına dönüştürtebilirsiniz; ortaya çıkan şey de biçimsel çöp yorumlar değil, gerçekten insanın yazacağı yorumlar olur
  • Benchmark ve eval yoksa bunun /create-skill'den daha iyi sonuç verdiğini nasıl biliyorsunuz? Naif testler güven vermiyor

    • Burada kastedilen galiba insanın beceri geliştirmesi. Yani kullanıcıya öğrenme fırsatları sunan bir özellik
      Mimari bir işi bitirdiğinizde Claude'un, kanıta dayalı öğrenme bilimine dayanarak isteğe bağlı 10-15 dakikalık alıştırmalar önermesinden söz ediliyor. Tahmin, üretim, hatırlama alıştırmaları ve aralıklı tekrar gibi yöntemlerle kendi proje çalışmalarınızdan yarım tamamlanmış örnekler sunuyor
      İsmi kafa karıştırıcı
    • LLM'lere o kadar bulanmışız ki ilgili bir terim görünce Pavlovcu bir tepki veriyoruz gibi geliyor
    • Eval konusunu açmanız iyi oldu ama şu an ne kullandıklarını ya da neye baktıklarını merak ediyorum. Kendileri mi geliştiriyorlar, yoksa mevcut bir değerlendirme framework'ü mü kullanıyorlar, bunu da bilmek isterim
  • Bu tavşan deliğine henüz girmeyenler için: Skills, dar kapsamlı görevlerin nasıl ele alınacağını anlatan yapılandırılmış Markdown dosyaları
    Mesela API endpoint'lerini belli bir şekilde yazıyorsanız, o prosedürü bir skill içine koyarsınız. Sonra agent bu skill'e bakıp mevcut chat bağlamıyla ilgili olduğuna karar verirse onu yükler ve talimatlara göre çalışır
    Tool call'a benziyor ama çağrılabilir bir fonksiyon değil; o “skill”in nasıl uygulanacağına dair yönerge
    En azından benim kullandığım Cline'da Skills'i global ya da proje seviyesinde lokal olarak tanımlayabiliyorsunuz

    • Skills'te frontmatter denen bir header da var ve bunun bir kısmı CLAUDE.md dosyası gibi bağlamın başlarında paylaşılır
      Burada duyduğum kadarıyla skill yükleme, sıkıştırmadan sonra bile kalmak gibi bağlam üzerinde ayrı etkiler yaratabiliyor
      Birden fazla skill yüklerseniz oturum boyunca kalıcı yüklenmiş halde de kalabiliyorlar
      Bence subagent'larla çok iyi uyuyor. Subagent bir skill yükleyip işi bitirip sadece sonucu verirse, orchestrator agent'ın ayrıntıları bilmesine gerek kalmaz
  • adaptive dynamic textbook approach'un tam olarak ne olduğunu bilmiyorum. Bir örnek lazım
    Üretilen kodu kabul edip kendiniz daha az kod yazdığınızda, anlayış oluşturan aktif işlemeyi atladığınız tespiti gerçekten çok doğru

  • Böyle güzel fikirler üretip de demo ya da örnek çıktı bağlantısı koymamak için neden bu kadar uğraşıyorlar anlamıyorum. HN'de her gün gördüğüm bir kalıp bu
    Bu skill'in gerçekte nasıl göründüğünü anlamak için tek yol gerçekten indirip çalıştırmak mı? Hiç istemiyorum

    • Şimdilik skill kullanımı, AGENTS.md içindeki açık talimatlara göre çok daha az kararlı hissettiriyor
      İlgisiz olduğunda skill eklemeyip bağlam şişmesini önleme fikrini anlıyorum ama AGENTS.md içinde açık bir talimat yoksa agent'ın bir skill kullanacağının garantisi de yok. O durumda belirli bir yerde referans verilen Markdown dosyasından çok farkı kalmıyor
      https://www.agentkanban.io geliştirirken, GitHub Copilot entegre iş panosunda talimatları nereye koymak gerektiği konusunda çok deneme yaptım
      AGENTS.md'den bir seviye aşağıdaki yapı oldukça iyi çalıştı. Görev bazlı ID'leri agent'ın güvenilir şekilde alması gerektiği için, tool'un yönettiği dosyanın içinde INSTRUCTION.md bulundurma yaklaşımında karar kıldım; bu aynı zamanda AGENTS.md kirlenmesini de azalttı
      Skills'i de denedim ama çok sık atlandıkları için, aracı şu anki yaklaşım kadar güvenilir çalıştırmak zordu
    • SKILL.md zaten orada, okuyup ne yaptığını görebilirsiniz
  • Fikir gerçekten çok hoşuma gitti. Claude'a açık kaynak ders kitapları ve dokümantasyon kullanarak anlık bir ders kitabı hazırlattığım oldu
    Bu skill'in daha genel bir öğrenme ve uygulama alanına genişletilip genişletilemeyeceğini, yoksa koda özel mi olduğunu merak ediyorum

  • Buradaki tepkiler ilginç, ama çoğu insan sanırım asıl noktayı kaçırıyor
    Benim için önemli ders, başkalarının Skills'i nasıl kullandığını görerek öğrenmek. Dün Matt Pocock'un agent kullanımıyla ilgili dersini izliyordum; ürün gereksinim dokümanını geliştirmek için “grill-me” skill kullanması gibi örnekler gösterdi
    Onun yaptığını aynen yapmayacağım ama gereksinim üretme ve uygulama yöntemim için bana fikir verdi
    Anthropic mühendislerinin ifadesiyle Claude yetenekli bir mühendise benziyor ama uzmanlığı eksik. Skills ise bu uzmanlığı inşa eden klasörler ve dosyalar
    Pocock'tan öğrendiğim bir diğer şey de bağlam ya da token boyutu uzadıkça yanıtların aptallaşma eğilimi göstermesi. Dolayısıyla Skills, problemi LLM'e sıkıştırılmış biçimde sunup daha optimize yanıt almak için başka bir yöntem
    Claude'un bir de davranışsal özellikleri var. Birinin tekrar tekrar skill üretmesi, bunun diğer kullanıcılara iyi taşınamayacağı anlamına gelebilir; çünkü herkes Claude'la farklı biçimde konuşuyor
    O yüzden kendi skill klasörümü ekip arkadaşlarımla paylaşma konusunda tereddütlüyüm. Onun yerine yaptıklarımı demo olarak gösterip neler mümkün olduğunu görmelerini ve kendi iş akışlarını bulmalarını istiyorum
    Değer, başkalarının Claude ile nasıl bir şeyler yaptığını görüp bunu kendi tarzında taklit edebilmekte. İlk programlamayı öğrenirken Kernighan ve Ritchie'nin C kitabındaki kodu satır satır yazıp, nasıl çalıştığını anlamak için değiştirip, sonra da kendi amacına göre uyarlamak gibiydi
    Davranışsal özelliklerden söz etmemin bir başka nedeni de yazarın psikolog olması; Claude'la etkileşim biçiminin bir programcıdan epey farklı olma ihtimali ilginç geliyor
    Bununla bağlantılı olarak, yazarın ve farklı alanlardan pek çok uzmanın uzun zaman önce Twitter'dan ayrıldığını duydum; bu yüzden bsky ya da Mastodon kurup takip etmeyi düşünüyorum. Uzman ama programcı olmayan kişilerin LLM'leri nasıl kullandığını izlemek önemli bence

  • Fikir iyi olduğu için bugün sabah biraz kurcaladım
    AI'yi fazla kullanınca ciddi biçimde beyin göçü gibi bir his oluştuğunu fark ettim; bu tam bir çözüm değil ama günde birkaç alıştırma yapmak bile epey yardımcı olabilir diye düşünüyorum