1 puan yazan GN⁺ 1 시간 전 | 1 yorum | WhatsApp'ta paylaş
  • Çalışanların bireysel AI verimliliğindeki artış, otomatik olarak organizasyon düzeyinde öğrenmeye dönüşmez; asıl mesele, gerçek keşiflerin bireyden takıma ve organizasyon yetkinliğine nasıl taşınacağıdır
  • AI benimsemesinin karmaşık orta aşamasında Copilot, ChatGPT Enterprise, Claude, Gemini, Cursor gibi araçların kullanımı yaygınlaştı; ancak ekipler arasında kullanım derinliği farklılaşıyor ve bazı öğrenmeler görünmez kaldığı için karşılaştırma ve yayılım zorlaşıyor
  • Topluluklar, şampiyon ağları, demolar, anketler ve panolar gibi geleneksel değişim yönetimi yöntemleri; gerçek iş akışı içinde ortaya çıkan AI kullanımının bağlamını, başarısızlıklarını, doğrulamasını ve insan müdahalesini yeterince yakalamakta zorlanıyor
  • Ajanik mühendislik, yineleme maliyetini düşürerek niyetten prototipe ve değerlendirmeye hızlı geçişi mümkün kılıyor; ancak organizasyonların Scrum·sprint·devir teslim süreçleri hâlâ yinelemenin kıt olduğu varsayımında kalabiliyor
  • Organizasyonların birlikte Agent Operations, Loop Intelligence ve Agent Capabilities yeteneklerine ihtiyacı var; önemli olan çalışan gözetimi değil, gerçek iş döngülerini anlayıp bunu yeniden kullanılabilir yeteneklere ve daha hızlı öğrenmeye geri bağlayan bir geri bildirim düzeneği kurmak

Organizasyonların öğrenemediği AI benimsemesinin karmaşık orta aşaması

  • Ethan Mollick’in Leadership, Lab, and Crowd yaklaşımına göre, bireysel AI verimliliğindeki artış otomatik olarak organizasyon düzeyinde sonuca dönüşmüyor
    • Çalışanlar daha hızlı yazabilir, daha fazla analiz yapabilir, otomasyon kurabilir ve bir “siborg” gibi çalışabilir; ama şirket neredeyse hiçbir şey öğrenmeyebilir
    • GitHub Copilot, ChatGPT Enterprise, Claude, Gemini, Cursor gibi araçlar şirketlerin içine girdi ve her ekipte, resmi eğitim materyallerinin çok ilerisinde olan birileri var
    • Yöneticiler lisans kullanımını, prompt sayılarını, anketleri, kurum içi PoC’leri ve yönlendirme komitesi materyallerini görebilir; ancak gerçek öğrenmenin nerede gerçekleştiği pek görünmez
    • Bazı şirketlerde AI doğrudan BT departmanına devrediliyor ve sonrasında ilerleme duruyor
  • AI benimsemesinin karmaşık orta aşaması, AI kullanımının yaygınlaştığı ama eşitsiz dağıldığı, bir kısmının görünmez kaldığı, karşılaştırılmasının zor olduğu ve henüz organizasyonel öğrenmeyle bağlanmadığı noktada başlıyor
    • Benimsemenin birimi artık organizasyonun tamamı, hatta belki ekibin kendisi bile değil; gerçek işin içindeki döngüler(loop) oluyor

Herkesin elinde Copilot olduktan sonra olanlar

  • AI benimsemesinin ilk aşaması, mevcut kurumsal yaygınlaştırmalara benzediği için nispeten tanıdık görünür
    • Koltuk satın alınır, kabul edilebilir kullanım sınırları belirlenir, eğitim verilir, şampiyon ağları kurulur ve Teams kanallarında kullanım senaryoları paylaşılır
    • Bu kanallar kısa süre canlı kalıp sonra iyi niyetin biriktiği kurumsal depo odalarına dönüşebilir
  • İkinci aşamada ise aynı şirket içinde bile AI kullanım biçimleri ciddi biçimde ayrışır
    • Bazı ekipler Copilot’u yalnızca otomatik tamamlama seviyesinde kullanır
    • Diğer ekipler Claude Code’u test, gözden geçirme ve sürekli ayarlamayla sıkı döngüler içinde çalıştırır
    • Ürün yöneticileri Figma ekranı hazırlamak yerine doğrudan gerçek yazılım prototipleri üretir
    • Kıdemli mühendisler kök neden analizini ajanlara devredip 1 saat içinde geçerli çözümler bulur; AI olmadan 2 hafta sürecek işleri kısaltır
    • Junior çalışanlar şık kod üretebilir ama hangi mimari varsayımların sisteme sızdığını bilmeyebilir
    • Destek ekipleri tekrar eden ticket’ları sessizce iş akışı otomasyonuna dönüştürür ve Center of Excellence’ın hiç soramadığı gerçek acı noktalarını bilir
  • Mollick’in çerçevesinde liderlik yönü ve izni belirler, Crowd gerçek işi yaptığı için kullanım senaryolarını keşfeder, Lab ise bu keşifleri ortak pratiklere, araçlara, benchmark’lara ve yeni sistemlere dönüştürür
    • Temel zorluk, keşiflerin bireyden takıma ve takımdan organizasyonel yetkinliğe gerçekte nasıl aktarıldığıdır

Geleneksel değişim yönetimi yaklaşımları çok yavaş

  • Çoğu şirket AI benimsemesini mevcut değişim yönetimi araçlarıyla ele almaya çalışıyor
    • Uygulama toplulukları, öğle arası oturumları, şampiyon ağları, etkinleştirme materyalleri, ofis saatleri, aylık demolar, anketler ve panolar kullanılıyor
    • Hâlâ deney yapma izninin bile gerekli olduğu organizasyonlarda bu yöntemler faydalı olabilir
  • Ancak ilginç AI kullanımları, bir sonraki topluluk toplantısını beklemeden gerçek iş akışı içinde ortaya çıkıyor
    • Kod incelemelerinde, satış tekliflerinde, araştırma işlerinde, ürün prototiplerinde, operasyonel arızalarda, test stratejilerinde ve uyumluluk sorularında beliriyor
    • Belirli ürün bileşeni türlerinde bir “dark factory”ye yakın kalıplar oluşabiliyor
      • Niyet yazılır
      • Ajanın gevşek döngüler içinde çalışmasına izin verilir
      • Yörüngede kalması için yeterli backpressure uygulanır
      • Sonuçlar güçlü senaryolarla değerlendirilir
      • Niyet rafine edilir ve yinelemeyle yüksek kaliteli sonuçlar alınır
  • İşe yarayan öğrenmeler, en iyi uygulama slaytlarına dönüştürüldüğünde keskinliğini kolayca kaybedebilir
    • Çünkü gerçek değeri yaratan şey; eksik bağlam, başarısız testler, garip API davranışları ve ajanın saçma yönlere savrulduğunda insanın onu geri çektiği sürtünmedir
  • elastic loop perspektifinden bakıldığında AI iş birliği tek bir mod değildir
    • Sıkı ve senkron ortak sürüşten, daha gevşek ve asenkron devre kadar uzanır
    • Önemli soru “İnsanlar AI kullanıyor mu?” değil; ekiplerin hangi döngü boyutunu kullanması gerektiği, nerede direnç gerektiği, hangi çıktıların döngü sonrasında da yaşaması gerektiği ve bunların nasıl organizasyonel öğrenmeye dönüştüğüdür
    • Bunlar, araç kullanımı veya token sayısı hesaplamaktan çok daha zor sorulardır

Scrum pahalı yineleme varsayımıyla tasarlandı

  • Modern yazılım süreçlerinin büyük bölümü insan yinelemesinin pahalı olması nedeniyle var oldu
    • Sprint planlama, tahminleme, stand-up’lar, user story’ler, ticket düzenleme, devir teslim, hizalama ve risk azaltmaya yönelik ritüeller buna dahildir
    • Bir yineleme günler ya da haftalar sürüyorsa, boşa giden yinelemeleri engelleyecek yapılara ihtiyaç vardı
  • Ajanik mühendislik, yinelemenin ekonomisini değiştiriyor
    • Daha fazla seçeneği gerçekten üretip denemeyi mümkün kılıyor
    • Niyetten prototipe ve değerlendirmeye daha hızlı geçiş sağlıyor
    • Ürün sorumlularının çalışan yazılımı daha erken görmesini sağlıyor
    • Mühendislerin karar vermeden önce daha fazla hipotezi test etmesine olanak tanıyor
    • Teslimatı sihirli şekilde kolaylaştırmıyor; fakat kısıtı uygulamadan niyet, doğrulama, muhakeme ve geri bildirime kaydırıyor
  • Pek çok organizasyon 20 yıldır kendine çevik dedi ama çevikliğin ortadan kaldırmak istediği organizasyonel refleksleri korudu
    • AI, gerçek çevikliği daha olası kılıyor; ancak sistemler hâlâ 2 haftalık sprint taahhütleri, devir teslim belgeleri ve yinelemenin kıt olduğu varsayımına dayanan süreçler talep ediyor
    • Döngüler, organizasyonun o döngülerden öğrendiklerini sindirme hızından daha hızlı ilerleyebilir

AI kullanım ücreti organizasyonları daha iyi sorular sormaya zorluyor

  • AI kullanımının daha net ölçülebilmesi muhtemel
    • Bugünkü “herkesin erişimi var ve maliyet çok da dert edilmiyor” kurumsal atmosferi uzun sürmeyebilir
    • Model yönlendirme, token bütçeleri, kullanıma dayalı fiyatlandırma, akıl yürütme maliyeti ve hangi iş için hangi modelin kullanılacağına dair yönetişim daha açık hale gelecek
  • Asıl önemli soru soyut biçimde token maliyetini düşürmek değil
    • Nasıl ki yazılım teslimatında önemli olan soru tuş vuruşu sayısını en aza indirmek değildiyse
    • Daha iyi soru şudur: “Bu token’lar harcandığı için ne değişti?”
  • Pull request saymaya dayalı bir yaklaşımdan kaçınılmalı
    • Hangi döngüler daha hızlı kapandı?
    • Hangi kararlar iyileşti?
    • Hangi kök neden analizleri daha keskin hale geldi?
    • Hangi incelemeler daha fazla sorun yakaladı?
    • Hangi ekipler yeniden kullanılabilir kalıplar öğrendi?
    • Hangi ürün fikirleri, prototipler sayesinde zayıflıkları erken ortaya çıktığı için daha önce rafa kaldırıldı?
    • AI nerede öğrenme üretti, nerede yalnızca daha fazla çıktı yarattı?
  • “Token başına çıktı”, eski ölçüm refleksinin yeni kıyafet giymiş halidir
    • Daha önemli olan, token başına öğrenmeye daha yakın bir ölçüdür

Eksik geri bildirim yolu olarak Loop Intelligence

  • AI benimsemesinin karmaşık orta aşamasında şirketlerin üç tür yeteneğe ihtiyacı vardır
  • Agent Operations

    • Hangi ajanların ve AI araçlarının çalıştığını, hangi sistemlere dokunabildiklerini ve hangi verileri görebildiklerini yönetir
    • Hangi eylemlerin onay gerektirdiği, kimlik, denetim, yetki ve çalışma zamanı görünürlüğünün nerede bulunduğu da buna dahildir
    • Ajanik işler sonuçta gerçek sistemlere dokunduğu için kontrol boyutu önemlidir
  • Loop Intelligence

    • Hangi AI destekli veya tam ajanlı döngülerin gerçekten öğrenme ürettiğini tespit eder
    • Hangi döngülerin açık kaldığını, hangilerinin zayıfladığını, ajanın nerede kaldıraç yarattığını ve nerede yan yollara saptığını görür
    • Hangi ekiplerin test, bağlam veya sezgi eksikliği yüzünden sıkı gözetim altında kaldığını; hangilerinin daha gevşek delegasyona hazır olduğunu değerlendirir
  • Agent Capabilities

    • Faydalı yetenekleri organizasyon genelinde dağıtır; ancak üç dev ajanın herkesin işini yapabileceğini varsaymaz
    • AI, tekil bir uygulama kategorisinden çok akışkan bir temel teknoloji gibi hareket etmeye başlar
    • Bu yüzden kurumsal hayvanat bahçesine birer tane “İK ajanı”, “mühendislik ajanı”, “satış ajanı” koyma yaklaşımına pek uymaz
    • Yeteneklerin gerçek işin yapıldığı yerlere akması gerekir
      • çalışan harness’ları
      • arka plan ajanları
      • ürün ekipleri
      • platform servisleri
      • yerel beceriler
      • MCP sunucuları
      • değerlendirme paketleri
      • runbook’lar
      • örnekler
      • alana özgü prosedürler

Platform sorusu ve geri bildirim düzeneği

  • Platform düzeyindeki önemli soru, faydalı yeteneklerin kime ait olduğu ve nasıl hareket ettiğidir
    • Bir ekipte keşfedilen faydalı bir ajan becerisinin ölü bir şablona dönüşmeden diğer ekiplere aktarılmasının bir yolu gerekir
    • Geliştirici harness’ı, ürün yöneticisi harness’ı, destek ekibi arka plan ajanı ve uyumluluk iş akışının farklı şekillerde güçlendirilmesi gerekir
    • Bazı yetenekler ekibe yakın durmalı, bazıları platform katmanında olmalı, bazıları ise yerel bağlamın kendisi kritik olduğu için genelleştirilmemelidir
  • Üç yetenekten yalnızca biri varsa işler hızla tuhaflaşır
    • Sadece Agent Operations olup Loop Intelligence yoksa, bu bir kontrol bürokrasisine dönüşür
    • Sadece Loop Intelligence olup Agent Capabilities yoksa, faydalı kalıpları keşfeden ama bunları işe geri koyamayan bir analiz katmanı oluşur
    • Sadece Agent Capabilities olup Operations ve Loop Intelligence yoksa, bu daha iyi markalanmış bir araç karmaşasına dönüşür
    • Kontrol yolu, öğrenme yolu ve yetenek yolu bir yerde buluşmak zorundadır
  • Buna içeride geri bildirim düzeneği denebilir
    • Müşterilerin satın aldığı şey zarif bir mekanizma değil; güven, daha iyi kararlar, daha hızlı öğrenme, daha az israf ve daha güvenli delegasyondur
    • Müşteri açısından daha kullanışlı kavram Loop Intelligence Hub olabilir
  • Geri bildirim düzeneği, gerçek iş döngülerini dinleyen bir mekanizmadır
    • İşleri, prompt’ları, spesifikasyonları, incelemeleri, senaryoları, kabul edilen veya reddedilen hipotezleri, operasyonel sinyalleri, yeniden çalışmayı ve insanların karar ile müdahalelerini izler
    • Amaç insanları gözetlemek değil, döngüleri anlamaktır
    • İlk sürümün dev bir platform olması gerekmez
    • Birkaç gerçek iş akışı seçip, niyetin, ajan faaliyetinin, doğrulamanın ve insan kararlarının zaten iz bıraktığı noktaları enstrümante etmek; ardından döngülerin neden başarılı ya da başarısız olduğunu anlayacak kadar nitel geri bildirim toplayıp bunu tekrarlanabilir öğrenme çıktısına dönüştürmek yeterlidir
  • Loop Intelligence Hub sinyalleri organizasyonun harekete geçebileceği biçimlere dönüştürür
    • etkinleştirme backlog’u
    • yetenek radarı
    • yatırım özeti
    • yönetişim boşlukları
    • yeniden kullanılabilir iş akışları
    • eğitim ihtiyacı
    • değerlendirme öncelikleri
    • Her yere uyan tek bir pano değil, bağlama uygun çıktılar gerekir
  • İlginç olan çıktı panonun kendisi değil, onun arkasındaki karardır
    • Bazı ekipler daha fazla delege etmeden önce daha iyi backpressure’a ihtiyaç duyar
    • Bazı ürün grupları, dar bir bileşen türü için tekrarlanabilir dark factory kalıplarına sahiptir
    • Bazı uyumluluk iş akışları, yönetişimin uygulandığı araç sınırlarına ihtiyaç duyar
    • Bazı beceriler, beş ekip tarafından yanlış biçimde yeniden icat edildiği için platforma taşınmalıdır
    • Harness toplar, hub organizasyonun karar vermesine yardımcı olur, yetenek katmanı ise öğrenmeyi yeniden işe geri koyar

Çalışan gözetimine dönüşürse başarısız olur

  • Bu yapı çalışan puanlamasına dönüşürse her şey çöker
    • Çalışanlar organizasyonun AI’yı yeterince kullanıp kullanmadıklarını ölçtüğüne inanırsa sinyali manipüle eder
    • Her deneyin üretkenlik beklentisine dönüştüğüne inanırlarsa deneyleri gizler
    • En iyi iş akışının kısa sürede yeni varsayılan iş yüküne dönüşeceğine inanırlarsa bunu özel tutarlar
    • Şirket de görünür uyum ama görünmez öğrenmeden oluşan en kötü benimseme biçimini elde eder
  • Faydalı soru “AI’yı yeterince kim kullanıyor?” değildir
    • AI işi nerede, organizasyonun öğrenebileceği bir biçimde değiştirdi?
    • Hangi döngüler daha sağlıklı hale geldi?
    • Hangi ekiplerin daha fazla delegasyondan önce daha iyi backpressure’a ihtiyacı var?
    • Prototipler gerçek yazılıma dönüşüyorsa, hangi ürün ekiplerinin farklı bir ortama ihtiyacı var?
  • Politika gereklidir; ancak yönetişim de öğrenme gibi ancak kullanım üzerinden gerçeklik kazanır
    • Ajanlar operasyona yakın işlere dokunduğunda
    • Ürün yöneticileri spesifikasyon yazmak yerine prototip ürettiğinde
    • Geliştiriciler kök neden analizini delege ettiğinde
    • Token harcaması yükselip yöneticiler yanıt istediğinde
    • Organizasyon, bir öğrenme sistemi mi kurduğunu yoksa sadece çok sayıda lisans mı satın aldığını o zaman anlar

Karmaşık orta aşama katlanılacak bir dönem değil

  • AI benimsemesinin ilk aşaması erişimle ilgiliydi
    • Kimin aracı aldığı, kimin izin aldığı, kimin sözleşmeyi müzakere ettiği ve satın alma ticket’ı açmadan en yeni modeli kimin deneyebildiği önemliydi
    • Bu aşama hâlâ önemli; ama uzun süre fark yaratan unsur olmayacak
    • En ön saftaki zekâya erişim ödünç alınabilir; ama operasyonel kontrol ve organizasyonel öğrenme aynı şekilde ödünç alınamaz
  • Bir sonraki avantaj öğrenme hızıdır
    • Gerçek kalıpları kim daha hızlı buluyor?
    • Keşifleri bireyden takıma, takımdan organizasyonel yetkinliğe kim taşıyor?
    • Ajanik döngülere backpressure ekleyip ajanların dağılmasını kim engelliyor?
    • Herkese uymayan dev kurumsal ajanlar üretmek yerine faydalı ajan yeteneklerini kim dağıtıyor?
    • AI’yı mevcut ritüellere eklemek yerine ajanik mühendislikle çevikliği gerçeğe daha yakın hale kim getiriyor?
  • Kesinleşmiş bir benimseme playbook’u bekleyerek bu değişimi anlamak zor
    • Vendor’ların, danışmanların ve AI laboratuvarlarının nihai cevabını beklemek yerine; gerçek işi enstrümante etmek, dağınık öğrenmeleri paylaşmak, başkalarının açıkları zorlamasına izin vermek ve kamusal biçimde yinelemek gerekir

1 yorum

 
GN⁺ 1 시간 전
Hacker News görüşleri
  • Büyük kurumsal ortamlarda yapay zeka benimsenmesi neredeyse geliştirme ekiplerinin dışına çıkamadı ve yalnızca geliştiriciler GitHub Copilot kullanabiliyor
    Kodun commit’ten prod’a dağıtıma gitmesi 6–12 ay sürüyor ve geliştirme hızı zaten başlı başına darboğaz değildi
    Zaman alan şey; altyapı sağlama, test, onaylar, değişiklik yönetimi ve dağıtım takvimi gibi süreçler ve yapay zeka, geliştirme sonrası darboğazları daha da kötüleştirerek değişikliklerin release treninin önünde yığılmasına neden oluyor
    Büyük şirketlerin token maliyetinden yatırım getirisi elde edebilmesi için yazılımı daha hızlı dağıtmayı öğrenmesi gerekiyor; dağıtılmamış kod ise varlık değil, borçtur

    • Yönetim hâlâ yazılımı bir montaj hattı gibi görüyor ve “Ford nasıl araba üretiyorsa biz de öyle yazılım üretiyoruz” diye düşünüyor
      Yazılım geliştirmenin verimsiz olduğu doğru ama asıl mesele kod yazmak değil, hangi kodun yazılması gerektiğini anlamaya yönelik araştırma ve tasarım; buna ise yeterince dikkat edilmiyor
      Microsoft “kod %50 daha hızlı!” diye bağırdığında yönetim bunu “ürün de %50 daha hızlı, para da %50 daha hızlı” diye algılıyor
      Yatırım getirisi talep edilmeye başlandığı anda bunun felakete dönüşme ihtimali çok yüksek; şimdilik herkes sadece ölçüm yapmaktan kaçıyor
      Bir gün yatırımcılar “2 milyon dolar harcadık, o zaman 4 milyon dolar net kâr çıkar” diyecek ama böyle bir sonucun gelmesi zor
      Copilot ve Claude; eski kurumsal bilgi birikimi, belgelenmemiş özel çözümler ve gelecekteki kullanım potansiyeli gibi gerçek darboğazları çözmüyor
      Kod ne gerçek ürün ne de gerçek iştir; sağlıklı bir codebase’te tasarım ve araştırma sürecinin neredeyse bedava bir yan ürünü gibidir
      “Satın alma ekibi aramayı kullanmakta zorlanıyor” ifadesini uygulanabilir bir ticket’a dönüştürdüğünüzde, React arama filtresi bileşeni aslında büyük ölçüde zaten belirlenmiştir ve kodlama 10 dakikalık bir formaliteye yaklaşır
      Copilot bunu 5 dakikaya indirse bile, öncesinde harcanan 6 saatlik toplantı ve görüşmeleri düşününce pek etkileyici kalmıyor
    • Büyük şirketler hâlâ ne kadar az kod o kadar iyi gibi temel bir şeyi öğrenememişken, yazılımı daha hızlı dağıtmak gibi daha ileri bir kavramı birden öğrenmelerini beklemek zor
    • Yeterince büyük sistemlerde bir noktadan sonra daha fazla kod yazmak, gerçekte ihtiyaç duyulan şeyin tersine dönüşür
      Beslenme ve kalori de belli bir noktaya kadar faydalıdır; sonrasında getirisi azalır ve sonunda olumsuz etki yaratır
      Mükemmel bir benzetme değil ama daha fazlasını üretmenin aslında daha az değer doğurabileceği fikrini kurmak için yardımcı oluyor
      Müşterilerden, belgelerin eksiksiz ve ayrıntılı ama fazla bunaltıcı olduğuna dair geri bildirim alındı; sonunda özü veren birkaç kısa madde işaretinin, 5 sayfalık bir belgeden daha iyi olduğu anlaşıldı
    • Eski olan şey yeniden yeni oldu: Kısıtlar teorisinin yapay zeka çağındaki versiyonu
      [0] https://en.wikipedia.org/wiki/Theory_of_constraints
      [1] https://www.goodreads.com/book/show/113934.The_Goal
      [2] https://www.goodreads.com/en/book/show/17255186-the-phoenix-...
    • Günümüzde daha büyük kurumsal ortamlarda yapay zeka benimsenmesi daha kötü bir yöne sapmış gibi görünüyor
      Finans ekibi, Copilot, Cursor ve Claude ile finansal planlama uygulamasını vibe coding yapıp yapamayacaklarını sordu ve hatta “CFO Lovable’ı test edip ikna oldu, bu yüzden uygulamayı vibe coding ile yapmamızı istedi” dediler
      Yönetimin “CFO söyledi” dendiğinde donup kaldığını bildikleri için bu mantığı öne sürmüşler
      En sonunda buna “uygun veri güvenliği ve bakım yapılabilirliğe sahip vibe coding uygulamalarının kurumsal finans alanında var olup olamayacağını doğrulamamız gerekiyor” gibi makul görünen bir ambalaj da eklediler
      Bunun yıllık geliri 20 milyar doları aşan bir şirkette ortaya çıkan reasoning olması daha da şaşırtıcı
  • Benim gibi sıradan bir mühendis için işyerinde yapay zeka kullanmanın kayda değer bir faydası yok
    Şirket bizi yavaş yavaş haşlıyor ve HN’nin elit kesimi olan yatırımcılar, yöneticiler, ünlüler ve en üst düzey mühendisler “yeniliğe nasıl karşı çıkabilirsiniz?” diyecek
    AI/LLM; TCP/IP, Linux ya da Postgres gibi bir yenilik değil
    Claude, Codex, Gemini, Grok gibi şeyler kâr için var; üretkenliği son damlasına kadar sıkıp, artık gerek kalmadığında işten çıkarmayı mümkün kılan araçlar
    Yapay zeka iyiyse, açık kaynak modelleri kullanmak ve bunu kişisel projelerde yapmak daha iyi

    • Oyun bitmiyor, değişiyor
      Yapay zeka çok fazla kod saçabilir ama gerçekte ne olduğunu anlayan mühendislere hâlâ ihtiyaç var ve darboğaz her zaman buydu
      Junior pozisyonlar ortadan kalkabilir ama kıdemli mühendisler bir süre daha güvende görünüyor
      Ben de doğam gereği ters biriyim ve bu zor öğrenilmiş bir ders ama işe alındıysan, yönetimin istediği işi yapman için işe alınmışsındır
      Direnirsen ancak onların fark etmemesini ya da umursamamasını umabilirsin; büyük değişim yaratmak zordur
    • Fayda, işin çok daha kolay hâle gelmesi değil mi? Neyi kaçırdığımı bilmiyorum
    • Mühendislerin kapitalistler tarafından sömürüldüğüne dair bir anlatı var ama yönetici açısından bakınca bile, “gelecek çeyrek primi” dışında tüm bunlar delilik gibi görünüyor
      SCO’nun çökerken sektöre neler yaptığını hatırlıyor musunuz bilmiyorum
      Şirketlerin; kod, süreçler, müşteri gereksinimleri, iç siyaset ve liderliğin planları gibi içlerindeki gizli bilgileri startup’ların ve güven vermeyen dev şirketlerin eline teslim etmesi hâlâ anlaşılır gelmiyor
      Microsoft da bir zamanlar gizlilik anlaşmaları ve ticari suistimallerle ünlüydü
      LLM devlerinin kurumsal verilerle eğitim yapmayacağını düşünmüyorum; yapmayacaklarına dair yalan söylemeyeceklerini de düşünmüyorum
      Onlar çökmeye başlarsa bu altına hücumun uzun ve çirkin bir kuyruğu olabilir
    • Hacker News’te CEO’ların çalışanlar hakkında ne düşündüğü ve işten çıkarmaların neden olduğuna dair çarpık fikirler var gibi görünüyor; bu çok kötü bir yorum
      Gerçekte işten çıkarılan taraf, bu teknolojileri benimsemeyenler olacak ve böyle davranmak kişinin kendini hedef alanın içine sokması demek
      Daha bugün Coinbase örneğinde de görüldüğü gibi, geleceği kabul etmeyenleri ayıklıyorlar
      Çünkü onlar ilerlemeye yardımcı olmuyor, ileri itmiyor ve bunu yapanları da tutup geri çekiyorlar
  • Yazıdaki messy middle çok isabetliydi
    Sorumluluğu ve işi riske giren geliştiricilerin böyle zeka döngüleri kurmak için pek motivasyonu yok
    Yönetim ne kadar nazikçe isterse istesin, kendi verimlilik artışımı şirket genelinde bedava ve özgeci biçimde paylaşma niyetinde değilim
    Faydalı bir araç olsa paylaşabilirim ama yapay zekayla nasıl çalışılacağı ya da agent’ların nasıl kurulacağına dair bilgi birikimi, paylaşım için bir takdir yoksa kişide kalması daha iyi olan bir şey
    Bizim şirket, benimsemeyi yaymak için “haftanın prompt’u” ödülü ve öğle yemeği oturumları oluşturdu; bu akışları geliştiren ekipler de var
    Ama gerçek bir maddi ödül ya da iş güvencesi olmadan bilgiyi yaymanın riski ve maliyeti tamamen geliştiricinin üstüne kalıyor

    • İnsanların neden böyle düşünmediğini pek anlayamıyorum
      Yapay zeka bugünkü seviyesine gelmeden çok önce bile işi kolaylaştırmak ve otomasyon script’leri yazmayı rahatlatmak için kişisel bir CLI yapmıştım
      İş arkadaşlarım o aracı görünce paylaşmamı istedi ama diplomatik cevabım hayır oldu
      Paylaşırsam destek yükü doğuyor ve herkes benim kadar üretken hâle geldiği için avantajımı kaybettiğim negatif getiri oluşuyor
      Üstelik liderlik benim yaratıcılığımı bir varlık olarak tanımadığı için iş güvencem de artmıyor
      Zaten yakın gelecekte işten çıkarılabileceksem, şirkete iyi niyetle yardım etmeye niyetim yok
      Bugünkü piyasada geliştiriciler işlerinden endişe ediyorsa kişisel iş akışlarını ticari sır gibi görmeliler
      Bu örnek yapay zekaya özgü değil ama AI iş akışları için de aynen geçerli
      Çalışan lehine piyasada böyle bilgileri organizasyonla paylaşmak bazen eğlenceliydi ama işveren lehine piyasada kişisel tercihlerime erişmek istiyorsan bunun bedelini ödemelisin
    • İşe düşmanca yaklaşmak güzel değil ama şirket “herkes bu kadar üretken ve bu kadar çok şey başarıyorsa neden bu kadar çok insan var?” şeklinde bir sıfır toplamlı düşünce taşıdığı sürece pek seçenek kalmıyor
      Ben işyerini aile olarak gören biri değilim ama insanların kendi mezarını kazıp kazmadığını düşünmeden iyi iş çıkarabildiği ve paylaşabildiği bir düzen olsa keşke
    • İşvereniniz sizden zamanınızı bedava ve özgeci biçimde paylaşmanızı bekliyorsa sömürülüyorsunuz demektir
      Çoğu insan iş yapmak için maaş alır ve çalışma saatlerinde elbette işveren için çalışmalıdır
    • Saklandığı söylenen “sırlar” genelde Gary Tan’in aşırı güçlü prompt listesi seviyesinde şeyler
      Gerçekte başkalarının aklına gelmeyecek kadar müthiş olan şey çok az
      Benim deneyimimde prompt ya da teknik paylaşsanız da kullanan pek olmuyor ya da zaten o kadar temel oluyor ki herkesin kendi versiyonu çoktan bulunuyor
      Yapay zekadan önce biri xyz ile ilgilenmiyorsa, ona gümüş tepside sunsanız bile AI sonrasında birdenbire ilgi duymuyor
    • Bir diğer bakış açısı da AI araçlarının ilk başta bireye fayda sağlaması ve kullanıcının artan üretkenliği boş zaman olarak kendine alması
      Sıkıcı işlerin neredeyse tamamı ortadan kalkıyor ve bazı problemler de kenara atıldığında kendi kendine çözülerek günde 1–4 saati geri veriyor
      O kişi bu zamanı mantıklı kullanıp daha fazla iş aramaya mı gider? Kendi şirketi değilse ya da özel bir motivasyonu yoksa bunun olasılığı düşük
  • 3 yıldır emekli bir sistem analisti olarak genç meslektaşlarım için üzülüyorum
    2023’te ekipte yapay zekayı nispeten erken kullandım ve asıl yazarı çoktan ayrılmış, neredeyse hiç yorum ya da belge bırakılmamış Perl tabanlı legacy kodu çözdüm
    O kod kritik bir işi yürütüyordu ve yapay zeka bizi zor durumdan kurtarınca herkes bu yeni teknolojiye hayran kaldı
    Ama zaman geçtikçe bunun benim kullanabildiğim bir araçtan çok bana yapılan bir şey gibi göründüğünü hissediyorum
    Bunu kimse istemedi
    Her şeyi anında halletme bahanesiyle ilhamın ve düşüncenin ne zamandan beri değersizleştirildiğini ve değersiz sayıldığını bilmiyorum; işin ruhu kayboldu

  • Yapay zeka tek başına o kadar da kullanışlı değil
    Agent’ları unutuyorlar ve yeterince çok hata yapıyorlar; her işi kontrol etmek gerekiyor ve sonuçta üretkenlik hatta düşebiliyor
    Asıl değer, yapay zekayı başka araçlar üreten bir araç gibi kullandığınızda ortaya çıkıyor
    Örneğin, iş belli bir kalite seviyesine gelene kadar devam etmeye zorlayan araçlar üretmesini sağlamak ya da çıktının üzerinde uyumluluk kontrolleri çalıştırıp nerelerin düzeltilmesi gerektiğini söylettirmek gibi
    Ancak o zaman işe güvenebiliyorsunuz
    Şu anda çoğu rol ve iş akışı, mevcut araçları kullanıp belirli bir işi yapma mantığıyla tasarlanmış durumda ve böyle bir düzende yapay zeka ancak kenardan sızabiliyor

  • İyi yazıydı; özellikle organizasyonların işi tanımlama biçiminin değişmesi kısmı dikkat çekiciydi
    Önceki modelde performans ve OKR’ler; fonksiyon alanlarına, unvanlara ve rol beklentilerine bağlıydı
    Yapay zeka çağında bu sınırlar çözülmeye başlıyor
    Daha derin sorun psikolojik ve örgütsel: insanlar “bu benim işim” ile “bu benim sorumluluğum değil” arasındaki çizgiyi sürekli yeniden müzakere etmek zorunda kalıyor
    Bu yüzden temel benimseme sorunu ortaya çıkıyor: AI power user olarak görünür biçimde tanınmanın faydası ne?
    Eğer daha hızlı, daha iyi ve fonksiyonlar arasında daha geniş çalışabildiğim anlaşılırsa, şirket tanınma, ödüllendirme ve kariyer gelişimi için net bir yapı kurmadığı sürece bunu neden göstereyim?

    • Sonuçta operasyon arızalarını düzeltme ve bakım yapma sorumluluğunu taşıyan kişi sahipliği de üstlenir
      Agent’ların bu sınırların arasında dolaştığı bir dünyada bu iş epey karmaşıklaşabilir
      Bir sürü agent yöneten bir AI mühendisi gerçekten her şeyin sürekli çalışmasından da sorumlu olacak mı? Bundan oldukça şüpheliyim ama göreceğiz
    • AI power user’ları ödüllendiren bir sistem kurarsanız, bu kariyerin kendisi de sorun hâline gelebilir
      Böyle yeni bir işe çekilen biri, şirkete özgü bağlama dair tavsiyeyi birkaç hafta daha güncel yaklaşımlarla birleştirdiğinde, sonunda ortadan kaldırılacak alan uzmanı rolüne yerleşebilir
    • Bir ekip üyesi bunları varsayılan çalışma biçimi olarak yapmaya başladığında, o kişiyle ekibin geri kalanı arasındaki fark görünür olana kadar her şey yolunda sanılır
  • “Geçen yıl Anthropic’e ödediğimiz 2 milyon euronun yatırım getirisi nerede?” sorusunun cevabı, CEO ofisinde asılı duran YouTube tarzı platin token plaketi

  • “Geçen yıl Anthropic’e ödediğimiz 2 milyon euronun yatırım getirisi nerede?” sorusunun altında yatan varsayım yanlılığı gerçekten akıl almaz
    Sorun, üretici yapay zekanın görünür bir yatırım getirisi yaratamaması
    Ama “çözüm” olarak tüm geliştirme organizasyonunu o teknoloji etrafında yeniden düzenlemek ve yeni araçlar icat etmek öneriliyor
    Böyle yazıların asıl amacı, yüzeyde tartıştığı konu değil; o tartışmanın dayandığı varsayımların normalleştirilmesi

    • Sanki LLM başarısız olamaz; başarısız olursa da onu başarısız kılan sizsiniz
  • Şu anda bu alanda çalışmak gerçekten berbat
    Benim çalıştığım şirkette yöneticiler geliştirici olmayanlar da dahil herkese AI kullanma serbestisi veriyor
    Gerçekten bırakıp başka bir alana geçmek istiyorum ama yaşadığım yerde başlangıç maaşıyla kira ödenmiyor ve ben de yaşlanıyorum

  • Yapay zekanın vaadini dot-com patlamasıyla karşılaştırmak anlamama yardımcı oldu; gerçekten çok benzerlik var
    Ama internet şirketler açısından daha basit bir kavramdı
    Temelde artık insanların kendi bilgisayarlarından bir şeyler satın alabilecekleri anlamına geliyordu
    Yapay zekanın vaadi ne? Şeyler hakkında akıl yürütmeyi yaklaşık olarak taklit edebilmek mi?
    Bu, uygulanması gerçekten çok daha zor bir problem
    Kodlama işleri dışında henüz somut bir şey gördüğümü sanmıyorum