43 puan yazan GN⁺ 2026-02-02 | 4 yorum | WhatsApp'ta paylaş
  • AI kullanıcıları arasındaki üretkenlik farkı hızla açılıyor; “power user” olarak görülenler Claude Code, MCPs gibi gelişmiş AI araçlarını aktif biçimde kullanırken, çoğunluk hâlâ ChatGPT düzeyinde sohbet odaklı kullanımla sınırlı kalıyor
  • Büyük şirketler güvenlik politikaları, kapalı IT ortamları ve legacy sistemler nedeniyle en yeni AI araçlarını devreye almakta zorlanırken, küçük şirketler AI’ı hızla içselleştirip verimliliği artırıyor
  • Bu fark, küçük ekiplerin büyük şirketlerden çok daha yüksek üretkenlik sağlayabildiği bir döneme yol açıyor ve iç API’ler ile güvenli kod çalıştırma ortamları kurmak gelecekteki rekabet gücünün ana unsuru hâline geliyor
  • Programlama dilleri ve API erişimi olan bir bash sandbox ile bir ajanı birleştirmek, teknik olmayan kullanıcıların bile neredeyse tüm üretkenlik uygulamalarını ikame etmesini sağlayabilir; bu da bilgi emeğinin gelecekteki biçimi olarak öne çıkıyor

İki tür AI kullanıcısı

  • AI kullanıcıları arasındaki üretkenlik farkı hızla büyüyor
    • Bir tarafta Claude Code, MCPs ve beceri tabanlı workflow’ları kullanan; teknik olmayan kişilerin bile terminalde AI’ı aktif biçimde kullandığı bir kesim var
    • Özellikle finans alanında, Python tabanlı otomasyonla Excel’in sınırlarını aşan çok sayıda örnek görülüyor
  • Diğer tarafta ise hâlâ ChatGPT düzeyinde basit soru-cevap kullanımında kalanlar var
    • Pek çok beyaz yaka hâlâ bu kategoride yer alıyor ve AI’ın potansiyelinden tam anlamıyla yararlanamıyor

Microsoft Copilot’un sınırları

  • M365 Copilot, Office 365 aboneliğine paketli geldiği için kurumsal pazarda yüksek paya sahip; ancak ChatGPT’nin zayıflatılmış bir sürümü düzeyinde bir arayüz sunuyor
    • "Ajan" özellikleri, CLI kodlama ajanlarıyla karşılaştırıldığında (Microsoft’un kendi GitHub Copilot CLI’ı dahil) gülünç kalıyor
      Büyük dosyalarda sık sık başarısız oluyor ve bellek ile CPU kısıtları aşırı seviyede
  • Microsoft’un kendi içinde bile Claude Code’un şirket içi ekiplerde kullanıma alındığı görülüyor
    • Bu da Copilot’un teknik olarak geride kaldığını gösteren bir örnek
  • Kurumsal ortamlarda Copilot çoğu zaman izin verilen tek AI aracı oluyor; bu yüzden çalışanlar başka araçlar kullanmak için ya işten atılma riskini göze almalı ya da büyük çaba harcamalı
    — Üst düzey karar vericiler bu tür araçlarla çok kötü sonuçlar yaşadıktan sonra AI’ın tamamını küçümseyebiliyor ya da büyük danışmanlık şirketlerine devasa ücretler ödeyip yine sonuç alamayabiliyor

Büyük şirketlerin karşı karşıya olduğu yapısal risk

  • Güvenlik odaklı kapalı IT politikaları inovasyonun önünü kesiyor
    • Aşırı kilitli ortamlar: En basit script yorumlayıcıları bile yerelde çalıştırılamıyor (şanslıysan VBA, o da çoğu zaman Group Policy ile kısıtlı)
    • Legacy yazılım: Temel workflow’larda iç API bulunmadığından, ajanların bağlanabileceği bir hedef bile yok
    • Silo hâline gelmiş mühendislik departmanları: Çoğu zaman tamamen outsource edildiği için, güvenli şekilde sandbox içine alınmış ajanları çalıştıracak altyapıyı kurabilecek iç ekip bulunmuyor
  • Elbette güvenlik kaygıları gerçek — production veritabanlarında kodlama ajanlarını kontrolsüz biçimde çalıştırmak risklidir
  • Ancak sandboxing zor bir iştir ve asıl mesele, bunu güvenli biçimde kurabilecek bir mühendislik ekibinin olmamasıdır

Küçük şirketlerin hızlı yükselişi

  • Legacy kısıtları olmayan küçük ve orta ölçekli şirketler, AI’ı hızla devreye alıp üretkenliği patlayıcı biçimde artırıyor
    • Bir tarafta Microsoft’un Excel için Copilot’unu kullanan (Gemini’nin Google Sheets entegrasyonu da benzer biçimde kötü) ve basit işleri bile berbat yaptığı için bir daha el sürmeyen finans direktörleri varken,
    • Diğer tarafta Claude Code’u öğrenmiş teknik olmayan yöneticiler Python’ı yerelde çalıştırıyor
      • 30 sayfadan oluşan son derece karmaşık bir Excel finans modelini Claude Code ile Python’a dönüştürme işi, yalnızca 2-3 prompt ile neredeyse tamamlanabiliyor
      • Model Python’a geçirildiğinde, Claude Code sayesinde bir veri bilimi ekibi düzeyinde yetkinlik elde edilebiliyor
      • Monte Carlo simülasyonları çalıştırmak, dış veri kaynaklarını bağlamak, web dashboard’ları kurmak ve modelin (ya da işin) zayıf yönlerini analiz etmeye yardımcı olmak mümkün hâle geliyor
  • Eskiden küçük şirket çalışanları büyük şirketlerin kaynaklarına ve ekiplerine özenirdi;
    ancak bu ortamda küçük ekipler büyük şirketlerden çok daha yüksek verimlilik gösteriyor ve üretkenlik eğilimi tersine dönüyor

Geleceğin iş yapısı

  • AI kaynaklı üretkenlik artışı aşağıdan yukarıya (bottom-up) ortaya çıkıyor
    • Küçük ekipler belirli süreçler için AI destekli workflow’lar kurmayı deniyor ve o süreci en ince ayrıntısına kadar bildikleri için iyi sonuçlar alıyor
    • Bu durum, süreç deneyimi olmayan outsource yazılım mühendisliği ekipleriyle keskin bir tezat oluşturuyor
    • Mevcut 'dijital dönüşüm' projelerinin çoğunun tam tersi bir tablo söz konusu
  • İç sistemleri için API’ye sahip şirketler çok daha fazlasını başarabiliyor
    • Bu, çalışanların bağlanıp kullanıcı adına sorgu çalıştırabildiği salt okunur bir data warehouse’dan, temel iş süreçlerinin API’leştirilmesine kadar geniş bir alanı kapsıyor
  • Kod ajanlarını güvenliğin kontrol altında olduğu VM ortamlarında çalıştırmak gerçekçi bir alternatif
    • Salt okunur raporlama için uygun olsa da veriyi değiştirme tarafında hâlâ sınırlamalar var
  • Legacy enterprise SaaS sağlayıcıları ya güçlü bir lock-in konumunda ya da bakış açısına göre son derece kırılgan durumda
    • Çoğu "API-first" ürün değil ve mevcut API’ler geliştiriciler için tasarlandığından, binlerce çalışanın bunları verimsiz şekilde çağırdığı senaryolara optimize edilmiş değiller
    • Ancak şirketin tek gerçeklik kaynağıysa (source of truth), geçiş çok zorlaşıyor ve bu da üretkenlik artışının darboğazı hâline geliyor
  • Küçük şirketler ise daha yeni ve API’leri daha iyi tasarlanmış ürünler kullanma eğiliminde
    • Bu yeni SaaS ürünleri, API merkezli tasarımları sayesinde AI entegrasyonuna daha elverişli

Bilgi emeğinin yeni biçimi

  • Programlama dili ve sistem API erişimi olan bir bash sandbox ile ajan framework’lerinin birleşimi, teknik olmayan kullanıcılar için bile güçlü bir üretkenlik aracı hâline geliyor
    • Kullanıcı prompt giriyor, ajan ise API üzerinden sonuç üretiyor
    • Rapor yazımı, veri analizi, belge üretimi gibi kullanıcının istediği her şeyi talep edilen formatta dışa aktarabildiği için mevcut ofis uygulamalarının çoğunu ikame edebilir
  • Kullanıcının prompt vermesi, ajanın API’lere bağlanıp isteğe göre çıktı üretmesi modeli, bilgi emeğinin geleceği olarak öne çıkıyor
    • Bu kutuplaşma gerçek ve hızla ivmeleniyor
  • Bu değişim, küçük ekiplerin büyük şirketlerden daha hızlı rekabet avantajı elde edebildiği bir dönemi başlatıyor
    • AI kullanımındaki fark gerçekten var ve bu farkın büyüme hızı giderek artıyor
    • Tarihte küçük ekiplerin kendilerinden bin kat büyük şirketleri bu kadar kolay geride bırakabildiği pek az dönem oldu

4 yorum

 
GN⁺ 2026-02-02
Hacker News yorumları
  • Bence kullanıcıları iki gruba ayırmak mümkün
    Biri, yapay zekayı bir araç olarak kullananlar; sınırlarının farkındalar ve onu tekrarlayan ya da sıkıcı işleri devretmek veya özet almak için kullanıyorlar
    Diğeri ise düşünme işinin kendisini dış kaynak kullananlar; konu hakkında neredeyse hiç anlayışları yok, sadece sonucu istiyorlar ve öğrenme niyetleri yok
    İkinci grup, chatbotların kıdemli geliştiricilerin yerini alabileceğine inanan kesim

    • Şirketin “düşünen mühendis” istemediğini fark ettikten sonra ben de işte düşünmeyi dış kaynak kullanmaya başladım
      Önemli olan sadece hızlı teslimat ve müşteri geri bildirimi ancak altı ay sonra geldiği için anlamı yok
      Artık en az çabayla maaşımı alıp idare ediyorum
    • Bir başka tür daha var. Düşünme becerisini kullanarak daha gelişmiş araçlar yapan, giderek daha fazla düşünmeyi ve tekniği yapay zekaya devreden insanlar. Ben ve çevremdekiler buna giriyoruz
    • Düşünmeyi dış kaynak kullanmak her zaman kötü değildir
      Almanca dinleme pratiği için Claude Code ve ElevenLabs ile bir uygulama yaptım ve öğretmenimi bile şaşırtacak kadar etkili oldu
      Kod öğrenmekle ilgilenmiyordum; amaç Almanca becerimi geliştirmekti
    • Bence üçüncü bir grup daha var. Yapay zekayı sanal bir ekip arkadaşı gibi kullanıp fikir alışverişi yapanlar. Bence en ilginç kullanım senaryosu bu
    • Bir başka kesim de onu arama motoru, doktor ya da terapist, belge yerine kullanıyor.
      Yani basit bir araçtan öte konuşmalı bir partner olarak kullanıyorlar
  • Yapay zekayı greenfield projelerde ve brownfield projelerde kullanınca verimlilik farkı büyük oluyor
    Yeni bir projenin ilk gününde bir haftalık işi çıkarıyor ama mevcut sistemlerde artış yaklaşık %20’de kalıyor
    Sonuçta yapay zeka, “yenilikçinin ikilemi”ni hızla yeniden üretir hale geliyor
    Asıl soru, yapay zekanın karmaşık sistemleri olgunlaştırma aşamasında ne kadar rol oynayabileceği

    • Enterprise IT’de çalışan biri olarak buna katılıyorum
      Hashicorp Packer build dosyalarını yapay zekayla neredeyse tamamladım ve yerel yapay zeka çok yardımcı oldu
      Ama eski altyapıda öngörülemezlik büyüyor; bu yüzden LLM işleri daha da bozabilir
    • Aslında bu durum yapay zeka olmadan da yeni projelerde hep yaşanır
      Başta hızlıdır ama sonra mimarinin sınırları ortaya çıkar
    • Ben yapay zekayı verimlilik için bir yağlayıcı gibi kullanıyorum. Yorgun olduğumda veya fazla düşündüğümde bir başlangıç noktası veriyor
      Aşırı mühendisliği azaltmaya da yardımcı oluyor
    • Ama bu hız artışı context window sınırında duruyor
      Proje 200k token’ı geçince verimlilik sıfıra iniyor
      Sonunda, hafızaya dayanmayan süreçlere sahip organizasyonlar kazanıyor
    • Normalde %10-20 civarı artış görüyorum ama kişisel projelerde %200-500’e kadar çıktığı oldu
  • Bir yöneticinin Claude Code ile 30 sekmeli karmaşık bir Excel finans modelini Python’a dönüştürdüğünü duyunca neredeyse midem bulandı
    Matematik ve jeofizik geçmişi olan biri olarak, böyle bir Excel modelinin kendisi zaten bir kâbus
    Yine de Python’a çevrilmiş halinin özgününden daha kötü olmama ihtimalinin düşük olmadığını kabul ediyorum

    • Koda yakın bu alanların sırrı, neredeyse hiç test olmaması
      Yanlış modellemeyi kim yakalayacak? Neredeyse kimse
      LLM’in ürettiği simülasyonlarda doğrulama süreçleri daha da zayıf
    • Finans dünyasında gerçekten de prodüksiyon Excel spreadsheet’leri kod gibi sürümleyip test ediyorlar
      Başta hızlı deneyler için kullanılıyor, kâr büyüyünce teknik ekip bunu resmi bir uygulamaya dönüştürüyor
    • Ama ben Claude Code sürümünün çok daha kötü olacağına eminim
      Orijinal Excel yıllar boyunca düzeltilmişken dönüştürülen sürüm sadece sahte bir kopya
    • “Daha kötü olmama ihtimali düşük değil” sözü beni güldürdü
    • Artık “resesyonu Excel’in yarattığı çağdan, yapay zekanın ürettiği finans modellerinin resesyon yarattığı çağa” gidiyoruz
    • Claude Code dönüşümü neredeyse tek seferde yapmış olsa bile, kritik mantığı bozmuş olma ihtimali yüksek
      • Elbette Excel ve Python’ı aynı anda çalıştırıp sonuçları karşılaştırabiliyorsanız doğruluk artabilir
      • Ama o Excel modelinin kendisinin doğru düzgün doğrulanmış olma ihtimali de düşük
      • “Neredeyse tek seferde” demek, CPU’nun “neredeyse %100 güvenilir” olduğunu söylemek gibi
      • Sonunda 401k’mızın yapay zekanın ürettiği modeller tarafından yönetiliyor olabileceği düşüncesi korkutuyor
  • Yapay zekayla finans modeli yapan uzman olmayan kişiler olması ürkütücü geliyor

    • Ama sanırım büyük bir kaza yaşanmadan sermaye sahipleri bunu ciddiye almayacak
    • Yine de yan tarafta Excel’i tutup karşılaştırmalı test yapabilir, bir tuhaflık varsa yapay zekadan açıklama isteyebilirsiniz
    • Sağlık alanına geçince daha da korkutucu olur gibi geliyor
    • Ben de Python’dan Rust’a geçerken öğreniyorum ve LLM’in sık sık hata yaptığını görerek yapay zekaya güvenmenin riskini derinden hissediyorum
    • Aslında birçok Excel modeli de düzgün test edilmiyor. Daha çok “galiba doğru” seviyesinde
  • Şu an Shadow AI’nin doğuş dönemindeyiz
    2000’lerdeki Shadow IT gibi, çalışanlar terminalde gizlice Claude Code çalıştırıyor
    Çünkü resmi Copilot CSV ile bile düzgün başa çıkamıyor
    CISO’lar korku içinde ama yasaklarlarsa yetenekli çalışanlar gider

    • Sorun, bu insanların token’ları ya da hesap yetkilerini doğrudan yapay zekaya vermesi. Bu tam bir güvenlik kâbusu
  • 1980’ler tarzında söylersek, gerçek yenilik sahadaki çalışanların kendiliğinden kurduğu workflow’lardan çıkar
    Çünkü süreci en iyi onlar bilir
    CIO dostu paket yazılımlar ancak daha sonra gelir

    • Sonuçta güç kuyruk dağılımında, yani az sayıdaki deneysel girişimde yatıyor; değişimi onlar sürüklüyor
  • Son birkaç aydır ajanlar işe yarar hale gelince herkes onları yeni yeni kullanmaya başladı
    MCP, LangChain, vector DB gibi şeyler bir dönem modaydı ama şimdi sessiz
    Trendlerden söz etmek için hâlâ çok erken

    • MCP çılgınlığının çoğu satış amaçlıydı. Ama bir protokol olarak bakınca oldukça kullanışlı
      context7 ve playwright MCP sunucularını kullandım; planlama ve geri bildirim döngülerinde etkiliydiler
    • MCP hakkında konuşanların çoğu yalnızca LinkedIn’de aktif olan yöneticiler
    • Benim gibi eski bir Linux kullanıcısı için bile Claude Code ile hafta sonları 2 uygulama tamamlayacak kadar kolaylaştı
    • Gerçekte MCP yerine REST ya da mevcut API’leri daha çok kullanıyoruz
  • Microsoft Copilot’un Excel entegrasyonu berbat
    30 yıldır karmaşık XML formatları üretildiği için LLM bunu anlayamıyor
    Bu yüzden şirketimiz Word belgelerini Markdown’a taşıyor. Bir tür karmaya benziyor

    • Tim Berners-Lee’nin öngördüğü makinelerin okuyabildiği web hayali ancak şimdi gerçeğe dönüşüyor
      Ama belgeleri yapay zeka dostu hale getirmek için gereken zaman giderek artıyor
    • İronik biçimde Claude Code, Excel’de çok daha iyi çalıştı
      Copilot, CSV’ye dönüştürme talimatını bile görmezden gelip başarısız oldu
    • Eskiden stajyerlere Visio XML’i parse edip JSON’a dönüştürme projesi vermiştim; başardılar ama kısa sürede kayboldu
  • Eskiden şöyle bir söz duymuştum — “Artık büyük şirket küçük şirketi yenmiyor, hızlı şirket yavaş şirketi yeniyor
    Şimdi yapay zeka çağında bu daha da doğru geliyor. Sorun, nasıl hızlı kalınacağı

    • Ama hızlı olmak her zaman iyi değildir. Uçurumdan ilk düşen siz de olabilirsiniz
    • Bir de ne zaman yavaşlamak gerektiğini bilmek önemli. Güvenlik ve uyumluluğu bozmadan hızlı hareket etmenin yolu asıl mesele
    • Elbette bu tür sözler tipik startup tavsiyesi ama bazen yavaş olan da kazanır (ör. Teams vs Slack)
 
tazuya 2026-02-05

Copilot hâlâ yerden yere vuruluyor. MS bunu ne zaman iyileştirecek acaba.

 
bichi 2026-02-03

"uşak" 1, 2, 3 olarak kullanıyorum

 
xguru 2026-02-03

Arada Copilot eleştirisi çok ama, asıl
Claude Code Microsoft içinde hızla yayılıyor

Bu durumun yerli büyük şirketlerde de kesinlikle geçerli olması muhtemel.
Şirket kullanın dediği için kullanıyorlar ama ChatGPT/Claude’a izin verilmeyip yalnızca Copilot’un kullanılabildiği yerler kesin vardır diye düşünüyorum.