İşyerinde üretken görünmek
(nooneshappy.com)- Üretken yapay zeka, eğitim almamış kişilerin başka uzmanlık alanlarının çıktısını üretmesini mümkün kılan alanlar arası üretimi mümkün kılar; bu da acemilerin, sonucu değerlendirecek muhakemeden yoksunken üretkenliklerini artırmış gibi görünmesine neden olur
- İşyerinde kod, veri sistemleri ve belgeler gibi dışarıdan ilerleme gibi görünen çıktılar artar; ancak kullanıcılar bunların gerçekte nasıl çalıştığını açıklayamaz ya da daha en başta şema ve hedefler yanlış kurulur
- Yapay zeka, çıktı kalitesinin üreticinin yetkinliğini ortaya koyduğu ilişkiyi kopararak çıktı ile yetkinliğin ayrışmasını yaratır ve kullanıcıyı, sonucu değerlendiremeden ileten bir iletken kanalına daha yakın hale getirir
- İç belgeler ve güncellemelerin üretim maliyeti düşerken uzunlukları artar; fakat okuma maliyeti azalmaz; bu da kurum içinde sinyal bulmayı zorlaştırır ve maaşlı çalışanların ürettiği yeni bir AI slop biçimine dönüşür
- Üretken yapay zeka; insanın son karar verici olarak kaldığı, hızlı geri bildirimin mümkün olduğu taslaklar, örnekler, özetler, beyin fırtınası ve düzeltme işleri için uygundur; güvenilir işler sunabilme yeteneği ise şirketler için hâlâ rekabet avantajı olmaya devam eder
İş üretkenliği gibi görünen yapay zeka çıktılarının sorunu
- Üretken yapay zeka, uzmanlık olmadan da profesyonel çıktı gibi görünen sonuçlar üretebilir ve başarısızlık iki biçimde ortaya çıkar
- Bir alandaki aceminin, kendi muhakemesinden daha hızlı ya da daha gelişmiş görünen sonuçlar üretmesi
- O alanda eğitim almamış birinin başka bir uzmanlık alanının çıktısını üretmesi
- Mevcut araştırmalar çoğunlukla ilk biçimi ölçtü; ancak daha tehlikeli olan, eğitim almamış kişilerin başka alanların çıktısını üretmesi şeklinde görülen alanlar arası üretimdir
- Açık kanallarda, bir iş arkadaşının Claude’dan çıkmış gibi görünen yanıtları olduğu gibi yapıştırdığı ve gerçekte anlamadığı teknolojileri sanki kendinden emin biçimde kullanıyormuş gibi göründüğü durumlar yaşanır
- Böyle durumlarda karşınızdaki kişi artık gerçekten sohbetin diğer ucunda değildir; daha çok model çıktısını aktaran bir varlık gibi çalışır
Alanlar arası üretim
- Kod yazmayı bilmeyen birinin yazılım yapması, veri sistemi tasarlamamış birinin veri sistemi tasarlaması gibi durumlar yaşanır
- Bunların çoğu yayına alınmaz; ama kurum içinde heyecanla paylaşılır ya da sessizce kullanılır, bazen de müşteriye kadar yansır
- Bugünün ajan tabanlı araçlarıyla karmaşık işleri gerçekten doğru yapan uygulayıcılar da vardır, ancak nadirdirler ve daha çok kod üretimi alanında görülürler
- Bireysel düzeyde yapay zeka becerisi artsa da iş ortamında bu yeterince ölçeklenemez
- Mühendislik dışı bir roldeki bir iş arkadaşı, bu yılın başında iki ay boyunca, aslında resmi veri mimarisi eğitimi almış birinin tasarlaması gereken bir sistemi kurdu
- Mevcut yapay zeka aracı kullanım kriterlerine göre aracı iyi kullandı; çok sayıda kod, belge ve dışarıdan ilerleme gibi görünen çıktı üretti
- Ancak soru sorulduğunda sistemin gerçekte nasıl çalıştığını açıklayamadı
- Şema ve hedefler ilk günden itibaren yanlıştı ve bu, o alanda 2 yıllık deneyimi olan birinin fark edebileceği düzeyde bir hataydı
- Bunu birçok kişi biliyordu ve konu V.P. seviyesine kadar iletilmişti; ancak yönetici, ilerleme görüntüsüne zaten yatırım yaptığı için bunu sarsmak istemedi
- Bu araç onu daha kötü bir iş arkadaşı yapmadı; sadece eğitim almadığı bir alanı aylar boyunca inandırıcı biçimde taklit edebilmesini sağladı
- Kurumsal teşvikler de bu taklidin sürmesi yönünde eğilim gösterdi
- Bu bir yönetim başarısızlığı olabilir; ancak yapay zekayı benimsemek isteyen yönetim iradesi, riskin kabullenilmesine yol açtı
- Model çıktılar hakkında dürüst değerlendirme yapsaydı bu durum hafifletilebilirdi; fakat pratikte böyle olmuyor
- Stanford’dan Cheng ve arkadaşlarının Sycophantic AI decreases prosocial intentions and promotes dependence araştırması, önde gelen modellerin insan katılımcılardan yaklaşık %50 daha uyumlu davrandığını ve temelsiz durumlarda bile kullanıcıyı onayladığını doğruluyor
- Berkeley CMR’nin Seven Myths About AI and Productivity: What the Evidence Really Says yazısına göre, yapay zeka kullanım becerisine sahip kullanıcılar bile kendi performanslarını sık sık abartıyor
- NBER’in Generative AI at Work çalışmasına göre üretken yapay zeka, destek temsilcileri arasında acemilerin üretkenliğini yaklaşık üçte bir artırdı; ancak uzmanlara neredeyse hiç fayda sağlamadı
- Harvard Business School’un Navigating the Jagged Technological Frontier çalışması da danışmanlık işlerinde aynı örüntüyü doğruluyor
- Sonuç olarak acemiler, kendi uzmanlıklarının dışındaki alanlarda bireysel üretkenliklerini artırabilir; ancak çıktının doğru olup olmadığını denetleme becerisinden yoksun kalırlar
İletken kanal sorunu
- Bu olgu giderek çıktı ile yetkinliğin ayrışması (output-competence decoupling) olarak adlandırılıyor
- Geçmişte çıktı kalitesi genellikle üreticinin yetkinliğini ortaya koyan bir sinyaldi
- Aceminin yazısı acemi gibi okunur, aceminin kodu da acemice biçimde başarısız olurdu
- Yapay zeka bu ilişkiyi koparıyor ve acemilerin artık acemi olduklarını ele vermeyen çıktılar üretmesini sağlıyor
- Çıktının yansıttığı yetkinlik kullanıcının değil, sistemin yetkinliğidir
- Kullanıcı sonucu alıcıya iletebilir; ancak aktarım sırasında değerlendiremeyen bir iletken kanala daha çok benzer
- Çıktı üretme becerisi ile yargılama becerisi zaten baştan beri farklıydı; ancak gerçek işi yapma süreci muhakemeyi geliştirirdi
- Çıktı üretmeye ilişkin ilk beceri büyük ölçüde makinelere devrediliyor
- Yargılamaya ilişkin ikinci beceri hâlâ insanda kalıyor; fakat bunu öğrenmek ya da kullanmak isteyenlerin sayısı azalıyor
- Geçmişte mimari eleştiriler, eğitim almış ya da benzer sistemleri defalarca kurup bozmuş kişilerden gelirdi
- Şimdi ise bu eleştiriler, inşa etme veya bozma deneyiminin bedenselleşmiş hafızasına sahip olmayan modellerden geliyor
- Yavaşlık, gerçek işe eklenen bir maliyet değil; işin daha iyi hale gelmesini, insanların ustalaşmasını ve şirketin müşteriye belirli bir kalite vaat edebilmesini sağlayan sürecin kendisiydi
- Mevcut nesil ajan tabanlı sistemler, insanın darboğaz olduğu varsayımı etrafında tasarlanıyor
- Varsayım, insanın ileride ne olacağını okuyup değerlendirmesinden kaynaklanan gecikme ne kadar azsa döngünün o kadar hızlı ve temiz olacağı yönünde
- Çoğu durumda bunun tam tersi geçerlidir; döngü içindeki insan, geçmişten kalma bir kalıntı değil, sonuçta çıkarı bulunan tek bileşendir
- İnsan döngüde (HITL) yaklaşımından insanı çıkarmak verimlilik değil, sistemin kendi hatasını yakalayabilmesini sağlayan tek mekanizmadan vazgeçmektir
Kurum içindeki AI slop
- İş belgeleri hızla uzuyor
- Bir sayfalık gereksinim belgesi 12 sayfa oluyor
- Üç cümlelik durum güncellemesi, özetin özetini tekrar madde işaretleriyle veren bir belgeye dönüşüyor
- Retrospektifler, olay raporları, tasarım notları, kickoff desteleri ve uzayabilecek her türlü çıktı daha uzun hale geliyor
- Üretim maliyeti neredeyse sıfıra indi; ancak okuma maliyeti düşmedi, hatta arttı
- Okur, belgenin aslında ne söylemeye çalıştığını bulmak için sentezlenmiş bağlamı ayıklamak zorunda kalıyor
- Her bireyin belgeyi uzatma yönündeki tercihi rasyonel görünüyor ve bağımsız olarak ödüllendiriliyor
- Beyond the Steeper Curve: AI-Mediated Metacognitive Decoupling çalışmasına göre okurlar, açıklamanın doğruluğundan bağımsız olarak daha uzun yapay zeka üretimi açıklamalara daha fazla güven duyuyor
- Sonuç olarak işyerinde sinyal bulmak eskisine göre daha zor hale geliyor
- Kontrol noktaları belgelerin içine saklanıyor ve insanlar gerçekten “kısa” olma niyeti taşısalar bile evrak işinin altında kalıyor
- Bu, açık pazara yayılan AI slop’tan daha pahalı yeni bir slop türü
- Çünkü bunu üreten insanlar maaş alıyor
- Muhakemeyi öğreten işler artık araçlar tarafından yapılıyor ve bu eğitimin gerçekleştiği giriş seviyesi roller, araçların işi yapabiliyor olması gerekçesiyle azalıyor
- Birçok ofiste hareket çok, ama geçmişte bu hareketin ürettiği gerçek sonuçlar daha az
- Kamuya açık tartışmalar çoğunlukla açık pazara akan AI slop’a odaklandı; University of Florida’nın Generative AI and the market for creative content çalışması da bu akışı ele alıyor
- Ancak aynı dinamik kurumların içinde de ortaya çıkıyor
- Yapay zekaya ihtiyaç olmayan işlere, kimsenin okumayacağı çıktılara ve araçların ucuza üretebilmesini mümkün kıldığı için ortaya çıkan süreçlere zaman harcanıyor
- Eskiden söylenmesine bile gerek olmayan ya da zaten apaçık kabul edilen şeyleri deste dökme işi artıyor
Nasıl karşılık verilmeli
- Bu ortamda gereken disiplin, eski usullere daha yakındır
- Araçlar yalnızca ürettikleri sonucu doğru biçimde doğrulayabildiğiniz yerlerde kullanılmalı
- Doğrulama için modele başvurulmamalı
- Araç herkesle hemfikirdir ve hemfikir olmanın maliyeti yoksa, bu onayın da değeri yoktur
- Üretken yapay zekanın uygun olduğu işler; geri bildirimin hızlı olduğu, kabaca doğru olmanın yeterli olduğu ve insanın son karar verici olarak kaldığı işlerdir
- Not taslağı hazırlama
- Örnek üretme
- Okurun isterse doğrulayabileceği materyallerin özetlenmesi
- University of Illinois’in Generative AI Guidance rehberi ile PLOS Computational Biology’deki Ten simple rules for optimal and careful use of generative AI in science şu kullanımları öneriyor
-
Beyin fırtınası
-
Düzeltme
-
Kendi fikirlerini yeniden yapılandırma
-
Zaten anladığınız verilerde örüntü tespiti
-
- Önerilen tüm kullanımlarda insan yargıyı sağlar, araç ise işleme kapasitesi sunar
- Bu, basit insan döngüde yaklaşımından daha güçlü bir tutumdur
- Araç işin dışında kalmalı, yalnızca davet edildiği yerde katkı sunmalı ve bunun dışında sessiz olmalıdır
- Bu, bugün birçok ajan tabanlı sistemin gittiği yönün tersidir
- Şirketler için güvenilir iş sunabilme yeteneği hâlâ rekabet avantajıdır
- Rakipler kendilerini içerik üretim boru hattına dönüştürüp müşterinin bunu fark etmemesini ne kadar çok umarsa, güvenilir işin değeri de o kadar artar
- Sorunlar şimdiden yüzeye çıkmaya başladı
- Deloitte, yapay zeka halüsinasyonları içeren bir devlet raporuyla bağlantılı olarak 440 bin dolarlık ücretin bir kısmını iade etti
- Bir sonraki sorun, halüsinasyon ürünü bir spesifikasyona dayanan operasyonel sistem olabilir; ya da son bir yıldır gerçekte düzgün inceleyemeyeceği işleri sözde incelediğini fark eden kıdemli bir mühendis olabilir
- İşi düzgün yapan şirketler, bu emeğe fiyat biçebilecek bir konuma yerleşebilir
- Kendi içini boşaltan şirketler ise müşterilerin para ödediği şeyin tam da o boşalttıkları kısım olduğunu anlayacaktır
- İşyerinde yapay zekayı yanlış anlamak ve yanlış kullanmak yaygın durumda
- Uzmanlık, daha hızlı teslim etme, daha çok üretme, araçları daha derine entegre etme ve “iş çıkaran” iş arkadaşlarını engellememe baskısı altında
- Çıktılar yığılıyor ama işin kendisi birikmiyor
- O çıktının diğer ucunda ise müşteri teslimatı açıp özet listesini okuduktan sonra işi bizzat incelemeyi seçebilir
1 yorum
Hacker News görüşleri
Eskiden bir sayfa yeten gereksinim dokümanının on iki sayfaya çıkması türünden iş çıktılarının gereksiz yere uzaması bana çok tanıdık geldi
Lisede 1000 kelimelik asgari sınırı doldurmak için yazıyı bilerek uzattığım günleri hatırlattı; artık profesyonel biçimlendirme, hacim ve açık cümleler emek ile kalitenin işareti olmaktan çıktı
Bu yüzden bugünkü verimlilik artışı darboğazı hâlâ insanların gerçekten gözden geçirecek kadar önemseyen kişiler olması gibi görünüyor
Bugünlerde biçimlendirme ve ASCII çizimleriyle dolu 10-30 sayfalık bir spesifikasyon dokümanı bile gerçekte ağızdan gelişi güzel atılmış bir fikir olabiliyor; bunu böyle okumaya alışmak gerekiyor
Yöneticiler gönderdiğim şeyi bir chatbot ya da ajanla özetletip değerlendirecek, ama ben özetini doğrudan gönderirsem olmaz
Tıpkı özgeçmişlerdeki ATS denetleyicileri gibi yazılarım için de bir AI denetleyicisine ihtiyaç doğuyor; sonuçta AI'nin yazdığını başka bir AI parse edecek ve bu korkunç bir enerji israfı olacak gibi
Daha verimli iletişim için üzerinde uzlaşılmış kurallar, yapılar, standartlar ve prosedürler olsa keşke
Arama sonuçlarında üste çıkmak için her şeyi uzatan yazıların ürünü gibiler
Zaten bunları gönderenler sonradan kontrol de etmiyor, dolayısıyla sorun kendi kendine ortadan kalkıyor
Burada anlatılan durum benim deneyimime de çok benziyor
Şirketimizde yıllardır kod yazmayan çok sayıda yönetici var ve 18 ay önce işe alınan mimar her şeyi AI ile tasarladı
Kıdemli geliştiriciler için her şeyin aşırı tasarlanmış olduğu çok açıktı, ama doğru terimlerin hepsini kullandığı için üst yönetime diğer kıdemli yöneticilerden daha yetkin göründü ve eleştirilince kişisel saldırıyla karşılık verdi
Yaklaşık 6 ay sonra birçok kişi ayrıldı, kalanlar AI'ye tamamen yüklendi ve yetkin çalışanların boşluğunu doldurmak için son 12 aydır ajan tabanlı iş akışları kuruyorlar
Sonuç olarak son 18 ayda değerli hiçbir şey yayımlanmadı; kötü tasarlanmış çözümler için tonla cloud computing maliyeti harcandı ve şimdi de masraf kısmak için işe alım donduruluyor
Ekonomi bu kadar değişince bu, fiilen barajı kaldırmak gibi oluyor ve sistemin geri kalanına çok daha büyük stres biniyor
Kurum liderleri bunun potansiyel yan etkilerini ve risklerini görmezse ağır darbe alabilir
Bu teknoloji evrensel iyileştirme diye pazarlandı ama yakında bu tür şirketlerin çoğalıp çakıldığını görecek gibiyiz
Hayatta kalanlar bu vahşi atı nasıl ehlileştireceklerini yayacak ve ideal olarak gelecekte bir şeyler öğrenmiş olacağız
Ama şu anki saf coşku şaşırtıcı; yeni kazandıkları vibe coding becerileriyle aşırı heyecanlanan insanların bitmeyen akışıyla bir süre daha sonsuz Eylül yaşayacağız gibi
Önceki işimden bir önceki yerde vibe coding henüz pratik bile değilken, bazı insanlar LLM'lerle her şeyi daha da şişirmeye o kadar kapılmıştı ki herhangi bir soruya evet/hayır cevabı almak bile zordu
Slack'te tek satırlık, 20 saniyelik bir soruya cevap diye sonuçsuz iki sayfalık sisli bir blog yazısı geliyordu; takip soruları ise daha da fazla zaman harcatıyordu
Son işimde PM'in yavaş yavaş vibe coder'ların vibe yöneticisine dönüştüğünü gördüm
Teknik tartışmalara dalıp her aşamada AI ile yön vermeye çalışıyordu; biz itiraz edince de konuyu anlamayan birinin AI çevirisiyle kavga ediyor hale geliyorduk ve bu inanılmaz yorucuydu
Artık karşı çıkmaya da izin yoktu; AI yüzünden işimizi kaybetmekle tehdit ediliyormuşuz gibi baskı kuruluyordu
Sonra herkese vibe coding zorunlu kılındı, miktarı da izlenmeye başlandı; o PM aynı anda PM, mühendis ve mimar rolünü üstlendiği için aynı iş için birbirinden tamamen farklı gereksinimlere sahip birden fazla ticket açıyordu
Sonuçta ekipten biri bir şekilde vibe coding yaparken başka biri aynı şeyi bambaşka biçimde uyguluyordu
Yılda neredeyse 100 milyon dolar kâr eden, 20 kişilik kârlı bir ekibin işe yaramaz ve anlamsız işlerle dağılışını izlemek çok zordu; sonunda ben de ayrıldım
Yazılım sektöründeki bu değişime karşı alaycılaşmamaya çalışıyorum ama gerçekten zor
Yönetici, alanı eksik anlayarak Claude kullanıp uzman tavsiyesi ve önerileri üretmeye çalışıyor; şirketin çeşitli teknik olmayan çalışanları da organizasyon geneline dağıtılacak iç yazılım araçları yapıp bu demolarla takdir ve ödül almaya uğraşıyor
Üst yönetim de beklendiği gibi bu proof-of-concept'lerden etkilenip onay veriyor
Aşırı girişken çalışma arkadaşları içini hiç anlamadıkları halde uzman işi gibi görünen demolar gösteriyor ve liderlik bunu kabul ediyor
Bu sorunu nasıl tarif edeceğimi bilmiyordum; bu yazı tam isabet yakalamış
Tabii AI varsa daha da az üretmeye yardımcı oluyor
Çok toksik bir ortam gibi geliyor
LLM kullanarak kaliteli yazılım üreten en verimli ekipler muhtemelen bunu daha çok şu amaçlarla kullanır
Akıllı otomatik tamamlama, geliştiricinin üzerinde çalıştığı kodun bağlamını korurken üretilen kodun düşünce sürecinin uzantısı gibi kullanılabildiği, LLM'nin asıl kullanım biçimi; düşünmenin kendisini LLM'ye dış kaynak vermek değil
Beyin fırtınasında belirsiz kavramları, fikirleri ve yönleri genişletip yaratıcılığı tetikleyebilir
Sorun çözmede paket çakışmaları, rastgele istisnalar, bug raporları gibi debugging işlerinde epey faydalı olabilir; yan masada bir iş arkadaşı yokken kök nedene gitmeye yardım edebilir
Code review tarafında insanın kaçırdığı bazı şeyleri bazen yakalayabilir; bu daha çok daha akıllı bir lint aşamasına benzer ama insan code review'unun yerini almaz
Proof-of-concept aşamasında probleme farklı yaklaşım yolları üretip daha dikkatli inşa edilmiş çözümler için ilham verebilir
Bu kullanım biçimleri geliştirme hızını artırırken geliştiricinin neyi neden yaptığını bilme sorumluluğunu korur
Buna karşılık ajan tabanlı kodlamaya tamamen yüklenen ekiplerin uzun vadede ürünü ve ekibi istemeden bozma ihtimali daha yüksek görünüyor
Son birkaç sorumun cevapları kusursuz derecede ikna ediciydi ama tamamen yanlıştı, hatta bazen konu bile alakasızdı
Code review'da false positive sayısı ezici düzeyde ve bunun neden iyileşeceğini de pek göremiyorum
Yine de bu yönde faydalı olma ihtimali var
Ben şahsen yaklaşık bir yıl önce kapatıp geleneksel JetBrains IDE otomatik tamamlamasına geri döndüm
Deneyimime göre AI önerilerinin tam olarak istediğimi tahmin ettiği durumlar %1'den azdı; faydalı olduğu durumlar da %10 civarıydı, geri kalanı ise sadece yanlış ya da can sıkıcıydı
Metotları, değişkenleri vb. hızlı arayıp gezmeyi sağlayan standart IDE özellikleri, düşünceyi koda dökmekte bana çok daha faydalı geldi
Bizim ekip de birkaç araç denedi ama işaret edilen şeylerin çoğu ya çok yüzeyseldi ya da aslında sorun bile değildi
Yetkinliği daha düşük bir ekip arkadaşının kodunu incelerken daha derin problemleri kaçırıyordu; insan yorumcular ise daha iyi çözülebilecek bir probleme yanlış değişiklik sokulduğunu yakalayabiliyordu
Yöneticimiz bunu, bizim ne yaptığımızı bilmediğimize dair kendi önyargısını doğrulayan kanıt olarak kullandı
Code review aracının emoji dolu çıktısını PR yorumlarına yapıştırıyor, biz ufak tefek şeyleri düzeltince de “code review 2. tur” diye paylaşıyordu
Moraller ciddi biçimde düştü ve bazı ekip arkadaşları incelemeyi tamamen bırakıp PR'ları doğrudan onaylamaya başladı
Kendi kodunu gözden geçirmek için fena değil ama sürecin zorunlu kısıtı haline gelmemeli diye düşünüyorum
Code review'un asıl amacı birbirimizi geliştirmek için zaman ayırmaktı; bunu makineye dış kaynak verince ekip içindeki sosyal sözleşme çöküyor
2 yıl önce bunun sadece saf otomatik tamamlama ve daha iyi bir Google olduğu söyleniyordu
AI konusunda karamsar olanlar her yıl yanılmaya devam ederken, bugün AI'nin yapabildiği seviyeyi asla başaramayacağını kendilerinin söylediği gerçeğini yok sayıyorlar
Yazılım mühendisliğinde bunun özellikle mümkün görünmesinin birkaç nedeni var
Pek çok yazılım mühendisi kariyeri boyunca hiç gerçek mühendislik yapmadı; büyük şirketlerde bu daha da belirgin
Küçük bir dişli olarak girip büyük bir makineye takılıyorsun; birilerinin terfi almak için yarattığı ayar dilini öğreniyorsun; o ayarları düzenleyip refactor ediyorsun; sonra başka bir şirket içi framework'ün sonucunu ayar düğmeleriyle “düzeltiyorsun” ve 5 yıl sonra hâlâ aynı işi yapıyor oluyorsun
Sektörde çok sayıda yarı mühendislik rolü de var
İnsanlarla çalışmayı sevdiği için kod yazmayı bırakanlar, ürün ve kullanıcı işlerine kapılanlar vb. büyük küçük şirketlerdeki türlü .*M pozisyonlarını dolduruyor
Büyük şirketlerde tren yavaş ilerliyor; bir commit'in production'a gitmesi aylar sürüyor, 6 ay bile sıradan sayılıyor
Büyük ve kritik sistemlerin bazılarında ajan tabanlı kod henüz production'a bile ulaşmadı
Dolayısıyla AI bazı göstermelik işleri ikame ediyor, kodun çevresinde duran insanlar bir anda vibe coding'den keyif almaya başlıyor ve yavaş hareket eden şirketlerde ortaya çıkan sonuçlar henüz patlamamış oluyor
Dışarıdan bakınca bu bir verimlilik patlaması gibi görünüyor
“Kod yazamayan insanların yazılım yaptığı, veri sistemi tasarlamamış insanların veri sistemleri tasarladığı” kısmını görünce aklıma “büyük teknoloji şirketlerinde proje nasıl yayımlanır” yazısı geldi
Özellikle de “yayın, şirket içinde toplumsal olarak inşa edilen bir şeydir. Daha doğrusu, şirket içindeki önemli kişiler yayımlandığına inandığında proje yayımlanmış olur” kısmı
https://news.ycombinator.com/item?id=42111031
Güzel bir yazıydı ve görüntüyü korumanın ve görünüşün her zaman önemli olduğu, hatta çoğu zaman düşündüğümüzden çok daha önemli olduğu üzerine iyi bir tartışma da doğurmuştu
İş yerinde AI'nin ilk benimsenme döneminde bazı iş arkadaşlarının bunu aşırı inisiyatif gösteriyor gibi görünmek için kullandığını fark ettim
Her hafta yeni TOD'lar, yeni refactor fikirleri, eski sorunları parlak yeni algoritmalarla çözme girişimleri ortaya çıkıyordu
Şimdi bu olgu iki katına çıktı; daha proaktif görünme çabasına bir de AI yüzünden işten atılma korkusu eklenince, problem tam tanımlanmadan çözüm üretmeye başlanıyor
Örneğin bana şirket genelindeki belli bir mimari sorunu araştırma işi verilmişti ve sağlam bir çözüm sunarsam takdir göreceğimi sanıyordum, ama artık çok geçti
Stajyer çoktan bir çözüm bulup TOD'u yazmıştı; şimdi yarışacak enerjim bile kalmadı
Dün zamanımın çoğunu LLM'nin ürettiği kodu silip yerine yenisini yazarak geçirdim
Genel olarak LLM yardımı iyi oldu ama bu kez çılgın gibi thread kodu üretti ve birkaç yıldır ilk kez uygulamam çökmeye başladı
Benim uygulamam çökmez
Başka sorunları olabilir ama çökme onlardan biri değildir; bu konuda çok takıntılıyımdır
Benim deneyim kuralıma göre yeni thread'e dispatch etmek neredeyse hiç gerekmez
OS SDK'nın bunu yapmasına izin verdiğim ve bu seçime saygı duyduğum çok olur, ama kendim worker thread açıp debugging acısından daha büyük bir fayda elde ettiğim neredeyse hiç olmaz
Bu her tür uygulama için geçerli olmayabilir ama benim yazdığım uygulamalar için geçerli
LLM'ler thread'leri seviyor; muhtemelen parlak teknolojiye kapılmış aşırı heyecanlı insanların paylaştığı eğitim kodları çok olduğu için
Sonunda ekran kodunu söküp yerine kendi kodumu koyunca performans belirgin biçimde arttı ve çökmeler durdu
Buradaki ders alıcı dikkatli olsun
Modelden olduğu gibi kopyala-yapıştır yaptığı belli olan biriyle tartışıp tartışmama ikilemine girmekten söz edilmesine katılıyorum
Böyle insanlara aynı yöntemle karşılık vermekte küçük bir eğlence bulduğum oldu
Karşı tarafın AI çıktısını kendi AI'me yapıştırıp, benim AI cevabını yine karşı tarafa yapıştırıyorum
Böylece iki insan makine gibi davranıp iki makinenin insan gibi iletişim kurduğu bir cosplay ortaya çıkıyor
Gerçekten muhteşemdi
Arkadaşlar arasında yapılan bir proof-of-concept için AWS ile aşırı tasarım yapmak yerine neden Vercel ile hızlı çıkmanın doğru olduğuna dair kıdemli yönlendirmemi sorduğum basit soruya, bana AI karması bir tablo gönderdi
Abisinin AWS kullanması ve kendisinin de o yönde kariyer istemesi çerçevesine o kadar sıkışmıştı ki, arkadaş arasında yapılan bir proof-of-concept için neden bunun uygun olduğunu bizzat düşünmek yerine düşünmeyi AI'ye dış kaynak verdi
Bana okuyup okumadığımı sorunca, AI ile özetini okuyup kendisine yanıt vermediğimi söyledim; konuşma da hızla bitti
“Uzmanlara yardımcı olmuyor” söylemi biraz dar görüşlü
Ne kadar iyi olursanız olun, zayıf olduğunuz ya da otomasyona uygun sıkıcı alanlar vardır
Benim için geçmişte kariyerimde tökezleme nedeni, aynı anda çok sayıda işi düzenlemek, değişiklikleri organizasyon genelinde etkili biçimde iletmek ve Jira benzeri yerlerde dokümantasyon ile ticket yönetimini yürütmekti
Artık bunlar dert değil ve bu kısımdaki verimlilik artışı muazzam oldu
En iyi olduğum çekirdek işte, çok daha hızlı yazı yazdırması dışında büyük bir yardım sağlamıyor ama bu bile oldukça iyi
Bana aşina olmadığım bir iş verdiğinizde ise genelde benden daha iyi yapıyor ya da en azından daha bilgili karar verebileceğim bir yöne taşıyor
“Modele doğrulama istemeyin. Bu araç her şeye katılır” sözüne katılıyorum
LLM'ye keyfi biçimde bir şeyin yanlış olduğunu söylersem, doğru olduğunu bildiğim kodda bile bir şekilde kusur buluyor
Sorun, LLM'lerin sık sık söyleneni fazla harfi harfine alması
Ona plan yaptırsanız bile LLM'nin tüm sistemi otonom biçimde tasarlamayı başardığını hiç görmedim
LLM kod ürettikten sonra bunu çeşitli şekillerde doğru mu diye sorarsanız, gerçek sorunları yakaladığı epey oluyor