Bence bu, eskiden beri süregelen Neuro-Symbolic söyleminden ibaret gibi görünüyor. Bir zamanlar "deterministik" olana bugünkünden daha fazla anlam yüklendiği bir dönem vardı. Ancak olasılıksal modellerin performansı, deterministik düzeye yakınsayacak kadar arttıkça tartışma alanının büyük kısmı ortadan kalktı. Sonuçta bizim her zaman istediğimiz şey deterministik bir şey değil, "kabul edilebilir" bir belirsizlikti. Bu açıdan bakıldığında, en azından akademiden ziyade "sektör" perspektifinde determinizme bu kadar büyük bir anlam yüklemeye gerek olmadığını düşünüyorum. En azından mevcut üretici modellerdeki belirsizliğin durağanlaştığı noktada entegrasyon ilerlese bile bunun için hiç de geç kalınmış sayılmaz.

 

EULA ihlali içeren gönderileri biraz düzenlemek daha iyi olmaz mı?

 

İnsansı robotların insanlarla benzer boyutta ve benzer eklem yapısına sahip olmasının nedeni, onlar için ayrıca araçlar ya da hatlar kurmak zorunda kalmamaktır.

Biz zaten şirket genelinde RAG kurup işletme ve bakımını yapma gibi boş işlere giriştik; sonra da agent ve MCP ortaya çıkınca aslında buna gerek yokmuş diye dönüp bakmadık mı? Neden aynı hatayı başka bir yöntemle tekrarlayalım?

İnsanlar yerine agent’ların web’de gezinmesi gibi bayat bir fikirde asıl mesele teknoloji değil; bunun, web’in bizzat bir parçası olan Google’ın ana gelir modelini tehdit eden siyasi bir sorun olması çok daha büyük etki yaratacaktır.

Zaten webMCP, RPA agent’ları tam olgunlaşana kadar geçiş dönemine ait bir alternatiften ibaret. Gidiş o gidiş, yakında xul’a geri dönelim diyenler de çıkar herhalde.

 

Bunun nedeni, modelin boyutlarının ve katmanlarının dengeli biçimde pişirilmemiş olması. Her zamanki gibi.

 

Büyük dil modellerinde (LLM) 'yaratıcılık' ile 'halüsinasyonun (Hallucination)' sonuçta aynı olasılıksal bir sonraki token tahmini (Next-token prediction) mekanizmasının ürünü olduğu, yapay zeka ile çalışan mühendisler için gizli bir gerçek bile olmayan son derece temel bir önkabuldür; ancak bu whitepaper, bunu sanki büyük bir sırrı ifşa ediyormuş gibi abartıyor.

Çoklu ajanların 'otonom düzeltmesini' yalnızca aynı bağlam içindeki 'totolojik tekrar (Homogeneous Iteration)' ile sınırlayıp eleştiren mantık biraz hayal kırıklığı yaratıyor.

Gerçek geliştirme ortamlarında akıllı ajanları IDE içine entegre edip ileri düzey prompt engineering uyguladığınızda, modelin bu olasılıksal doğası 'aşılamaz ölümcül bir kusur'dan ziyade, sistem tasarlanırken sabit kabul edilmesi gereken bir 'temel koşul'dan ibarettir. Modelin bağlamın dışına çıkabileceği zaten baştan kabul edilir; sahadaki yaklaşım, açıkça ayrılmış bağlamlar sunmak veya farklı ölçeklerde bağlamlar üzerinden fiili kontrol kabiliyeti sağlamaktır.

Ancak bu whitepaper, herkesin bildiği bu bariz gerçeği 'kategorik hata', 'olasılıksal dolambaç' gibi gösterişli akademik terimlerle paketleyerek kaygı yaratıyor. Amacı da açık görünüyor. Çünkü ancak LLM'nin otonomisini bütünüyle değersizleştirdiğinde, kendilerinin önerdiği 'insan tarafından doğrudan tasarlanan deterministik kontrol ağı (SERA sistemi)'nın değerini azamiye çıkarabilir.

Sonuçta bu metin, teknik denge duygusuna sahip bir whitepaper olmaktan çok, halüsinasyon riskinden çekinen kurumsal ortamlardaki karar vericileri hedef alarak "kontrol edilemeyen ajanlar yerine bizim hard-coded deterministik pipeline'ımızı benimseyin" diye ikna etmeye çalışan yanlı bir satış konuşmasına (Sales Pitch) daha yakın duruyor.

 
nemorize 11 일 전 | üst yorum | konuda: Aylardır elimle kod yazıyorum (miguelconner.substack.com)

İş için olan kodları yapay zeka ajanlarına bırakıyorum; olabildiğince uzun döngülerle her şeyi onlara yaptırıyorum.
Hobi amaçlı kişisel projeleri ise yapay zeka asistanı ya da yapay zeka otomatik tamamlama da kullanmadan bizzat geliştiriyorum (...)

 
savvykang 11 일 전 | üst yorum | konuda: Aylardır elimle kod yazıyorum (miguelconner.substack.com)

VSCode'un yapay zeka özelliklerini kapatıp Claude Code kullanıyorum; kesinlikle daha konforlu.

 
loblue 11 일 전 | üst yorum | konuda: Aylardır elimle kod yazıyorum (miguelconner.substack.com)

Yapay zeka için vim'i bırakıp vscode'a geçmiştim,
geliştirirken aldığım keyfi kaybetmişim gibi hissettiğim için vim'e geri döndüm.
Yapay zekayı bir assistant olarak kullanıyorum ve kesinlikle geliştirme keyfini yeniden bulmuş gibiyim.

 

Zor yazılmış ama sonuçta söylenmek istenen şey, insana da uygulanabilecek bir içerik.
Aptal A'nın yazdığı bir yazıyı yine Aptal A'nın tekrar görmesi, onu daha iyi bir yazı yapar mı; mesele bu.

Elbette az sayıda durumda daha iyi olma ihtimali de vardır; bütün soruları sallayıp üniversite sınavından tam puan alma olasılığı da vardır. Ama çoğu durumda olan şey, Aptal A'nın N denemedeki ortalama seviyesine geri dönmekten ibaret.

(Chapter 2ye ise tamamen katılamıyorum.)

Yine de keşke insanların, makalede de söylendiği gibi what-ever Scaling Law denen şeyin sonsuza dek sürecek bir yasa değil, geçici bir artış yasası olduğunu biraz anlaması mümkün olsa.
OpenAI makalesine düzgün bakmış olsalardı zaten böyle şeyler söylemezlerdi.

Aslında böyle 100 makaledense, çıkıp sadece "olur" diyen birinin bunun gerçekten olduğunu kanıtlamasıyla iş biter.

Sorun, sadece "olur" şeklinde bir simya yapıyor olmaları.

 

Ben şahsen kendi uzmanlık alanımda yapay zekanın ne kadar yetersiz olduğunu iliklerime kadar hissediyorum. Muhtemelen başka alanlardaki uzmanlar için de durum aynıdır diye tahmin ediyorum. Elbette büyük yardımı oluyor. Gün boyu durmadan belge yazmak gerekiyor ama yine de önceki üretkenlikle kıyaslanabilecek düzeyde değil.

Attention çoğunluğun oyuyla şekillenir.
Doğrulama ajanlarının tek yapması gereken değerlendirme fonksiyonunu geçmektir.
Nitelikli endüstriyel kodların çoğu kamuya açık değildir.
Açık kaynak, gösterilmek için yazılmış koddur.

Bu noktayı her zaman akılda tutarak kullanmak gerekir.

 

Araştırma laboratuvarımızın deney sonuçlarına göre bunun, Qwen ekibi olmayan bir Qwen ekibinin piyasadaki tedirginliği yönetmek için yalnızca benchmark’lara uyacak şekilde aceleyle piyasaya sürdüğü bir model olduğu görülüyor. Araç takıntısı çok güçlü. Bunu 3.5’e kıyasla bir gerileme olarak görüyoruz.

 
fnwinter 12 일 전 | üst yorum | konuda: Agile’a Veda Ederken (lewiscampbell.tech)

Kısa döngülü dağıtımlar dışında Agile’dan geriye ne kaldığını bilmiyorum.
Backlog ve sprint de daha önce zaten başka biçimlerde vardı; müşteriyle iletişim ise gerçekte çoğu zaman duruma uymuyor. Sonuçta bence Agile’dan ziyade DevOps iyileştirmeleri geliştirmede çok daha fazla ilerleme sağladı.

 
snisper 12 일 전 | üst yorum | konuda: Agile’a Veda Ederken (lewiscampbell.tech)

Yazılım geliştirirken sorun olan şey soyutluk değil, belirsizliktir. Doğal dil doğası gereği belirsizdir. Hatta çok anlamlıdır da. Bu yüzden doğal dille kod yazma girişimleri pek iyi sonuç vermiyor olabilir. Durum böyleyken, doğal dilin kodun yerini alması ise akla bile gelecek bir şey değil.

 

Bu tür içerikler, geçmişteki çalışma biçimlerine duyulan bir takıntı gibi görünüyor. Nasıl olsa o tür kısımları yapay zeka daha iyi yapar hale gelecek. Şu anda önemli olan, yapay zekayı kullanırken iyi gitmeyen kısımları iyileştirme deneyimi edinmek. Ama bunun da geçici olduğunu düşünüyorum.

 
runableapp 12 일 전 | üst yorum | konuda: Resmi Clojure Belgeseli (clojure.org)

Kişiden kişiye değişir ama sanırım bilgisayar alanındaki öğrenimi herkes sizin bahsettiğiniz yöntemle yapmıyor mu? Bu aralar videoyla çalışma seçeneği de var, bu yüzden kendinize uygun öğrenme yöntemiyle ilerlemek gerekir.

 
chebread 12 일 전 | üst yorum | konuda: Resmi Clojure Belgeseli (clojure.org)

Peki, saf fonksiyonel programlama dilini nasıl öğrendiniz? Ben şimdiye kadar programlama dillerini (C, Go, Python vb.) geliştirme kitapları + yan projelerle öğrendim; fonksiyonel programlama dilleri için de böyle bir öğrenme yaklaşımını izlemek uygun olur mu?

 

AI kullanmak elektrikli matkap, motorlu testere ve ekskavatör kullanmak gibi hissettiriyor. Cep telefonu kullanımından sonra artık kendi telefon numarasını bile hatırlayamayan birçok insan var.

...Bunları gerileme olarak da görebiliriz ama ben bunu verimlilik olarak görüyorum. Geliştirici olarak ve çeşitli rollerde çalışmış biri olarak baktığımda, AI araçlarının yalnızca geliştiricilerin dünyasında kalmayıp daha geniş bir bakış açısı kazanmaya fırsat ve yardım sunan araçlar olduğunu düşünüyorum. Bir yönüyle gerileme olabilir ama o alanı başka bir şeyle doldurur.

 
runableapp 12 일 전 | üst yorum | konuda: Resmi Clojure Belgeseli (clojure.org)

Benim deneyimim ve birçok kişinin vardığı sonuç, fonksiyonel dillerin saf fonksiyonel bir dille çalışılması gerektiğinin doğru yaklaşım olduğuydu.
Bu, fonksiyonel dillerin öne çıktığı ve epey ilgi gördüğü dönemde söylenmiş bir şeydi; ben de buna katılıyordum. Erlang ile onun ilk çıktığı dönemde çalıştım ve o zamanlar oldukça sarsıcı ve şaşırtıcı bir deneyimdi.

 
runableapp 12 일 전 | üst yorum | konuda: Resmi Clojure Belgeseli (clojure.org)

Clojure’un çıkmasının üzerinden epey zaman geçti ama Clojure’un yeniden konuşulmasının nedenini merak ediyorum.
Clojure ilk çıktığında bir kitabını inceleme deneyimim olmuştu. Sonrasında bunu kullanmayı deneyen birkaç şirket gördüm, ancak vardıkları sonuç şirketlerde kullanmanın kolay olmadığı yönündeydi. Sonra sanki unutulup gidecekmiş gibi görünüyordu; şimdi yeniden gündeme gelmesinin sebebinin ne olduğunu merak ediyorum.

Java’yı ilk dönemlerinden beri uzun yıllardır kullanıyorum ama artık JVM, büyük şirketlerde daha önce geliştirilmiş çok sayıda yazılımın Java olması, (ABD örneğinde) Hindistan’dan gelen iş gücünün çoğunlukla Java bilmesi, liseden üniversiteye kadar Java öğretilmesi gibi nedenlerle hâlâ çok kullanılsa da, bana göre artık bu çağa uygun değil. Lisp’i seviyorum ama oldukça niş bir dilin ve gerilemekte olan JVM yaklaşımının bu yapay zeka çağında yeniden anılmasının hangi avantajları öne çıkardığını yukarıdaki yazıda göremedim.

 
runableapp 12 일 전 | üst yorum | konuda: Sevdiğimiz Her Şey Bir Psyop mu? (techcrunch.com)

Reklam ve pazarlama internetten önce de böyleydi; şimdi ise insanların gördükleri değiştiği ve bunu düzenlemek artık mümkün olmadığı için, dolandırıcılığa yakın yöntemler ortalıkta cirit atıyor.