kuthia 10 일 전 | üst yorum | konuda: Anthropic, Claude Design'ı tanıttı (anthropic.com)

Deneyince peçete üzerindeki eskizleri tanıma başarısının şaşırtıcı olduğunu gördüm. Artık sohbete bile gerek kalmadı.

 
overthinker1127 10 일 전 | üst yorum | konuda: Aylardır elimle kod yazıyorum (miguelconner.substack.com)

Ben ise tam tersine, AI Agent kullandıktan sonra nvime geçtim.
Kaynak koda bakmak nvim ile çok daha rahat olduğu için..

 

Katılıyorum. Havacılık-uzay, tıp, hassas kontrol alanları gibi gelişmiş domainlerdeki kritik veriler tamamen kapalı iç ağlarda bulunuyor ve bunlara erişmek için ya kilit bir içeriden biri olmak ya da dışarıdaysanız ciddi bir maliyet ve NDA imzası sürecinden geçmek gerekiyor; ancak o zaman kısmen açılıyor. Yapay zekanın öğrendiği verilerin çoğu internette açık olan şeyler ve Python, JavaScript tabanlı web/uygulama servisleri söz konusuysa Full Automation bir ölçüde mümkün.

Gelişmiş domainlerde kullanılan 3D grafikler ve CAD tabanlı algoritmalar internette ya parçalı halde dağılmış durumda ya da hiç yok; bu yüzden yapay zeka da vibe coding ile olsa olsa yüzeysel sonuçlar üretebilir. Tek bir ana ajanı merkeze koyup, domain bağlamını mikro yönetim seviyesinde sürekli enjekte ederek Planning → Redirection → Review döngüsüyle, geliştiricinin doğrudan yönettiği, tam otomasyon değil sürekli güçlendirme yaklaşımıyla geliştirme yapmanın güvenli ve gerçekçi bir yaklaşım olduğunu düşünüyorum.

 

Beynini devreden çıkarıp vibe coding yapan geliştiricileri görünce sinirim tepeme çıkıyor. Ortaya çıkardığı sonucun kalitesi berbatken bir de "AI yazdı" diye bahane uydurmayı denesin. Sorumluluğu yine kendisi almak zorunda.

 

Siyah öküzle sarı öküzden hangisi işi daha iyi yapar?

Azarlanan öküz işi daha iyi yapar.

 

Sanki hep buna benzer bir mantıkla karşı argüman getiriliyor gibi.. Hesap makinesi hesapta hata yapmaz. Kendi görevini düzgün yapar.

 

Teşekkürler. Claude’un token tüketimi de yüksek ve iş kalitesinden de Codex’e kıyasla pek memnun kalmadığım için ben de son zamanlarda daha çok Codex ile çalışıyorum.

 

Değerli bilgi paylaşımı için teşekkürler. Temelde token kullanımının kendisinin zaten çok azaldığını hissediyorum; keşke Claude tarafında biraz artırılsa. Harness çalışırken yarıda kesiliyor da...

 

Bu yüzden nesnellik gerektiren sorularda, istemde "olumlu/eleştirel/sentez" şeklinde 3 bölüm halinde yanıt vermesini istiyorum.

 

Vay canına......!

 

Ben de bu görüşe katılıyorum.
Sonuçta bunun net takasları olan bir araç olduğunu düşünüyorum.
Yapay zekayı kullandıkça kodlama becerisinin azalacağından endişe etsem de, eskiden yapmadığım (ya da yapamadığım) başka türden meseleler üzerine düşündüğüm de kesin.

 
kimjuik 10 일 전 | üst yorum | konuda: OpenClaw'ı gerçekten kullanıyor musunuz? (news.ycombinator.com)

Şirkette çeşitli alarmları (Slack’ten günde 100’den fazla geliyor) düzenli olarak özetleyip önemli olanlarda sorumluları etiketleyerek otomatik bildirmek için kullanıyoruz. (Deneysel olarak bazı altyapılara DevOps rolü verip çalıştırmayı da deniyoruz.)

Başta oldukça memnundum ama yükseltmeden sonra güvenlik gereksinimleri sıkılaştı ve giderek aptallaşmış gibi hissettiriyor, hıçkırık hıçkırık .. Günde yaklaşık 100 dolarlık Bedrock token harcıyor..

 

id
name
displayName
email
active
admin
guest
timezone
createdAt
updatedAt
lastSeen

Verilerin yanı sıra npm token'ları veya GitHub token'ları gibi API anahtarlarının da sızdığı söyleniyor. Veri satanların ortaya çıktığı da belirtiliyor.

 

> Bu çöküşün temelinde, Transformer mimarisinin kalbinde yer alan softmax normalizationın matematiksel sınırları bulunur. Attention mekanizması altında, tüm token’ların dikkat ağırlıklarının toplamı zorunlu olarak 1 olmalıdır; yani sıfır toplamlı bir dağılımı izler. Bu nedenle giriş dizisinin uzunluğu N geometrik olarak büyüdükçe, belirli bir kritik token’a atanabilecek bilgilendirici ağırlık kaçınılmaz olarak 1/N’e yakınsar ve aritmetik olarak seyrelir. Bu da basit bir hesaplama verimsizliğinin ötesinde, modelin işlemesi gereken noise floorun hızla yükseldiği anlamına gelir.

Bu artık şaka gibi bir şey..

 

Sadece argümanları sıralayan, iddialar için belirleyici kanıt ve doğrudan deney içermeyen, besin değeri olmayan bir yazı gibi duruyor.

Yann LeCun’un “GPT-5000’e gidilse bile model, masanın üstüne bir nesne koyup masayı itersen nesnenin de birlikte itileceğini öğrenemeyecektir” ya da “otoregresif modeller, dizi uzadıkça hata birikimi nedeniyle kaçınılmaz olarak çöker” sözlerinin sıkıcı bir uzantısı gibi...

Açık konuşmak gerekirse, beyaz kâğıdın sonunda adı geçen şirket için viral amaçlı yüklenmiş bir içerik olup olmadığından şüpheleniyorum.

 
hhcrux 11 일 전 | üst yorum | konuda: Aylardır elimle kod yazıyorum (miguelconner.substack.com)

Geçenlerde gördüğüm bir mizah yazısı aklıma geldi
Kodu bizzat elle yazdıktan sonra yapay zekadan iyileştirmesini istemişler
Phase 1: çöp kodu sil
diye çıkmış, hahaha

 

Bunu sadece kodlamayla sınırlamak gerekmez. Arzu edilen zorluk, yalnızca klişe bir slogan değil; çeşitli bilimsel dayanaklara dayanıyor.

 

Bir gün hesap makinesi bozulup 3 X 3 = 10 diye sonuç verirse ve kimsenin bunun yanlış olduğunu fark edemeyeceğinden endişe ediyorum... Bunun banka hesabımı yöneten programcının bilgisayarında yaşandığını düşünürsek... Dikkatli olmakta zarar yok gibi görünüyor.

 

Ben de kendi uzmanlık alanımda hâlâ eksiklerim olduğunu hissettiğim için, yardım aldığım alanlarda da seviyenin aşağı yukarı bu kadar olacağını düşünüp dikkatli davranıyorum. Öte yandan gelişim hızı oldukça yüksek olduğu için, kalite beklentisi uzun süre bu düzeyde kalacak işlerde kullanmayı deniyorum.

 

Hesap makinesi varken çarpım tablosunu ezberlemek, geçmiş çalışma biçimine yönelik bir takıntı gibi görünüyor. Nasıl olsa bu tür şeyleri hesap makinesi daha iyi yapacak. Şimdi önemli olan, hesap makinesini kullanırken iyi gitmeyen kısımları iyileştirme deneyimi. Ama bunun da geçici olduğunu düşünüyorum.