qwertypotter 25 일 전 | üst yorum | konuda: Vibe coding kültü çılgınlık (bramcohen.com)

dogfooding'i tekelcilik olarak değil, daha çok dog pudding olarak görmek daha doğru olur.

 

Çok kötü.. Bizde de benzer bir şey vardır, değil mi..?

 

Ben bu aralar ana araç olarak Codex kullanıyorum ama birkaç farklı şeyi test etmek için Claude Code’u çalıştırınca.. Token tüketimi neden bu kadar hızlanmış gibi geliyor -.-? Çok da önemli olmayan bir koddı ama gerçekten çok şaşırdım.

 

Daha güvenli çalışabilen araçlar daha da eklenerek gelişirse bence harika olur.

 

"Yapay zeka ajanları için backend" gibi zamanlaması yerinde bir konumlandırma güzel görünüyor. Tüm full-stack geliştirmeyi ajana yaptırırsanız token israfı ciddi olur, bu yüzden biraz daha hızlı olabilir gibi duruyor.

Ama mesele şu ki... bu gerçekten Supabase MCP'den daha iyi mi? diye düşündürüyor. Sanırım asıl kritik nokta, ajanlara yönelik otomasyonun nereye kadar gelişebileceği.

 

Tarayıcıların desteklediği özellikler ve güvenlik gereksinimleri o kadar büyük ki, modern tarayıcıları neredeyse başlı başına bir işletim sistemi gibi görmek mümkün.
Yine de bu kadar bellek tüketmeleri gerçekten fazla.

 

Ah, bunun bir tür haber ya da bilgi içeriği olduğunu düşünüp okudum ama içerik biraz garip gelince reklam mı diye yorum yazmıştım; ciddi cevabınız için teşekkür ederim.

 

Güzelmiş. Frontend ve tasarımla uğraşanlar genelde buna benzer şeyleri önceden hazırlayıp öyle başlıyor.

 

İşin özü "kazanma oranı".
Sadece bir sonraki kelimeyi tahmin etmekle, bırakın işe yarar cümleler kurmayı, kodlama ya da matematiği bile düzgün yapamazsınız.
Bu tür teknikler 60'lar ve 70'lerde ortaya çıktı.

(Aslında tam olarak kelime de değil)

 

Öyle de görünüyor.

Ancak sonuçta modelin kendisi yalnızca bir girdi-çıktı fonksiyonu. Uygun bir harness ve agent loop verildiği varsayımı altında, modelin hedefe ulaştığını söylemek geçerli gibi görünüyor.

 

Orijinal metinde yapay zekanın uzmanlığın tamamının yerini alabileceği gibi bir iddia hiç yoktu. Ben de zaten böyle düşünmüyorum...

 

Yöneticiyim.
GeekNews, çeşitli biçimlerde haber ve bilgi paylaşımını amaçlar; doğrudan derlenmiş yazılara da belirli bir kapsam içinde izin verilmektedir.
Ancak aynı kullanıcı tarafından belirli bir alan adının tekrar tekrar paylaşılması durumunda, kriterler doğrultusunda kısıtlama uygulanır.
Bu konu da yine kriterler doğrultusunda incelenmekte ve düzenlenmektedir.
Bazı önlemler dışarıdan görünmeyebilir.

 

gpt 3: sonraki kelime tahmini -> doğru
gpt 3 sonrası transformer tabanlı modeller: sonraki kelime tahmini -> doğru.
AlphaGo, AlphaZero, MuZero, ... : sonraki hamle tahmini -> doğru.
(belirli) bir hedefe ulaşan model -> doğru.

Söylenenlerde yanlış bir şey yok

 

Uzmanlığın tamamı ikame edilebilir bir şey değil, değil mi? Terimin türetilme süreci baştan garip.

 

Kafam karıştı. Şaka mı yapıyorsunuz, yoksa benim bilmediğim yeni bir yöntem ya da teknoloji mi çıktı??

 

AlphaGo da en yüksek kazanma olasılığına sahip bir sonraki hamleyi hesaplayıp tahmin etmiyor mu?????

 

“Sonraki token tahmini”, uygulama düzeyindeki bir açıklama olarak doğru olsa da, modeli̇n yeteneklerini ya da amacını açıklama biçimi olarak eksik kalır diye özetlenebilir mi?

 

O zaman ortada, daha iyi tahmin yapan bir modelde buluşmak iyi olabilir 😄

 

Hmm... Belki de yazı, niyetimden farklı bir şekilde aktarılmış olabilir diye düşünüyorum. Eğer bu yazıda LLM’nin teknik değerini küçümsüyormuşum gibi hissedildiyse özür dilerim.

Ancak bu yazının amacı, abartılı ambalajı ve gizemleştirmeyi kaldırıp meseleye soğukkanlı bakmaktı. Bu yüzden kişisel olarak, buna "hedefe ulaşan model" denildiğinde bunun gizemleştirme olduğunu düşünüyorum. Sonuçta ister sıradan yazılım olsun ister model, ikisi de bir tür "hedefe" ulaşmak için var.

Bu yüzden, kişisel merakımı da ekleyerek sormak isterim: Kullandığınız ifadenin teknik açıdan daha doğru olup olmadığını tekrar açıklayabilir misiniz?

 

Baştan sona Analytics reklamı gibi görünüyor. Kulağa makul geliyor ama sonuçta reklam; ayrıca hada.io işletmecisinin de fazla başıboş bıraktığı düşünülebilir.