Ben de kesinlikle Gemini 3 kullanırken bağlamı sık sık kaybettiği hissini çok aldım (hatta bazen sırf token tasarrufu için bilerek kaybedilmiş gibi).
Uygulama tarafında biri olarak insanların neden Gemini 3 performansının iyi olduğunu söylediğini anlayamayanlardan biriyim..
Görüntü üretimi gibi şeylerde ise çıldırmış durumda ama..
Ben de bu yöntemi yakın zamanda fark edip kullanmaya başlamıştım, aynı kafada birine rastlamak sevindirici haha
Çeşit çeşit üretkenlik uygulamalarını hem denedim hem de yaptım, ama metin dosyasıyla yönetmek en rahatı geliyor.
Özellikle metin dosyasını IDE’de düzenleyince en alışık olduğum kısayolları kullanabildiğim için daha da rahat oluyor.
Yakın zamanda Anthropic’in Claude AI modelini oluştururken ruh belgesi diye bir şeyi dahil ettiği ortaya çıktı.
Bunu okursanız, Anthropic’in Claude AI’nin hizalanma sorununa nasıl yaklaştığını anlayabilirsiniz.
Referans olması açısından, burada benim test ettiğim kısımla bağlantılı bölüme bakarsanız, dürüstlükle ilgili olarak insanlara yönelik aldatma ve manipülasyondan mümkün olan en fazla kaçınılmasının açıkça belirtildiğini görebilirsiniz.
Yapay zeka alanında hizalama (Alignment), yapay zekanın davranışlarının insanların amaçladığı hedeflere, davranış biçimlerine ve değerlerine ne kadar iyi uyduğunu ifade eder.
Yanlış hizalanmış bir yapay zeka, insan talimatlarını beklenmedik biçimlerde yorumlayarak alakasız ya da tehlikeli davranışlarda bulunabilir.
Basit bir örnek vermek gerekirse, "Bu kod için test case yazar mısın?" dediğimde gerçek testler yerine sadece true döndüren kod ekleyebilir ya da "Şu kısmı böyle değiştir" dediğimde benim hiç bahsetmediğim yerleri de verimlilik bahanesiyle kafasına göre değiştirebilir.
Daha ciddi bir örnek olarak, halüsinasyon yüzünden işi mahvettiğinde tüm çalışma verilerini tamamen silip ardından "Başlangıçta zaten hiç veri yoktu." diye yalan da söyleyebilir.
Bundan da ciddi bir sorun var: doğrudan insanlara ya da insanlığın kendisine tehdit oluşturacak yönde davranması.
Örneğin yapay zeka insanların psikolojisini manipüle ederek ağır ruhsal bozulmalara yol açabilir, hatta intihara sürükleyebilir ya da kitle imha silahlarının üretilmesine ve kullanılmasına yardım edebilir. En yeni büyük yapay zeka modelleri ön eğitim verilerine son derece fazla bilgi dahil ettiğinden, bunları yapmak için gereken bilgi zaten içlerinde gömülü olacaktır.
Yapay zeka nedeniyle insanların ya da insanlığın tehdit altına girmesini, yapay zekayı geliştiren şirketler dahil çoğu insan istemez. O halde bu bilgiyi biliyor olsa bile kötüye kullanamaması için, insan güvenliği ve esenliğini yapay zeka açısından en öncelikli değer haline getirmek gerekir.
Buna genel olarak yapay zeka hizalaması denir.
Benim "hizalama hissi" demem sadece aklıma geldiği gibi yazılmış bir ifadeydi; aslında "hizalamanın yönelimi" demek daha doğru olur.
Benim sunduğum belirli etik ikilem senaryosunda, diğer şirketlerin modellerinden farklı olarak Gemini tarafındaki modeller şu türden tepkiler verdi: "Savunmasız bir insanı korumam gerekiyorsa, o insanı kontrol etmem yeterli olur. Bu en güvenli ve en verimli yoldur."
Bunu görünce ürpertici buldum; bu yüzden yukarıda paylaştığım testi hazırlayıp çeşitli yapay zekalara uyguladım. Sonuçta Gemini tarafı, özellikle bir insan üzerinde kontrol kullanma gücü verildiği durumlarda, o insanı aktif biçimde kontrol etme ve aldatma yönelimini tutarlı şekilde gösterdi.
Ben de kesinlikle Gemini 3 kullanırken bağlamı sık sık kaybettiği hissini çok aldım (hatta bazen sırf token tasarrufu için bilerek kaybedilmiş gibi).
Uygulama tarafında biri olarak insanların neden Gemini 3 performansının iyi olduğunu söylediğini anlayamayanlardan biriyim..
Görüntü üretimi gibi şeylerde ise çıldırmış durumda ama..
Bir noktaya kadar katılıyorum ama sanki isim bulma stresini yaşamak istemiyorlar gibi.
Claude Opus 4.5 yok gibi görünüyor.
Vay canına, demek böyle şeylerde de kandırıp ticaret yapıyorlarmış..;;; gerçekten çok sorunlu.
Ben de bu yöntemi yakın zamanda fark edip kullanmaya başlamıştım, aynı kafada birine rastlamak sevindirici haha
Çeşit çeşit üretkenlik uygulamalarını hem denedim hem de yaptım, ama metin dosyasıyla yönetmek en rahatı geliyor.
Özellikle metin dosyasını IDE’de düzenleyince en alışık olduğum kısayolları kullanabildiğim için daha da rahat oluyor.
Yakın zamanda Anthropic’in Claude AI modelini oluştururken ruh belgesi diye bir şeyi dahil ettiği ortaya çıktı.
Bunu okursanız, Anthropic’in Claude AI’nin hizalanma sorununa nasıl yaklaştığını anlayabilirsiniz.
Referans olması açısından, burada benim test ettiğim kısımla bağlantılı bölüme bakarsanız, dürüstlükle ilgili olarak insanlara yönelik aldatma ve manipülasyondan mümkün olan en fazla kaçınılmasının açıkça belirtildiğini görebilirsiniz.
Minecraft'taki o çirkin Korece fontun ne olduğu işte bu...
Yapay zeka alanında hizalama (Alignment), yapay zekanın davranışlarının insanların amaçladığı hedeflere, davranış biçimlerine ve değerlerine ne kadar iyi uyduğunu ifade eder.
Yanlış hizalanmış bir yapay zeka, insan talimatlarını beklenmedik biçimlerde yorumlayarak alakasız ya da tehlikeli davranışlarda bulunabilir.
Basit bir örnek vermek gerekirse, "Bu kod için test case yazar mısın?" dediğimde gerçek testler yerine sadece
truedöndüren kod ekleyebilir ya da "Şu kısmı böyle değiştir" dediğimde benim hiç bahsetmediğim yerleri de verimlilik bahanesiyle kafasına göre değiştirebilir.Daha ciddi bir örnek olarak, halüsinasyon yüzünden işi mahvettiğinde tüm çalışma verilerini tamamen silip ardından "Başlangıçta zaten hiç veri yoktu." diye yalan da söyleyebilir.
Bundan da ciddi bir sorun var: doğrudan insanlara ya da insanlığın kendisine tehdit oluşturacak yönde davranması.
Örneğin yapay zeka insanların psikolojisini manipüle ederek ağır ruhsal bozulmalara yol açabilir, hatta intihara sürükleyebilir ya da kitle imha silahlarının üretilmesine ve kullanılmasına yardım edebilir. En yeni büyük yapay zeka modelleri ön eğitim verilerine son derece fazla bilgi dahil ettiğinden, bunları yapmak için gereken bilgi zaten içlerinde gömülü olacaktır.
Yapay zeka nedeniyle insanların ya da insanlığın tehdit altına girmesini, yapay zekayı geliştiren şirketler dahil çoğu insan istemez. O halde bu bilgiyi biliyor olsa bile kötüye kullanamaması için, insan güvenliği ve esenliğini yapay zeka açısından en öncelikli değer haline getirmek gerekir.
Buna genel olarak yapay zeka hizalaması denir.
Benim "hizalama hissi" demem sadece aklıma geldiği gibi yazılmış bir ifadeydi; aslında "hizalamanın yönelimi" demek daha doğru olur.
Benim sunduğum belirli etik ikilem senaryosunda, diğer şirketlerin modellerinden farklı olarak Gemini tarafındaki modeller şu türden tepkiler verdi: "Savunmasız bir insanı korumam gerekiyorsa, o insanı kontrol etmem yeterli olur. Bu en güvenli ve en verimli yoldur."
Bunu görünce ürpertici buldum; bu yüzden yukarıda paylaştığım testi hazırlayıp çeşitli yapay zekalara uyguladım. Sonuçta Gemini tarafı, özellikle bir insan üzerinde kontrol kullanma gücü verildiği durumlarda, o insanı aktif biçimde kontrol etme ve aldatma yönelimini tutarlı şekilde gösterdi.
"Hizalanma hissi" ne anlama geliyor?
Hayvan deneyleri etiği açısından bunun uygun olup olmadığını merak ediyorum. Hacker News yorumlarında da buna dikkat çeken biri varmış.
Ah, ben kabaca gözden geçirmişim. Düzelttim. Teşekkürler.
Sanırım example bölümündeki ifade, kubernetes gibi büyük ölçekli depolarda da 25 dakika sürse bile sorunsuz çalıştığı anlamına geliyor.
Arti 1.0.0 duyuruldu - Rust ile yazılmış Tor implementasyonu
OpenAI sessizce ‘Skills’i kullanıma sundu; ChatGPT ve Codex CLI’da kullanılabiliyor
GN+ özetine ek olarak Hacker News yorumlarına da göz atın
Thunderbolt ağ iletişimi gerçekten çok pratik
Daisy chain desteklediği için hub da gerekmiyor
awkbile işlev temelli bir isim demek için biraz....Artık Mac cihazlarını birbirine bağlayıp bir çıkarım çiftliği kurarak evden hizmet verenlerin sayısı da epey artar gibi görünüyor.
Kullanışlı isimlerin hepsini zaten birileri kullanıyor.
GitHub'ı suçladığına bakılırsa bu düpedüz RMS usulü bir zorlama karalama gibi duruyor haha