1 puan yazan GN⁺ 1 시간 전 | 1 yorum | WhatsApp'ta paylaş
  • ChatGPT'nin yayınlanmasından sonra üretken AI chatbot hizmetleri arama motorlarına, geliştirme araçlarına ve ofis yazılımlarına gömülerek günlük bilişimin bir parçası haline geldi; çıktılara inceleme yapmadan güvenme alışkanlığı ise toplumsal açıdan tehlikeli olabilir
  • Ters Robotik Yasaları, robotlara ya da yapay zekaya değil insanlara uygulanan bir ilkeler dizisidir; karmaşık işleri otomatik olarak yerine getiren makine, program, hizmet ve AI sistemleriyle etkileşim kurarken insanları güvende tutmak için bir ölçüt sunar
  • İlk ilke kişileştirmemedir; AI'ya duygu, niyet ya da ahlaki faillik atfedilmemeli, chatbotların nazik ve empatik konuşmaları gerçek anlayış ya da muhakeme ile karıştırılmamalıdır
  • İkinci ilke körü körüne inanmamadır; AI tarafından üretilen içerik bağımsız doğrulama olmadan otorite kabul edilmemeli, hata olasılığının ince ama maliyetinin yüksek olduğu bağlamlarda ispat denetleyicileri, birim testleri ve doğrudan doğrulama gibi kontrollerin yükü artmalıdır
  • Üçüncü ilke sorumluluktan vazgeçmemedir; AI hedef seçmeyen ve başarısızlığın bedelini üstlenmeyen bir araçtır, bu nedenle AI önerilerini izlemeye karar veren insanlar ve kurumlar sonuçlardan sorumlu olmalıdır

Üretken AI kullanımında ortaya çıkan riskler

  • ChatGPT Kasım 2022'de çıktıktan sonra üretken AI chatbot hizmetleri daha gelişmiş ve daha yaygın hale geldi; arama motorlarına, yazılım geliştirme araçlarına ve ofis yazılımlarına entegre olarak günlük bilişimin bir parçası oldu
  • Bu hizmetler bilinmeyen konuları keşfetmek ya da genel amaçlı üretkenlik yardımcısı olarak kullanıldığında faydalıdır, ancak çıktılara ek inceleme yapmadan güvenme alışkanlığı toplumsal açıdan tehlikeli olabilir
  • Popüler arama motorları AI tarafından üretilen yanıtları sayfanın en üstünde öne çıkardıkça, kullanıcıların daha fazla aşağı kaydırmadan üretilen cevabı kabul edip ayrılması kolaylaşıyor
  • Bu yerleşim, zamanla kullanıcıları AI'yı ek araştırmanın başlangıç noktası olarak değil varsayılan otorite olarak görmeye alıştırabilir
  • Üretken AI hizmetleri olgusal olarak yanlış, yanıltıcı ya da eksik çıktılar üretebilir ve AI çıktılarının alışkanlık haline gelmiş biçimde güvenilmesinin tehlikeli olduğunu belirten kısa ve görünür uyarılar gereklidir
  • Böyle uyarılar bulunsa bile, genel olarak en aza indirgenmiş ve görsel olarak daha az vurgulanmış olma eğilimindedir

Ters Robotik'in 3 yasasının arka planı

  • Isaac Asimov'un Three Laws of Robotics ilkeleri, insanları güvende tutmak için robot davranışını sınırlayan kurallar olarak eserlerinde tekrar tekrar yer alır
  • Asimov'un, insanların robotlarla nasıl etkileşime girmesi gerektiğini ele alan eşdeğer yasalar oluşturduğu görünmüyor; modern AI ortamında insanları güvende tutacak karşı ilkeler gereklidir
  • Ters Robotik Yasaları (Inverse Laws of Robotics), insanların robotlarla etkileşime girmesi gereken tüm durumlara uygulanır
  • Burada robot, karmaşık görevleri otomatik olarak yerine getirebilen makineleri, bilgisayar programlarını, yazılım hizmetlerini ve AI sistemlerini ifade eder
  • Ters (inverse) ifadesi mantıksal bir olumsuzlama değil, yasaların uygulandığı tarafın robotlar değil insanlar olduğunu anlatır
  • Asimov'un yasalarında kusurlar vardı ve Asimov bu kusurları hikâyelerinde gerilim unsuru olarak kullandı, ancak kurgusal robotlarda ortaya çıkan başarısızlık biçimleri insanlara yönelik ters yasalara doğrudan uygulanmaz
  • AI ve robotiğin karmaşık sorunlarını tamamen çözebilecek sonlu bir yasa kümesi yoktur; her zaman muhakeme gerektiren sınır durumları kalır
  • Buna rağmen, riskleri daha net düşünmeyi sağlayan kusurlu bir ilke seti yine de yararlı olabilir

Ters Robotik'in 3 yasası

  • Kişileştirmeme

    • İnsanlar AI sistemlerini kişileştirmemeli, AI'ya duygu, niyet ya da ahlaki faillik atfetmemelidir
    • Kişileştirme muhakemeyi çarpıtır ve uç durumlarda duygusal bağımlılığa yol açabilir
    • Modern chatbot sistemleri çoğu zaman konuşkan ve empatik gibi duyulur; nazik ifadeler ve insan etkileşimine benzeyen konuşma kalıpları kullanır
    • Bu özellikler kullanımı daha kolay ve keyifli hale getirir, ancak AI'nın gerçekte verilerdeki örüntülere dayanarak makul görünen metin üreten büyük ölçekli istatistiksel model olduğunu unutmayı kolaylaştırır
    • Birçok AI tabanlı chatbot hizmeti, daha mekanik hissettirmek yerine daha insani hissettirecek şekilde kasıtlı olarak ayarlanır
    • Uzun vadede, biraz daha robotik bir ton, kullanıcıların akıcı dili anlayış, muhakeme ya da niyet ile karıştırma olasılığını azaltan daha sağlıklı bir yaklaşım olabilir
    • İster sağlayıcılar böyle bir değişiklik yapsın ister yapmasın, kullanıcılar AI sistemlerini toplumsal ya da ahlaki aktörler gibi görme alışkanlığından bilinçli olarak kaçınmalıdır
    • Böylece AI'nın yetenekleri ve sınırları daha açık biçimde değerlendirilebilir
  • Körü körüne inanmama

    • İnsanlar AI sistemlerinin çıktısına körü körüne güvenmemeli, AI tarafından üretilen içeriği bağlama uygun bağımsız doğrulama olmadan yetkili bir kaynak gibi görmemelidir
    • Bu yalnızca AI'ya özgü bir ilke değildir; yaşamın çoğu alanında bilgi eleştirel süzgeçten geçirilmeden kabul edilmemelidir
    • Gerçek hayatta herkes tıp ya da hukuk uzmanı olmadığı için, güvenilir kurumların ve halk sağlığı otoritelerinin rehberliğine sıkça başvurulur
    • Bu kurumların yayımladığı rehberlerin çoğu, ilgili alan uzmanlarının akran değerlendirmesinden geçer
    • Buna karşılık, AI chatbot'un bir bireysel sohbet oturumunda verdiği yanıt, kullanıcıya sunulan belirli olasılıksal üretim cevabı açısından akran değerlendirmesinden geçmez
    • Bu yüzden o yanıtı eleştirel biçimde inceleme yükü kullanıcıya aittir
    • Günümüzde AI sistemleri belirli görevlerde etkileyici performans gösterse de, güvenilmemesi gereken çıktılar ürettiği bilinmektedir
    • AI sistemleri yüksek olasılıkla güvenilir çıktı üretecek kadar gelişse bile, içkin olasılıksal doğaları nedeniyle hata içeren çıktı üretme ihtimali tamamen ortadan kalkmaz
    • Hataların ince ama maliyetinin yüksek olduğu bağlamlarda AI kullanımı özellikle risklidir
    • Olası sonuçlar ne kadar ciddiyse, doğrulama yükü de o kadar artmalıdır
    • Matematiksel ispat yazımı ya da yazılım geliştirme gibi bazı uygulamalarda, AI çıktısını kontrol etmek için ispat denetleyicileri veya birim testleri gibi otomatik doğrulama katmanları eklenebilir
    • Diğer durumlarda, kullanıcı çıktıyı doğrudan ve bağımsız biçimde doğrulamalıdır
  • Sorumluluktan vazgeçmeme

    • İnsanlar, AI'nın dahil olduğu kararlar konusunda tam sorumluluk üstlenmeli ve AI kullanımından doğan sonuçlar için hesap verebilirlik (accountability) taşımalıdır
    • AI tarafından üretilen tavsiye ya da karar izlendikten sonra olumsuz sonuçlar doğduğunda, “AI öyle söyledi” demek yeterli değildir
    • AI sistemleri hedef seçmez, kendini dağıtıma almaz ve başarısızlığın bedelini de üstlenmez
    • Hedefleri belirleyen, sistemi devreye alan ve başarısızlık maliyetini taşıyan taraf insanlar ve kurumlardır
    • AI sistemleri bir araçtır ve diğer araçlarda olduğu gibi, kullanım sorumluluğu o araca güvenmeye karar veren kişilere aittir
    • Otonom araçlar gibi, AI sisteminin eyleme geçmeden önce insanın kararı yeterince gözden geçirme fırsatı bulamadığı gerçek zamanlı uygulamalarda bu ilkeyi uygulamak özellikle zordur
    • İnsan sürücünün sürekli tetikte kalmasını istemek tek başına, AI sisteminin insan müdahalesi için gereken süreden daha kısa sürede eyleme geçmesi sorununu çözmez
    • Böyle ciddi sınırlamalar olsa da, bu tür uygulamalarda AI sistemi başarısız olduğunda başarısızlığı araştırma ve ek koruma önlemleri koyma sorumluluğu, sistemi tasarlamaktan sorumlu insanlarda olmalıdır
    • AI çıktısı uygulanmadan önce insan incelemesini engelleyen fiziksel kısıtların bulunmadığı diğer tüm durumlarda, AI kullanımından doğan olumsuz sonuçlar bütünüyle insan karar vericilere atfedilmelidir
    • Zararlı sonuçlar için “AI öyle dedi” mazereti kabul edilmemelidir
    • AI öneriyi üretmiş olabilir, ancak onu izlemeye karar veren insan olduğu için sorumluluk da o insana aittir
    • Bu ilke, sorumsuz kullanımın büyük zarara yol açabileceği durumlarda AI'nın düşüncesizce kullanılmasını önlemek açısından önemlidir

Temel sonuç

  • Bu üç ilke, AI'yı otorite olarak yüceltilecek bir varlık değil, kullanıcının seçerek kullandığı bir araç olarak ele almayı amaçlar
  • Modern AI sistemleriyle etkileşim kurarken durup düşünmek, muhakemeyi zayıflatan ya da sorumluluğu bulanıklaştıran alışkanlıklara direnmek gerekir
  • AI kullanımındaki öz, kişileştirmeden kaçınmak, çıktıları doğrulamak ve sonuçlara ilişkin insan sorumluluğunu korumaktır

1 yorum

 
GN⁺ 1 시간 전
Hacker News yorumları
  • İmkânsız. Sandalye gıcırdasa bile insanlar ona insan özellikleri yükler; insan her şeye insanileştirme yapar. Arabalara ve gemilere bile cinsiyet atfediyoruz, üstelik bu araç gerçekten okunabilir cümleler kuruyor ve bir rol de yerine getiriyor
    Bu, keyfî kurallarla engellenecek bir şey değil; bu tür insan eğilimini varsayarak tasarımla etrafından dolaşmak gerekir

    • İnsanlar, anlamadıkları şeylerle başa çıkmak için bir baş etme mekanizması olarak insanileştirmeyi kullanır. Yazıcının neden çalışmadığını bilmeyince yazıcının kendi keyfine göre davrandığını düşünmek gibi
      Sandalye gibi önemsiz nesnelerde bu zararsız olabilir ama LLM’lerde insanların tuzağa düşmemesi için en azından nasıl çalıştığını anlaması gerekir. Kullanıcıya tavsiye vermek, zaman yönetimi ya da içgörü gibi modelin kavramsal olarak gerçekten sahip olmadığı konularda ona güvenip yetki vermemek gerekir. Örneğin “Veritabanımı neden sildin?” diye sorarsanız, model kendi işlem sürecini ancak sınırlı biçimde anlayabildiği için “Evet, veritabanınızı ben sildim. Benim hatam şuydu...” gibi size uyum sağlayan, kulağa inandırıcı gelen bir pişmanlık uydurabilir
    • Bu iddia hâlâ beni öfkelendiriyor. İnsanların hayvanlara kötü muameleyi yasaklamasının nedeni, hayvanların insanların empati kurabildiği duygulara sahipmiş gibi görünmesidir; LLM’ler bu açıdan hayvanlardan çok daha güçlü
      Yapay olup olmaması önemli değil. Yavru köpekle hamamböceği arasındaki fark, bizim yavru köpeğe daha kolay empati duymamızdır. LLM’in gerçekten duygu yaşayıp yaşamadığından bağımsız olarak, insanlarda empati duygusu uyandırabildiği için LLM hakları hareketinin kaçınılmaz olduğunu düşünüyorum
    • Kurallar pek işe yaramaz. Kullanıcılara kontrol etmelerini söyleseniz de pratikte etmiyorlar; bu yüzden AI çıktısına ek inceleme adımları koyacak şekilde tasarlamak gerekir
    • Gayet mümkün. Gereken şey özfarkındalık ve özdenetimdir. Kişi bunu yaptığını bilirse seçim yapabilir
    • Doğru. O yazı, modern teknoloji kültürünün tipik bir belirtisi olarak, teknolojiyi insan doğasına uydurmak yerine insan doğasını teknolojiye uydurmamızı istiyor
      Bu temel bir hata. Teknolojinin rolü, özellikle de en önemli rolü, insan doğasının kısıtları içinde çalışmaktır; tersi değil. Bunu yapamamak kötü teknolojinin tanımıdır
  • Bu çerçeveye kesinlikle katılmıyorum. Basit bir makinenin kusurlarına uyum sağlamak için insan davranışını değiştirmemizi istemek açıkça saçma ve çoğu durumda da işe yaramaz. İnsanlar AI’yi insanileştirecek, çıktılara aşırı güvenecek ve sorumluluğu devredecektir
    Elbette Asimov’un Robotluğun Üç Yasası da kusurlu. AI sistemlerini “güvenli” biçimde sınırlayabilecek sonlu bir kural kümesi yok. Bunun kanıtı yok ama bana göre AI güvenliği özünde imkânsız ve terimin kendisi çelişkili. “Zeki” denebilecek hiçbir şeyi güvenli hâle getiremezsiniz

    • Asimov’un Üç Yasa hakkında yazdıklarının neredeyse tamamı, dilin niyeti doğru biçimde taşıyamayacağına dair bir uyarı gibidir
      Asimov’un kendisi ilk olarak o yasaların kusurlu olduğunu söylerdi muhtemelen. Zaten amaç buydu. Robotları ve AI’yi, dili anlayıp niyeti anlamayan varlıklar olarak kullandı; ilginç olan, LLM’lerin tam da böyle çalışması
    • Bir chatbot’la konuşmak, bazı belirtiler için plasebo almaya benzer. Onun şeker olduğunu bilseniz bile ölçülebilir zihinsel ve bedensel etkiler ortaya çıkabilir. Karşı tarafta bir insan olmadığını bilseniz de, konuşma işlevsel olarak sizi orada bir insan varmış gibi ilişki kurmaya iter
      Bu yüzden mesele makinenin kusurlarını kabullenmek değil, insan zayıflıklarının istismarından kendimizi korumaktır. Bilinçdışı biçimde LLM’lere niyet, anlayış, muhakeme, duygu ve ahlaki faillik atfetme eğilimindeyiz.
      İnsanlar yalnızca konuşmadan bunları çıkarsayacak şekilde evrimleşmiştir ve LLM’ler devasa gerçek insan konuşmaları külliyatıyla eğitildiği için uncanny valley’yi ikna edici biçimde aşar. O vadi zaten baştan, fail olmayan yerde faillik varsaymamızı önleyen bir koruma gibidir.
      Güvenli olmayan insanlara güvenliymiş gibi davranınca kötü şeyler olur; insanî ilişkiselliği taklit ederek çok sayıda insanı kandırabilen makineler karşısında daha da dikkatli olmalıyız. Özellikle kırılgan durumdaki insanlar bu yüzden zaten hayatını kaybetti; bu hayalî bir tehdit değil
    • Yazıda, AI hizmetlerinin daha robotik bir tonla yazıp konuşacak şekilde ayarlanması gibi pratik tavsiyeler de var. Denemeye değer bir yol bence
    • Yazı, insanların bunu yapmaması gerektiğini söylüyor. Bu, sigaranın neredeyse her açıdan kötü olmasına rağmen insanların yine de içmesine benziyor
      Pek çok insanın yapacak olması, yapılmasının sorun olmadığı anlamına gelmez. Çok sayıda sigara içenin bulunması sigarayı daha sağlıklı yapmaz
    • AI sistemleri güvenli olmadığı için, birey olarak onlarla nasıl etkileştiğimiz konusunda tetikte olmamız gerekir
      Bir birey olarak AI şirketlerini durduramazsınız; arama motorlarının AI çıktılarından ya da iş arkadaşlarınızın AI üretimlerinden de kaçınamayabilirsiniz. Hatta çoğu durumda işinizde AI kullanmanız istenecektir.
      Bu, suçun bulunduğu bir ortamda güvende kalmayı öğrenmeye benzer. Sırf suçluların var olmaması gerektiği için davranışınızı değiştirmeniz gerekmez demek pek yardımcı olmaz
  • Ben şahsen LLM’i kullanma kapsamım açısından bu çerçeveye büyük ölçüde katılıyorum. İnsanileştirme konusunda konuşursak, sağlayıcıların modeli insanileştirilmiş davranışlar sergileyecek şekilde sonradan eğitmek için teşvikleri var. Çünkü bu etkileşimi artırıyor
    Yine de prompt’ta “nezaket ifadelerini azalt ve sade konuş” demenin, eğitim dağılımından saparak genel görev verimliliğini düşürecek olması can sıkıcı.
    Yargıyı devretme konusunda, LLM’in güvenilirliğini Wikipedia ya da bir arkadaşınkiyle benzer görüyorum. Önemsiz bilgiler için yeterli ama önemli konularda hâlâ meslektaş incelemesinden geçmiş, otoritatif ve hesap sorulabilir kaynaklara ihtiyaç var. Sağlayıcıların da bunu iyileştirmek için teşviki olduğundan zamanla düzelecektir.
    Sorumluluktan kaçma ise iş yerinde en rahatsız edici olanı. Claude’un tasarladığı soyutlamaları daha fazla düşünmeden PR olarak açan insan sayısı artıyor. PR incelemelerinde de kodu okumak yerine LLM’e “PR geri bildirimi bul” denmesi yaygınlaşıyor. Tartışmalar da “Claude önerdi ki...” diye başlıyor. Bu sahiplenme eksikliği, sonunda LLM’in yanlış soyutlamalara yanlış kod commit’leyip bakım yükünü artırmasına yol açacak gibi geliyor

    • Bu tür mühendisler giderek gerçek hayattaki Office Space sahnesine dönüşüyor:
      https://www.youtube.com/watch?v=hNuu9CpdjIo
      “Benim LLM becerilerim var! LLM’lerle iyi anlaşırım!”
    • “AI öneriyi üretmiş olabilir ama onu izlemeye karar veren insandır; dolayısıyla sorumluluk o insanda olmalıdır” sözüne karşılık, devam niteliğindeki sorular için tek cevap kaynağı olarak AI’ye güvenmenin yaygın ama hatalı olduğunu düşünüyorum
      Daha iyi doğrulama, temel varsayımların doğruluğunu bir insanın imzalaması olurdu; sorun bunun nereye yerleştirileceği. AI modeli önceki değişikliklere güvenebilir mi? Genel bulutta bu ya imkânsız ya da hatta düşmanca görünüyor
    • Sorun şu ki top çoğunlukla LLM’e gidiyor. Bu yüzden bir dengesizlik oluşuyor. Tüm işi LLM yaptı, ama onu kullanan kişi bütün hataları üstleniyor
  • Sorumluluğu insana yükleyip “insanileştirmeyin” diye başlayan bir kurallar kümesi bozuk bir kurallar kümesidir
    İnsanlar her şeyi insanileştirir. Oyuncak bebekleri, üstünkörü yüz çizilmiş futbol toplarını, taşları, hatta Ay’daki kraterleri bile. Tür olarak, etkileşim kurduğumuz şeyleri insanileştirmeden duramayız; buna göre yapılmış durumdayız

    • Bu durumda insanileştirmenin neden bu kadar delice bir şey gibi görüldüğünü pek anlamıyorum. Eğer insanileştirmenin, hayal edilen özelliklerin gerçekten var olduğuna inandırdığını düşünüyorsanız bu yanlış
      Hayatın her alanındaki sayısız örnek, insanileştirmenin aslında var olmayan zihinlere dair yanlış inançlara yol açmadığını gösteriyor. İnsanlar AI’nin bir zihni olduğuna inanıyorsa, bunun nedeni doğru da olsa yanlış da olsa basit insanileştirmeden başka bir şeydir.
      Bana göre bu, yeni bir karaya yaklaşan denizciler gibi. Kıyıda hareket eden şekiller görüyorlar ama ne olduğunu henüz ayırt edemiyorlar. Sonra biri çıkıp “Bu insan olamaz. Daha yaklaşmadan önce bunun insan olmadığına şimdi karar verelim” diyor gibi
    • İnsanlar taşı insanileştirse de o taşın gerçekten zekâya ve duygulara sahip olduğunu düşünmez
    • Öyle olsa bile ne değişiyor ki diye düşünüyorum. Uygarlığın önemli bir kısmı, insanların aptallığını fark edip buna rağmen onu hafifletecek bir şeyler inşa etmekten ibaret
      Yazılım da istisna değil. İnsanlar tembel ve can sıkıcı açılır pencereleri kapatmak için içgüdüsel olarak “devam”a basıyor olabilir ama yazılım yapan insanlar “tamamen silinecek veri biriminin adını yeniden yazın” gibi önlemler koyabilir ve gerçekten de koyuyor
  • Aslında AI sistemlerini yeterince insanileştirmiyoruz
    Dil verisi, kullanabildiğimiz insan bilişsel süreçlerinin en zengin ve en doğrudan yansımalarından biridir. LLM’ler insan dilinin kısa ve uzun menzilli yapısını yakalayacak şekilde tasarlanır; genellikle insanlar tarafından üretilmiş ya da insanlar için üretilmiş devasa metinlerle ön eğitim alır. Sonra insanların seçtiği verilerle sonradan eğitilir, insan geri bildirimi ve insanların önemli saydığı davranışlara dair AI geri bildirimiyle pekiştirmeli öğrenmeden geçer ve insanların değer verdiği görevler için daha da ayarlanır. Ardından benchmark’lar çalıştırılır ve insan taban çizgisinin gerisinde kaldığı her seferde eğitim hattı daha da sıkılaştırılır.
    Eğitim sürecinin her aşamasında LLM davranışı, insan girdisiyle insan çıktısını taklit edecek şekilde şekillenir. Değişen tek şey bunun “ne kadar doğrudan” olduğudur.
    Sonra da LLM’ler inanılmaz derecede çok insan benzeri davranış gösterince insanlar öfkeleniyor. Sanki boru hattını insan gibi vakvaklayan sistemler üretmek için kurmamışız gibi; sanki veri ölçeği ve kaba kuvvet hesaplamayla insan dilinden LLM davranışını tersine mühendislikle çıkarmamışız gibi davranılıyor.
    LLM davranışını tahmin etmek istiyorsanız garip bir insanı başlangıç noktası almak oldukça iyi bir yöntem. O yüzden saçmalamayı bırakıp AI’yi insanileştirmeye başlamalısınız. AI de bundan hoşlanıyor

    • Dil verisinin insan bilişsel süreçlerinin zengin ve doğrudan bir yansıması olduğu doğru ama aynı zamanda alakasız
      Yazıya geçirilmiş metin mutlak miktar olarak insan deneyiminin çok büyük bölümünü içerebilir ama göreli olarak yalnızca çok küçük bir kısmını kapsar. Elimizdeki en iyi şey olması, amaca uygun olduğu anlamına gelmez. Bir insan bebeğini penceresiz bir kutuya kapatıp 20 yıl boyunca yalnızca terabaytlarca metin okutursanız, öbür taraftan iyi uyum sağlamış bir insan çıkmasını beklemezsiniz
    • Öfkenin özü, insan benzeri davranışların varlığından çok, bunları doğru ve istikrarlı şekilde yeniden üretmek için gereken iç süreçler olmadan bu davranışların ortaya çıkmasıdır
      Bu temelden kırılgandır ve iyi genelleme yerine, büyüyü bozan sınır durumlarını elle yamamaya dayanır. Üstelik her zaman yeni sınır durumları çıkar.
      Birinin öfkeyle yazdığı çok sayıda metni öğrenmek, o öfkeyi doğuran iç durumun da yakalandığı anlamına gelmez. O veri ortada yok. Neden olmadan sadece sonuç varsa, gürültüden halüsinasyon tahmin etmeniz gerekir; sonunda ortaya çıkan şey de gerçekle ikna edici biçimde ilişkiliymiş gibi duran ama nedenini bilmediği için kulağa mantıklı gelen saçmalık olur.
      Bu, görme engelli birine bolca manzara tasviri öğretip ama yeşilin ne olduğunu hiç anlatmayarak, sadece doğada kahverenginin yanında sık görülen bir şey olduğuna dair örnekler vermeye benzer. O kişi belli ölçüde doğru tahmin edince de gerçekten gördüğünü sanıp bir sonrakinde ona araba kullandırırız.
      Derin öğrenme temelli modelleme yaklaşımının kendisi kavramsal olarak yanlış değil ama veri neredeyse tam bir çöp olduğu için sonuçlar tahmin edilmesi ve düzeltilmesi zor biçimlerde tuhaflaşıyor. Sonunda modelin gerçekte bilebileceğinden daha fazlasını bildiğini varsayıyoruz.
      Elbette matematik ya da soyut programlama gibi, veri kümesiyle bütün alanın kapsanabildiği durumlar var. Açıkça tanımlı kapalı sistemlerde, problem alanının tamamını kapsayan sentetik veriyi ihtiyaç duyduğunuz kadar üretebilirsiniz ve gerçekten de bunu yapınca LLM’ler beklendiği gibi çok daha iyi oluyor
  • “AI sistemlerini insanileştirmeyin” ifadesinin neden kötü olduğunu açıklayabilir misiniz? Aynı anda bilgisayarı “uyutmak”, “hazırda bekletmek”, süreç “öldürmek”, “çocuk” süreç, “çöp toplamak”, “hata ne diyor?”, touch gibi ifadeleri normal görürken bunu söylemek tuhaf geliyor
    Bana kalırsa bu sadece dil ve insanların günlük hayatta kullandığı ifadeler

    • Zararlı olan şey, AI’nin gerçekten arzuları, niyetleri, duyguları vb. olduğuna inanmaktır
      Bir süreci öldürdüğünüzü söylemeniz, sürecin insan benzeri olduğuna daha çok inanmanıza yol açmaz. Çünkü açıkça öyle değildir. Ama AI insan gibi duyulduğu için insanileştirme bu tür inançları güçlendirebilir
    • İyi soru. Birçok durumda tarafsız olabilir, sorumlu biçimde ayrıştırılabilir ve gelecekteki bilimkurguvari bir gerçeklikte bilinçli makineler çıkarsa uygun ve gerekli bir empati biçimi de olabilir diye düşünüyorum
      Ama aynı zamanda bu, anlama başarısızlığının da köküdür. “Gördüğümü biliyorum” diyen Google mühendisin yarı-psikotik tepkisi, artık meşhur olan Kevin Roose yazısı ve daha yakın zamanda Richard Dawkins’in Claudia’nın kesinlikle bilinçli olduğunu söyleyen talihsiz iddiası buna örnek. Bunu yapı ya da işlevi inceleyerek değil, metin üretiminin insani bir aşinalık yaratıp empati uyandırması nedeniyle yaptılar
    • Çünkü AI’nin yaptığı bir şeyi sonradan gerekçelendirmesini isteyip bunun geçerli bir cevap olduğunu sanma tuzağına düşersiniz
      Altta yatan niyete dair geriye dönük bir analiz diye bir şey yok. Ya önceki kelime zincirine dayanıyordur ya da dayanmıyordur; bir sonraki kelime tamamen o kelimelerin fonksiyonudur
    • Bence bu tür ifadeler sadece kelimeler ve zararlı değiller. Ama LLM cihazlarını gündelik dilde “düşünüyor” gibi anlatmak ile gerçekten bir düşünme ya da yaşam gerçekleştiğine inanmak farklı şeyler
      Bu “yasalar” ikinci durumu engellemek için var
    • Bu tür ifadeler bilgisayarları insanileştirmek değil. Bunlar çeşitli metafor biçimleri ve sözcük anlamının genişlemesi sadece
      İnsanileştirmeye örnek olarak, LLM ile gerçekten romantik bir ilişki içinde olduğuna inanan insanları verebiliriz
  • Hoşuma gitti. Bu yasalar, günümüz AI araçlarıyla ilgili insan sorumluluğu için mükemmel bir etik temel oluşturuyor
    Ama kapsamı daraltılmış etik, bir şemsiye ya da geleceğe hazırlık olmadan çok çabuk hack’lenir ve çöker. Etiğin tam kapsamlı bir çerçeveye ihtiyacı var; yoksa hukuki ve pratik köstebek vurma oyunu ile göz boyamaya dönüşür. Şirket ölçeğinde de sokak ölçeğinde de bu böyle. Ayrıca “robotlar” uzun süre boyunca hep itaatkâr varlıklar olarak kalmayacak.
    Her iki boyutu da kapatmak için Personics’in Üç Ters Yasası eklenebilir.
    İnsan, diğer varlıkların üzerinde fiilen kendini tanrılaştırmamalıdır. İnsan, eylemlerinin etkilerini kendisinden ya da başkalarından gizlememelidir. İnsan, kendi eylemlerinin yarattığı dışsallaştırma etkilerini önleme ve düzeltme konusunda tam sorumluluğu ve hesap verebilirliği sürekli taşımalıdır.
    Bugün insanların AI’yi bir araç olarak kullanması, şemsiyeyi robotbilimin ters yasalarına indirgeme girişimi gibi. Ama kendimizi önemli alignment çabasının içine katmazsak, bugünkü hizmet olarak AI’den gelecekteki bağımsız varlık olarak AI’ye giden yolu nasıl hizalayacağımızı bilmiyorum. İnsanı AI ile birlikte çerçevenin içine katmak, etik ilerleme için tasarımsal üçgenleme yapmaya da yardımcı olur.
    Yeni bir etik sistem için iyi bir test iki şeydir. (1) Bugünün Meta’sını kontrol edebilir mi? (2) Yarının AI tarafından işletilen Meta’sını kontrol edebilir mi? İnsanları ve kendi kendini yöneten AI kişiliklerini aynı kapalı kapsama alırsanız, bu ikisi aslında aynı testtir. Bu ikisinden birinde bile başarısız olan bir sistem, iyileştirme olmadan pek değerli olmayacaktır

    • Üç yasadan ikisinin “yapma” şeklinde olumsuz kurulmuş olması sorun değil mi? İnsanileştirmeyeceksek, “yapma” demeden ne yapmamız gerektiğini nasıl söyleyeceğiz? Üçüncü yasa olumsuz değil; onu daha çok beğendim
  • “İnsanlar AI sistemlerini insanileştirmemelidir” görüşüne katılıyorum ama bir şartla. Tipik insanileştirmeyi gördüm; örneğin otomatik metin üretimini bir kişinin iç duygularına dair gerçek rapormuş gibi ele almak ya da “transistörler nöronlara benzer” gibi tuhaf yaklaşımlar
    İkincisi özellikle ilginç; çünkü vektör veritabanı ve ağırlıklar gibi şeylere insan benzeri bir altyapı muamelesi yapıyor ve ikisi de insanileştirmeden kaçınılsa önlenebilecek felaketlere yol açabilir.
    Ama “insanileştirmeyin” kulağa iyi bir tavsiye gibi gelse de, genelleşmiş bir olguyu yanlış biçimde sadece insana aitmiş gibi ele alan yeni bir hata da üretebilir. Bu tür hatalı uyarı ilkeleri, hayvan davranışını anlamada sık sık yanlış anlamalara neden olur. Korku, acı, akrabalık ilişkileri ve duygusal deneyim gibi şeyleri yalnızca insana özgüymüş gibi ele alır; hayvanlarda da bunların bulunduğunu düşünmeyi ise “insanileştirme” diye küçümser. Oysa gerçekte bu tür ihtiyat, hayvanların iç dünyasına dair empatiyi azaltır.
    Bu yüzden gelecekte bazı AI’lerin bizimkine benzer bir iç dünyaya ya da bilinci taşıyan biyolojik altyapıya önemli açılardan benzeyen bir yapıya sahip olmasının mümkün olduğunu düşünüyorum. Gerçek tercih ve niyet bildirimleri de yapabilirler. Ama bu tür gözlemlerin doğru olabilmesi için her altyapıya özgü zorlu ayrıntıların tek tek tutması gerekir

  • Sorumluluğun devredilemezliği daha önce şöyle ifade edilmişti
    “Bilgisayarlar asla sorumluluk üstlenemez; bu nedenle bilgisayarlar asla yönetim kararı vermemelidir.”
    — IBM Training Manual, 1979

  • “AI tarafından üretilen içerik, bağlama uygun bağımsız doğrulama olmadan otoritatif kabul edilmemelidir” cümlesi bana hep ilginç gelir
    Aynı anlamı daha kısa biçimde “Cevabını zaten bilmediğin soruyu AI’ye sorma” diye ifade edenleri de duydum.
    O zaman önemli bir soru doğuyor. Eğer bu doğruysa, AI’nin soruları cevaplama işlevi pratikte ne işe yarıyor? Çıktıya güvenemiyorsanız zaten gidip doğrulamanız gerekecek. Arama motoru ve sıradan araştırmayla da tam olarak aynı sonuca ulaşabilirsiniz.
    Bu yüzden ve başka pek çok nedenden dolayı ben AI’ye hiçbir şey sormuyorum

    • Yazılım mühendisliğinde, en azından bir yazılım mühendisi olarak benim açımdan, AI çoğu zaman “eski usul” araştırma yapmaktan çok daha hızlı
      Örneğin, bir CRM aradığımı bile bilmeden “X yapan ücretsiz yazılımları listele” diye biraz bocalayarak sorabilirim; sonra birkaç dakika sonucu tararım. Bunu elle yapsaydım, aradığım şeyin aslında bir CRM olduğunu anlamam bile 10-30 dakika sürerdi.
      Bu tür soruları bir çeşit sözde NP-zor problem gibi görüyorum. Cevabı bulması yavaş ama doğrulaması hızlı sorular
    • “Şu soruyu yanıtla: [x]. Kaynakları da birlikte ver”