3 puan yazan GN⁺ 20 일 전 | 7 yorum | WhatsApp'ta paylaş
  • GPT-2, 8 milyon web sayfası üzerinde eğitilmiş büyük ölçekli bir metin üretici yapay zeka olup, verilen bir cümleyi doğal biçimde devam ettirme yeteneği gösteriyor
  • OpenAI, bu modelin sahte haberler veya çevrimiçi kimliğe bürünme gibi amaçlarla kötüye kullanılma riski taşıdığını belirterek, tam model yerine yalnızca küçültülmüş bir sürümü yayımladı
  • Araştırmacılar, bu tür bir gizli tutma kararının yalnızca geçici bir önlem olduğunu ve benzer modellerin yakında yeniden üretilebileceğini vurguladı
  • Bazıları OpenAI’ı riskleri abartarak dikkat çekmekle eleştirirken, diğer uzmanlar bunu yapay zeka etiği tartışmalarını tetikleyen bir adım olarak değerlendirdi
  • Bu olay, yapay zekanın yayımlanmasındaki sorumluluk ile teknolojinin yayılmasının kaçınılmazlığı arasında nasıl denge kurulacağına işaret eden önemli bir dönüm noktası oldu

OpenAI’nin GPT-2’yi yayımlamayı ertelemesi ve yapay zeka etiği tartışması

  • OpenAI, verilen bir konuya göre tutarlı cümleler üretebilen yeni metin üretim modeli GPT-2’yi geliştirdi; ancak güvenlik ve emniyet gerekçeleriyle modelin tamamını yayımlamayı erteledi
  • Bunun yerine yalnızca küçültülmüş bir sürüm yayımlandı; eğitimde kullanılan veri kümesi ve eğitim kodu ise gizli tutuldu
  • Medya bunu “insanlık için mühürlenmesi gereken düzeyde bir yapay zeka” gibi ifadelerle aşırı biçimde tasvir etti ve uzmanlar risklerin abartıldığı yönünde bir tartışma başlattı
  • Bu karar, potansiyel olarak tehlikeli yapay zeka algoritmalarının ne kadarının kamuya açılması gerektiği üzerine bir tartışmayı tetikledi

GPT-2’nin teknik özellikleri ve performansı

  • GPT-2, 8 milyon web sayfasından alınan metinler üzerinde eğitilmiş, cümledeki bir sonraki kelimeyi tahmin ederek çalışan bir dil modeli
  • Verilen cümlenin üslubuna ve konusuna uygun şekilde doğal biçimde devam eden metinler üretebiliyor
  • Örneğin “And Dağları’nda İngilizce konuşan bir unicorn sürüsü keşfettim” cümlesi verildiğinde, GPT-2 bunu kurgu bir bilim haberi biçiminde tamamladı
  • Ayrıca roman, köşe yazısı, konuşma metni gibi farklı üsluplarda da metin üretebiliyor
  • Üretilen cümleler zaman zaman tekrarlı ifadeler, konu geçişlerinde doğallık eksikliği ve mantık hataları içerse de, önceki modellere kıyasla bağlamı anlama ve cümle tutarlılığı açısından büyük ilerleme gösterdiği değerlendiriliyor
  • GPT-2, çok anlamlı kelimeleri ayırt etme ve nadir kullanımları tanıma becerisine sahip; ayrıca çeviri, chatbot ve yazma yardımcı araçları gibi alanlarda uygulanma potansiyeli taşıyor

Yayımlamayı erteleme kararı ve bunun etrafındaki tartışma

  • OpenAI, GPT-2’nin sahte haber üretimi, çevrimiçi kişiler adına kimliğe bürünme ve spam yayma gibi amaçlarla kötüye kullanılabileceğinden endişe ediyor
  • Bu nedenle tam model yerine yalnızca küçültülmüş bir sürüm yayımlandı ve eğitim verileriyle kod gizli tutuldu
  • Ancak çok sayıda yapay zeka araştırmacısı, bu tür bir gizlilik kararının sadece geçici bir önlem olduğunu belirtti
    • Carnegie Mellon Üniversitesi’nden Robert Frederking, “OpenAI’ın kullandığı teknik yeni değil; diğer araştırmacılar da yakında benzer modeller yapabilir” dedi
  • Yeterli sermaye ve bilgiye sahip kurumların, AWS gibi bulut hizmetlerini kullanarak bile benzer bir model kurabileceği görüşü dile getirildi
  • Bazı araştırmacılar OpenAI’ı riskleri abartarak dikkat çekmekle ve akademik araştırma fırsatlarını sınırlamakla eleştirdi
  • Buna karşılık MIT’den David Bau, bu kararı yapay zeka etiği tartışmasını başlatmaya yönelik bir jest olarak değerlendirdi ve “OpenAI’ın bu soruna dikkat çekmiş olması olumlu” dedi

Yapay zekanın yayımlanması ve etik karar sorunu

  • Harvard Üniversitesi Berkman Klein Center’dan John Bowers, yapay zeka teknolojilerinin yayımlanıp yayımlanmamasının bir maliyet-fayda analizi meselesi olduğunu söyledi
  • Ona göre doğal dil işlemenin gelişimine katkı sağlayan metin üretim algoritmalarının yayımlanması desteklenebilir; ancak gözetim veya manipülasyon için kötüye kullanılabilecek görüntü tanıma teknolojilerinde daha temkinli olunmalı
  • Özellikle deepfake teknolojisinin, “sağladığı faydadan çok daha büyük zararlar doğurduğunu” vurguladı
  • Bowers, bu tür kararların yapay zeka alanının olgunlaşmamış yapısını gösterdiğini değerlendirdi
    • Şu anda makine öğrenmesi alanında, teknolojinin toplumsal etkisini ve etik boyutlarını değerlendirecek sistematik ölçütler yetersiz

Teknolojinin yayılmasını kontrol etmenin sınırları ve tarihsel benzer örnekler

  • Yakın tarihin gösterdiği üzere, yapay zeka araçlarının yayılmasını bastırma veya kontrol etme girişimlerinin başarısız olma ihtimali yüksek
  • Frederking, 1990’lardaki şifreleme teknolojisini düzenleme girişimlerinin başarısızlığını benzer bir örnek olarak sundu
    • O dönemde hükümet, iletişim dinlemesini mümkün kılacak arka kapı yerleştirme yasasını ilerletmeye çalıştı; ancak Phil Zimmerman’ın PGP şifreleme aracını geliştirmesiyle bu çaba etkisiz kaldı
    • Sonrasında güçlü şifreleme teknolojileri yurt dışından da kolayca temin edilebilir hale geldi ve düzenleme fiilen imkansızlaştı
  • Frederking, “Bilimsel ilerlemenin zamanı geldiğinde onu durduramazsınız. Yapabileceğiniz şey sadece nasıl karşılık vereceğinize karar vermektir” diye vurguladı

Sonuç

  • GPT-2’nin yayımlanmasının ertelenmesi, yapay zeka teknolojilerinin riskleri ile yayımlama sorumluluğu etrafındaki önemli örneklerden biri olarak değerlendiriliyor
  • OpenAI’ın kararı, yapay zeka etiği, şeffaflık ve teknolojinin yayılmasının kaçınılmazlığı arasındaki denge sorununu görünür kıldı
  • Uzun vadede, yapay zeka araştırmalarında açıklık ile toplumsal güvenliği uyumlu hale getirecek ölçütlerin oluşturulması gerekiyor

7 yorum

 
sea715 20 일 전

Tam olarak Amodei'nin OpenAI'da olduğu dönemde GPT-2'yi kamuya açmama gerekçesiyle, şimdi Misos modelini kamuya açmama gerekçesi benzer olduğu için paylaşılmış gibi görünüyor. O zamanki Amodei ile şimdiki Amodei arasında değişen bir şey yok..

 
cgl00 19 일 전

Şimdi dönüp bakınca komik geliyor hahaha, 10 yıl bile geçmeden neredeyse gülünç hale gelmiş olması bir yandan da korkutucu.

 
winterjung 20 일 전

Bilgi olarak, GPT-2'den bahseden yazının içeriğine ya da asıl yazının 2019 tarihli olduğuna bakarsanız, son dönemde Anthropic'in Mithos modelini fazla tehlikeli olduğu için yayımlamayacağını söylemesi konusunda, geçmişte OpenAI'nin de GPT-2 hakkında benzer şekilde aşırı hassas davrandığı yönünde bir bağlam olduğunu görebilirsiniz.

HN tarafında eski gönderilere yıl ekleme gibi bir gelenek var gibi görünüyor (otomatik mi ekleniyor emin değilim); GeekNews'te de bunun görünmesi güzel olur diye düşünüyorum.

 
xguru 20 일 전

Çoğu normalde içe alınıyor ama bu sefer nedense atlanıp işlenmiş. Buna dokunulmayacak şekilde düzelteceğim.

 
savvykang 20 일 전

Sam Altman Oppenheimer ile empati mi kuruyor? Eğer tehlikeliyse, güvenli şekilde iyileştirdikten sonra yayımlasalar yine olurdu; ama kullanmayı teşvik etmeleri bana pek tutarlı gelmiyor. Anthropic Mythos vakasının da aynı şekilde olduğunu düşünüyorum.

 
unsure4000 20 일 전

Anthropic'in söyledikleri güven vericiydi ama OpenAI'ın söyledikleri neden bu kadar güven vermiyor acaba?
Anthropic'in zero day yaması geliştirme konusunda show-and-proof yapmış olması yüzünden mi?
Yoksa OpenAI'ın bu repertuvarı zaten defalarca kullanmış olmasından mı?

 
GN⁺ 20 일 전
Hacker News yorumları
  • Birinin böyle OpenAI’nin efsanevi anlarını derlemesi gerektiğini düşünüyorum
    Mesela “GPT-2 fazla tehlikeli”, “64x64 DALL-E fazla korkutucu”, “AGI’ye ulaşıldı”, “Q*/strawberry matematik problemlerini çözdü ve araştırmacılar paniğe kapıldı” gibi şeyler
    Ben de Codex’i seviyorum ama bu tür abartılı tanıtım hem komik hem yorucu
    Bugün bütün gün Codex GPT-5.4, Claude Opus 4.6-1M, Gemini 3.1 Pro gibi modellerle basit bir UI hatasını çözmeye çalıştım ama başaramadım; sonunda kodu kendim açıp düzelttim
    20 dakikada çözdüm; komik olan, bu dili ya da framework’ü hiç bilmiyor olmamdı

    • “Dosyayı açıp kendim düzelttim” demek bugünlerde adeta son dakika haberi gibi
    • Acaba modeller güvenlik kaygıları yüzünden UI hatasını bilerek düzeltmedi mi diye düşünüyorum. UX fazla iyi olursa dünyayı ele geçirirler diye endişelenmiş olabilirler
    • Keşke kodu ya da en azından bir kısmını gösterseydin. Bağlam olmadan bunun model sorunu mu, işin zorluğu mu, yoksa geliştirici sorunu mu olduğunu kimse öğrenemez
    • Bütün gün tek bir dosyaya bakmak istemediği için zaman kaybetmesi komik
      Yine de 20 dakikada düzelttiyse dikkatli olmak lazım — bir şey öğrenmiş olabilir
    • Ben de zamanında yöneticime kodu satır satır kendim yazdığımı söylemiştim
      Bunun zihinsel modeli net tutmanın en iyi yolu olduğunu düşünüyorum
      UI hataları ya da CSS konusunda modeller gerçekten kötü. Unit test şart
  • Bu tartışma Mythos’a verilen tepki gibi görünüyor ama o dönemde OpenAI’nin kararı bence doğruydu
    GPT-2 yayımlandığında sektör tamamen değişti ve bu sadece bir araştırma değil, yeni bir çağın işaretiydi
    Mythos da benzer şekilde daha önce görülmemiş bir şey gösteriyor
    250 sayfalık white paper’ı okudum; hacking yeteneği şaşırtıcı düzeydeydi ve son bir ayda güvenlik iyileştirmelerinin de büyük olduğunu hissettim
    Toplumsal etkiyi düşünerek daha fazla zaman ayırmak olumlu bir şey

    • Bana Gates yasasını hatırlatıyor
  • İstemeden doğru çıkmış olsa da, bugünlerde düşük kaliteli içerik patlaması gerçekten ciddi bir sorun gibi görünüyor

    • Sadece tesadüfen doğru çıkmadı; OpenAI bunu 2019’da zaten tam isabetle öngörmüştü
      “Sentetik görüntü, ses ve video; sahte içerik üretim maliyetini düşürecek ve halk çevrimiçi metinlere karşı daha şüpheci olmalı” demişlerdi; şu an tam olarak bu durumdayız
      İlgili haber
    • Bu zaten gerçek bir sorun. İnternetin büyük bir kısmı güvenilmez bilgilerle dolu
    • Aslında eskiden de içeriklerin çoğu düşük kaliteliydi. LLM öncesinin daha iyi olduğuna inanmak seçici hafıza
    • Bu tür yapay zeka üretimi düşük kaliteli içerikler yeniden yapay zeka eğitim verisine girerse, yapay zeka yapay zekanın çöpünü öğrenir gibi bir kısır döngü oluşur. İnsanın aklına ‘Idiocracy’ geliyor
  • İlk başta yılı fark etmeyince afalladım
    OpenAI yatırım toplamakta zorlanıyor ve New Yorker’daki Altman profili de pek iyi çıkmadı; o yüzden “büyükannenin vurulmasını engelleyin” tarzı bir PR stratejisine geri dönmelerini anlayabiliyorum

    • Başlıktaki yılı fark etmeyince ben de şaşırdım. Bu başlık sanki büyükannemin huzurlu anılarını elimden almış gibi
    • “Büyükannenin vurulmasını engelleyin” ifadesi bu meseleyi en özlü biçimde özetliyor
    • Artık utanmanın ortadan kalktığı bir çağda yaşıyoruz
  • “Gerçekten tehlikeli bir teknoloji olsaydı ayda 20 dolara açılmazdı” diye bir söz var
    Gerçekten tehlikeli olan şeyler asla halka sunulmaz
    Buna rağmen uzmanların bu temel mantığı görmezden gelmesi şaşırtıcı

    • Buna karşılık “Peki ya ghost gun’lar?” diyenler de var
  • Bugünlerde “fazla tehlikeli, o yüzden yayımlanamıyor” sözü Anthropic’in Mythos’unu işaret ediyor
    O kadar güçlü olduğu söyleniyor ki sadece onaylı şirketler erişebiliyor

    • Ben de şirketlere satacağım bir teknoloji olsa “fazla tehlikeli, sadece şirketlere açık” derdim herhalde
    • Ama ironik olan, tehlikeli silahları taşımaya en uygun ellerin şirketlerin elleri olması
  • “Fazla tehlikeli, o yüzden yayımlanamıyor” aslında “model ağırlıkları open source olarak yayımlanmıyor” demekti
    Sonunda ağırlıklar da yayımlandı; yani bağlam Anthropic Mythos’tan farklı

  • O dönemde OpenAI dışında Ben Mann ile birlikte Transformer-XL eğitiyordum
    Aslında GPT-2.5 gibi ağırlıkları yayımlamayı planlıyorduk ama OpenAI’deki arkadaşlar gizli tutmamızı tavsiye etti
    İlgili yazı

    • O “OpenAI’deki arkadaşlara” ömür boyu kin besleyeceğim galiba
    • Sonuçta hepimiz kandırılmış olduk. Onlar open source ruhundan söz ederken pratikte kapalıydılar
    • Connor Leahy de bir GPT-2 klonu yapmıştı ve OpenAI onu bizzat arayıp ikna etmeye çalışmış
      Daha sonra kendi deneyimini ayrıntılı biçimde yazdı
      OpenAI’nin kibar ve samimi davrandığını, ayrıca riskler konusunda hükümet ve istihbarat kurumlarının bakış açısını da anlattığını söylüyor
      Sonunda o da “önlemek tedavi etmekten iyidir” diyerek modeli yayımlamaktan vazgeçmiş
      Bir gün daha tehlikeli bir model çıktığında, o zaman için bir emsal bırakmak istediğini söylemiş
  • İyi yazılar hep Amerikalılar uyuduktan sonra geliyor

    • OP çok erken paylaştığı için bunun ana sayfadan düştüğü söyleniyor
  • 2019’da okuduğum GPT-2’nin tek boynuzlu at haberi üretme örneği hâlâ aklımda
    O zaman gerçekten sarsıcıydı. GPT-3.5 ya da 4’ten bile daha şaşırtıcı gelmişti

    • “Dört boynuzlu tek boynuzlu at” gerçekten klasik bir unutulmaz sahne