OpenAI, riskler nedeniyle yeni dil modeli GPT-2’nin tamamını yayımlamayı erteledi (2019)
(slate.com)- GPT-2, 8 milyon web sayfası üzerinde eğitilmiş büyük ölçekli bir metin üretici yapay zeka olup, verilen bir cümleyi doğal biçimde devam ettirme yeteneği gösteriyor
- OpenAI, bu modelin sahte haberler veya çevrimiçi kimliğe bürünme gibi amaçlarla kötüye kullanılma riski taşıdığını belirterek, tam model yerine yalnızca küçültülmüş bir sürümü yayımladı
- Araştırmacılar, bu tür bir gizli tutma kararının yalnızca geçici bir önlem olduğunu ve benzer modellerin yakında yeniden üretilebileceğini vurguladı
- Bazıları OpenAI’ı riskleri abartarak dikkat çekmekle eleştirirken, diğer uzmanlar bunu yapay zeka etiği tartışmalarını tetikleyen bir adım olarak değerlendirdi
- Bu olay, yapay zekanın yayımlanmasındaki sorumluluk ile teknolojinin yayılmasının kaçınılmazlığı arasında nasıl denge kurulacağına işaret eden önemli bir dönüm noktası oldu
OpenAI’nin GPT-2’yi yayımlamayı ertelemesi ve yapay zeka etiği tartışması
- OpenAI, verilen bir konuya göre tutarlı cümleler üretebilen yeni metin üretim modeli GPT-2’yi geliştirdi; ancak güvenlik ve emniyet gerekçeleriyle modelin tamamını yayımlamayı erteledi
- Bunun yerine yalnızca küçültülmüş bir sürüm yayımlandı; eğitimde kullanılan veri kümesi ve eğitim kodu ise gizli tutuldu
- Medya bunu “insanlık için mühürlenmesi gereken düzeyde bir yapay zeka” gibi ifadelerle aşırı biçimde tasvir etti ve uzmanlar risklerin abartıldığı yönünde bir tartışma başlattı
- Bu karar, potansiyel olarak tehlikeli yapay zeka algoritmalarının ne kadarının kamuya açılması gerektiği üzerine bir tartışmayı tetikledi
GPT-2’nin teknik özellikleri ve performansı
- GPT-2, 8 milyon web sayfasından alınan metinler üzerinde eğitilmiş, cümledeki bir sonraki kelimeyi tahmin ederek çalışan bir dil modeli
- Verilen cümlenin üslubuna ve konusuna uygun şekilde doğal biçimde devam eden metinler üretebiliyor
- Örneğin “And Dağları’nda İngilizce konuşan bir unicorn sürüsü keşfettim” cümlesi verildiğinde, GPT-2 bunu kurgu bir bilim haberi biçiminde tamamladı
- Ayrıca roman, köşe yazısı, konuşma metni gibi farklı üsluplarda da metin üretebiliyor
- Üretilen cümleler zaman zaman tekrarlı ifadeler, konu geçişlerinde doğallık eksikliği ve mantık hataları içerse de, önceki modellere kıyasla bağlamı anlama ve cümle tutarlılığı açısından büyük ilerleme gösterdiği değerlendiriliyor
- GPT-2, çok anlamlı kelimeleri ayırt etme ve nadir kullanımları tanıma becerisine sahip; ayrıca çeviri, chatbot ve yazma yardımcı araçları gibi alanlarda uygulanma potansiyeli taşıyor
Yayımlamayı erteleme kararı ve bunun etrafındaki tartışma
- OpenAI, GPT-2’nin sahte haber üretimi, çevrimiçi kişiler adına kimliğe bürünme ve spam yayma gibi amaçlarla kötüye kullanılabileceğinden endişe ediyor
- Bu nedenle tam model yerine yalnızca küçültülmüş bir sürüm yayımlandı ve eğitim verileriyle kod gizli tutuldu
- Ancak çok sayıda yapay zeka araştırmacısı, bu tür bir gizlilik kararının sadece geçici bir önlem olduğunu belirtti
- Carnegie Mellon Üniversitesi’nden Robert Frederking, “OpenAI’ın kullandığı teknik yeni değil; diğer araştırmacılar da yakında benzer modeller yapabilir” dedi
- Yeterli sermaye ve bilgiye sahip kurumların, AWS gibi bulut hizmetlerini kullanarak bile benzer bir model kurabileceği görüşü dile getirildi
- Bazı araştırmacılar OpenAI’ı riskleri abartarak dikkat çekmekle ve akademik araştırma fırsatlarını sınırlamakla eleştirdi
- Buna karşılık MIT’den David Bau, bu kararı yapay zeka etiği tartışmasını başlatmaya yönelik bir jest olarak değerlendirdi ve “OpenAI’ın bu soruna dikkat çekmiş olması olumlu” dedi
Yapay zekanın yayımlanması ve etik karar sorunu
- Harvard Üniversitesi Berkman Klein Center’dan John Bowers, yapay zeka teknolojilerinin yayımlanıp yayımlanmamasının bir maliyet-fayda analizi meselesi olduğunu söyledi
- Ona göre doğal dil işlemenin gelişimine katkı sağlayan metin üretim algoritmalarının yayımlanması desteklenebilir; ancak gözetim veya manipülasyon için kötüye kullanılabilecek görüntü tanıma teknolojilerinde daha temkinli olunmalı
- Özellikle deepfake teknolojisinin, “sağladığı faydadan çok daha büyük zararlar doğurduğunu” vurguladı
- Bowers, bu tür kararların yapay zeka alanının olgunlaşmamış yapısını gösterdiğini değerlendirdi
- Şu anda makine öğrenmesi alanında, teknolojinin toplumsal etkisini ve etik boyutlarını değerlendirecek sistematik ölçütler yetersiz
Teknolojinin yayılmasını kontrol etmenin sınırları ve tarihsel benzer örnekler
- Yakın tarihin gösterdiği üzere, yapay zeka araçlarının yayılmasını bastırma veya kontrol etme girişimlerinin başarısız olma ihtimali yüksek
- Frederking, 1990’lardaki şifreleme teknolojisini düzenleme girişimlerinin başarısızlığını benzer bir örnek olarak sundu
- O dönemde hükümet, iletişim dinlemesini mümkün kılacak arka kapı yerleştirme yasasını ilerletmeye çalıştı; ancak Phil Zimmerman’ın PGP şifreleme aracını geliştirmesiyle bu çaba etkisiz kaldı
- Sonrasında güçlü şifreleme teknolojileri yurt dışından da kolayca temin edilebilir hale geldi ve düzenleme fiilen imkansızlaştı
- Frederking, “Bilimsel ilerlemenin zamanı geldiğinde onu durduramazsınız. Yapabileceğiniz şey sadece nasıl karşılık vereceğinize karar vermektir” diye vurguladı
Sonuç
- GPT-2’nin yayımlanmasının ertelenmesi, yapay zeka teknolojilerinin riskleri ile yayımlama sorumluluğu etrafındaki önemli örneklerden biri olarak değerlendiriliyor
- OpenAI’ın kararı, yapay zeka etiği, şeffaflık ve teknolojinin yayılmasının kaçınılmazlığı arasındaki denge sorununu görünür kıldı
- Uzun vadede, yapay zeka araştırmalarında açıklık ile toplumsal güvenliği uyumlu hale getirecek ölçütlerin oluşturulması gerekiyor
7 yorum
Tam olarak Amodei'nin OpenAI'da olduğu dönemde GPT-2'yi kamuya açmama gerekçesiyle, şimdi Misos modelini kamuya açmama gerekçesi benzer olduğu için paylaşılmış gibi görünüyor. O zamanki Amodei ile şimdiki Amodei arasında değişen bir şey yok..
Şimdi dönüp bakınca komik geliyor hahaha, 10 yıl bile geçmeden neredeyse gülünç hale gelmiş olması bir yandan da korkutucu.
Bilgi olarak, GPT-2'den bahseden yazının içeriğine ya da asıl yazının 2019 tarihli olduğuna bakarsanız, son dönemde Anthropic'in Mithos modelini fazla tehlikeli olduğu için yayımlamayacağını söylemesi konusunda, geçmişte OpenAI'nin de GPT-2 hakkında benzer şekilde aşırı hassas davrandığı yönünde bir bağlam olduğunu görebilirsiniz.
HN tarafında eski gönderilere yıl ekleme gibi bir gelenek var gibi görünüyor (otomatik mi ekleniyor emin değilim); GeekNews'te de bunun görünmesi güzel olur diye düşünüyorum.
Çoğu normalde içe alınıyor ama bu sefer nedense atlanıp işlenmiş. Buna dokunulmayacak şekilde düzelteceğim.
Sam Altman Oppenheimer ile empati mi kuruyor? Eğer tehlikeliyse, güvenli şekilde iyileştirdikten sonra yayımlasalar yine olurdu; ama kullanmayı teşvik etmeleri bana pek tutarlı gelmiyor. Anthropic Mythos vakasının da aynı şekilde olduğunu düşünüyorum.
Anthropic'in söyledikleri güven vericiydi ama OpenAI'ın söyledikleri neden bu kadar güven vermiyor acaba?
Anthropic'in zero day yaması geliştirme konusunda show-and-proof yapmış olması yüzünden mi?
Yoksa OpenAI'ın bu repertuvarı zaten defalarca kullanmış olmasından mı?
Hacker News yorumları
Birinin böyle OpenAI’nin efsanevi anlarını derlemesi gerektiğini düşünüyorum
Mesela “GPT-2 fazla tehlikeli”, “64x64 DALL-E fazla korkutucu”, “AGI’ye ulaşıldı”, “Q*/strawberry matematik problemlerini çözdü ve araştırmacılar paniğe kapıldı” gibi şeyler
Ben de Codex’i seviyorum ama bu tür abartılı tanıtım hem komik hem yorucu
Bugün bütün gün Codex GPT-5.4, Claude Opus 4.6-1M, Gemini 3.1 Pro gibi modellerle basit bir UI hatasını çözmeye çalıştım ama başaramadım; sonunda kodu kendim açıp düzelttim
20 dakikada çözdüm; komik olan, bu dili ya da framework’ü hiç bilmiyor olmamdı
Yine de 20 dakikada düzelttiyse dikkatli olmak lazım — bir şey öğrenmiş olabilir
Bunun zihinsel modeli net tutmanın en iyi yolu olduğunu düşünüyorum
UI hataları ya da CSS konusunda modeller gerçekten kötü. Unit test şart
Bu tartışma Mythos’a verilen tepki gibi görünüyor ama o dönemde OpenAI’nin kararı bence doğruydu
GPT-2 yayımlandığında sektör tamamen değişti ve bu sadece bir araştırma değil, yeni bir çağın işaretiydi
Mythos da benzer şekilde daha önce görülmemiş bir şey gösteriyor
250 sayfalık white paper’ı okudum; hacking yeteneği şaşırtıcı düzeydeydi ve son bir ayda güvenlik iyileştirmelerinin de büyük olduğunu hissettim
Toplumsal etkiyi düşünerek daha fazla zaman ayırmak olumlu bir şey
İstemeden doğru çıkmış olsa da, bugünlerde düşük kaliteli içerik patlaması gerçekten ciddi bir sorun gibi görünüyor
“Sentetik görüntü, ses ve video; sahte içerik üretim maliyetini düşürecek ve halk çevrimiçi metinlere karşı daha şüpheci olmalı” demişlerdi; şu an tam olarak bu durumdayız
İlgili haber
İlk başta yılı fark etmeyince afalladım
OpenAI yatırım toplamakta zorlanıyor ve New Yorker’daki Altman profili de pek iyi çıkmadı; o yüzden “büyükannenin vurulmasını engelleyin” tarzı bir PR stratejisine geri dönmelerini anlayabiliyorum
“Gerçekten tehlikeli bir teknoloji olsaydı ayda 20 dolara açılmazdı” diye bir söz var
Gerçekten tehlikeli olan şeyler asla halka sunulmaz
Buna rağmen uzmanların bu temel mantığı görmezden gelmesi şaşırtıcı
Bugünlerde “fazla tehlikeli, o yüzden yayımlanamıyor” sözü Anthropic’in Mythos’unu işaret ediyor
O kadar güçlü olduğu söyleniyor ki sadece onaylı şirketler erişebiliyor
“Fazla tehlikeli, o yüzden yayımlanamıyor” aslında “model ağırlıkları open source olarak yayımlanmıyor” demekti
Sonunda ağırlıklar da yayımlandı; yani bağlam Anthropic Mythos’tan farklı
O dönemde OpenAI dışında Ben Mann ile birlikte Transformer-XL eğitiyordum
Aslında GPT-2.5 gibi ağırlıkları yayımlamayı planlıyorduk ama OpenAI’deki arkadaşlar gizli tutmamızı tavsiye etti
İlgili yazı
Daha sonra kendi deneyimini ayrıntılı biçimde yazdı
OpenAI’nin kibar ve samimi davrandığını, ayrıca riskler konusunda hükümet ve istihbarat kurumlarının bakış açısını da anlattığını söylüyor
Sonunda o da “önlemek tedavi etmekten iyidir” diyerek modeli yayımlamaktan vazgeçmiş
Bir gün daha tehlikeli bir model çıktığında, o zaman için bir emsal bırakmak istediğini söylemiş
İyi yazılar hep Amerikalılar uyuduktan sonra geliyor
2019’da okuduğum GPT-2’nin tek boynuzlu at haberi üretme örneği hâlâ aklımda
O zaman gerçekten sarsıcıydı. GPT-3.5 ya da 4’ten bile daha şaşırtıcı gelmişti