1 puan yazan GN⁺ 2025-07-13 | 2 yorum | WhatsApp'ta paylaş
  • OpenAI, başlangıçta açık ağırlıklı modelini gelecek hafta yayımlamayı planlıyordu ancak ek güvenlik testleri ve yüksek riskli alan incelemeleri için çıkışı ertelediğini duyurdu
  • Sam Altman, "bunun tam olarak ne kadar süreceğinden henüz emin olamayız" dedi
  • Modelin ağırlıkları (Weights) bir kez yayımlandığında geri alınamayacağı için temkinli bir yaklaşım gerektiğini açıkladı
  • OpenAI, topluluğun bu model aracılığıyla çeşitli yenilikler ortaya çıkaracağına güvendiğini, ancak bu yaklaşımın OpenAI için bir ilk olması nedeniyle süreci doğru şekilde yürütmek istediğini vurguladı
  • Son olarak, "iyi bir haber olmadığı için üzgünüm. Gerçekten çok sıkı çalışıyoruz" diyerek samimi bir özürle birlikte temkinli duruşunu bir kez daha yineledi

2 yorum

 
ng0301 2025-07-13

Yine mi kandırılacağız~

 
GN⁺ 2025-07-13
Hacker News görüşleri
  • https://nitter.space/sama/status/1943837550369812814 bağlantısı paylaşılmış

  • OpenAI’nin open weight (ağırlıkları açık) modelinin çıkışının, bugün duyurulan Kimi K2 gibi güçlü bir open weight model ortaya çıktıktan hemen sonra aniden ertelenmesinin tesadüf olup olmadığından emin değilim
    Kimi K2 tanıtım bağlantısı
    OpenAI’nin yayınladığında sektör seviyesini bir kademe yukarı taşıması gerekiyor
    Orta karar kalitede, kamuya açık ağırlıklı bir modelin işe yarayacağını sanmıyorum

    • Bence OpenAI şu anda tüm kaynaklarını Grok 4’ü geçmeye odaklamış durumda
      xAi, hesaplama gücü biriktirmede epey önde ve ARC, HLE gibi zekâ testlerinde büyük fark açmış görünüyor
      OpenAI’nin peşinde olduğu şey açık kaynak rekabeti değil, rekabeti kazanmak
    • Bu arada Hacker News’te K2 hakkında neden neredeyse hiç tartışma olmadığını merak ediyorum
      Bence oldukça büyük bir haber
    • Özellikle de OpenAI’nin kısa süre önce en iyi açık kaynak modeli çıkaracağını duyurmuş olması düşünüldüğünde, zamanlama manidar geliyor
    • GPT-4’ten beri OpenAI’nin tüm modellerinin piyasa akışının epey gerisinde kaldığını hissediyorum
  • LLM’lerde geçen "güvenlik testi" ifadesinin pazarlama amaçlı bir söylem olduğunu düşünüyorum
    Arabalar, uçaklar, asansörler gerçekten güvenlik testinden geçer ama LLM’ler öyle değil
    LLM’in ürettiği sonuç üreticisinin hoşuna gitmese bile kimse ölmüyor
    Onların "güvenlik testi" dediği şey, sonuçta sadece LLM’in hoşlanmadıkları şeyleri ne kadar söylediğini kontrol etmekten ibaret

    • LLM, birine birlikte kullanımı kötü sonuç verecek ilaçları almasını kolayca önerebilir
      Ruh sağlığı krizi yaşayan birini intihara sürükleyebilir ya da uç durumda belirli bir ırkın veya grubun sorunun kaynağı olduğunu ve ortadan kaldırılması gerektiğini ikna edici biçimde savunabilir
      Sözler insanı doğrudan öldürmez ama açıkça ölüme götüren durumlar yaratabilir
      Bunun dışında araç kullanımıyla ilgili riskler de var
    • Bu bağlamda "güvenlik" çoğu zaman sonuçta birini rahatsız edecek ya da PR sorununa dönüşebilecek ifadeleri engellemek anlamına geliyor
    • Ben de bunun pazarlama olduğunu düşünüyorum ama sebebim tam tersi
      Mevcut teknoloji seviyesinde bunu gerçekten güvenli hâle getirmenin imkânsız olduğunu düşünüyorum
    • Bu, kullanıcıdan çok LLM sağlayıcısının güvenliği için
  • Benim hobim alaycılığı paraya çevirmek
    Polymarket’e girip toplum ve teknoloji hakkında beni mutlu ve iyimser yapacak olayları buluyorum, sonra da o olayların gerçekleşmeyeceğine küçük miktarlarda (çöp coin’lerle) bahis yapıyorum
    Örneğin OpenAI’nin eylülden önce açık kaynak ağırlıklı bir model çıkarıp çıkarmayacağına dair bir bahis var ve şu anda %81’den işlem görüyor
    Geçen ay OpenAI de bir şey yayınlamadı, ateşkes de gerçek bir ateşkes çıkmadı, iklim göstergeleri de kötüleşti; böylece yaklaşık 10 dolar kazandım
    Varoluşsal umutsuzluğu tamamen hedge edemiyorsunuz ama acısını biraz azaltabiliyorsunuz

    • Bahis yapınca her türlü kazanmış oluyorsun
      Kazanırsam para kazanıyorum (artı), kaybedersem toplum için iyi bir şey olmuş oluyor (artı)
    • Bir arkadaşım da buna "insanlığı hedge etmek" diyor
      Politik olarak moral bozucu bir şey her olduğunda birkaç yüz dolar kazanmış
    • Hâlâ kripto para kullanan insanlar olmasına şaşırdım
      AI patlamasından sonra kriptonun zaten bittiğini sanıyordum
    • "Kumar bağımlılık yapabilir, bu yüzden sorumlu davranılmalı ve yalnızca 18 yaş üstüne uygundur.
      Yardıma ihtiyacınız varsa kumar danışma hattına ya da bir doktora başvurun"
  • Deepseek ve Qwen’e (Alibaba) ABD’li AI şirketlerinden daha çok güveniyorum
    ABD AI sektörünün sadece para ve compute kaynağı tükettiği izlenimi çok güçlü
    Milyarlar harcanmasına rağmen gösterilecek şey pek yokmuş gibi duruyor
    Deepseek sadece 5 milyon dolarla geliştirildi ve birden fazla yeni eğitim yöntemi sundu
    Üstelik hem modeli hem kodu FLOSS olarak yayımlıyor
    ABD şirketlerinin hepsi kapalı yapıda
    ABD’li AI şirketleri birbirini öldürmeye çalışan akbabalar gibi görünüyor

    • Deepseek’in 5 milyon dolarlık geliştirme maliyeti konusunda çok tartışma var
      Bunun yanlış anlaşılma mı olduğu, yoksa kasıtlı yanlış bilgi mi yayıldığı konusunda görüşler farklı
      Kötü niyet olmasa bile, büyük model eğitmiş biri olarak yalnızca tek bir eğitim çalışmasının maliyetine bakıp toplam maliyetten söz etmenin anlamsız olduğunu söylemek isterim
      Başarısız deneylerin, ek eğitimlerin ve sayısız başka denemenin maliyeti de ciddi düzeydedir
      R2’nin 6 ay geçmesine rağmen hâlâ çıkmamış olması bana göre anlamlı
      Bazen etkileyici sonuçlar çıkıyor ama kimse başarısızlığın maliyetine bakmıyor
    • Aslında Google’ın modellerinin çoğu open source
      AI sektöründe çalışırken Google’ın araştırma makalelerinin çoğunu okudum; sektörün ilerlemesine büyük katkı yaptılar ve modelleri ticari lisansla yayımladıkları için minnettarım
    • 5 milyon dolar, tek bir GPU eğitim çalışmasının zaman maliyeti
    • ABD’li AI şirketlerinin para ve compute yediğini söyledin ama aslında kitapları da gerçekten, kelimenin tam anlamıyla yiyorlar
    • O maliyet aslında sadece GPU fiyatını yansıtan bir rakam değil miydi?
  • Muhtemelen sonuçlar bugün açıklanan K2 modelinden daha kötü olduğu için böyledir
    Düzgün bir mühendis olsaydı buna "güvenlik" demezdi
    Ablation gibi yöntemler kullanılırsa sonradan yapılan güvenlik eğitimi de etkisiz hâle geliyor

    • Şahsen OpenAI’nin yayımlayacağı open weight modelin K2’den çok daha küçük olmasını umuyorum
      K2, 1 trilyon parametreye sahip ve sadece indirme boyutu bile neredeyse 1TB
      Bunu dizüstü bilgisayarımda çalıştırmam imkânsız
      Yerel model için ideal boyutun yaklaşık 20B olduğunu düşünüyorum
      Mistral Small 3.x veya bazı Gemma 3 modelleri buna iyi örnek
      32GB RAM’in altında da iyi çalışıyorlar ve performansları güçlü
      OpenAI’nin gerçekten o boyutlarda bir şey çıkarmasını isterim
  • Llama modellerinin sansürsüz fine-tune örneklerinde görüldüğü gibi, güvenlik kısıtlarının kolayca kaldırılabildiğini unutmamak gerek

  • Fiilen hiçbir işe yaramayan bir güvenlik gösterisinden ibaret
    Topluluk bu korumaları nasıl kolayca sökeceğini çoktan öğrendi

    • Böyle iddiaları görünce aklıma hemen "Open"AI’nin zamanında GPT2 XL’i "fazla güçlü" diyerek yayımlamayı reddetmesi geliyor
  • "Bu bizim için de yeni" sözü şirkete pek yakışmıyor

  • OpenAI’nin neden kamuya açık ağırlıklı bir model yayımlamak istediğini gerçekten merak ediyorum