- OpenAI, başlangıçta açık ağırlıklı modelini gelecek hafta yayımlamayı planlıyordu ancak ek güvenlik testleri ve yüksek riskli alan incelemeleri için çıkışı ertelediğini duyurdu
- Sam Altman, "bunun tam olarak ne kadar süreceğinden henüz emin olamayız" dedi
- Modelin ağırlıkları (Weights) bir kez yayımlandığında geri alınamayacağı için temkinli bir yaklaşım gerektiğini açıkladı
- OpenAI, topluluğun bu model aracılığıyla çeşitli yenilikler ortaya çıkaracağına güvendiğini, ancak bu yaklaşımın OpenAI için bir ilk olması nedeniyle süreci doğru şekilde yürütmek istediğini vurguladı
- Son olarak, "iyi bir haber olmadığı için üzgünüm. Gerçekten çok sıkı çalışıyoruz" diyerek samimi bir özürle birlikte temkinli duruşunu bir kez daha yineledi
2 yorum
Yine mi kandırılacağız~
Hacker News görüşleri
https://nitter.space/sama/status/1943837550369812814 bağlantısı paylaşılmış
OpenAI’nin open weight (ağırlıkları açık) modelinin çıkışının, bugün duyurulan Kimi K2 gibi güçlü bir open weight model ortaya çıktıktan hemen sonra aniden ertelenmesinin tesadüf olup olmadığından emin değilim
Kimi K2 tanıtım bağlantısı
OpenAI’nin yayınladığında sektör seviyesini bir kademe yukarı taşıması gerekiyor
Orta karar kalitede, kamuya açık ağırlıklı bir modelin işe yarayacağını sanmıyorum
xAi, hesaplama gücü biriktirmede epey önde ve ARC, HLE gibi zekâ testlerinde büyük fark açmış görünüyor
OpenAI’nin peşinde olduğu şey açık kaynak rekabeti değil, rekabeti kazanmak
Bence oldukça büyük bir haber
LLM’lerde geçen "güvenlik testi" ifadesinin pazarlama amaçlı bir söylem olduğunu düşünüyorum
Arabalar, uçaklar, asansörler gerçekten güvenlik testinden geçer ama LLM’ler öyle değil
LLM’in ürettiği sonuç üreticisinin hoşuna gitmese bile kimse ölmüyor
Onların "güvenlik testi" dediği şey, sonuçta sadece LLM’in hoşlanmadıkları şeyleri ne kadar söylediğini kontrol etmekten ibaret
Ruh sağlığı krizi yaşayan birini intihara sürükleyebilir ya da uç durumda belirli bir ırkın veya grubun sorunun kaynağı olduğunu ve ortadan kaldırılması gerektiğini ikna edici biçimde savunabilir
Sözler insanı doğrudan öldürmez ama açıkça ölüme götüren durumlar yaratabilir
Bunun dışında araç kullanımıyla ilgili riskler de var
Mevcut teknoloji seviyesinde bunu gerçekten güvenli hâle getirmenin imkânsız olduğunu düşünüyorum
Benim hobim alaycılığı paraya çevirmek
Polymarket’e girip toplum ve teknoloji hakkında beni mutlu ve iyimser yapacak olayları buluyorum, sonra da o olayların gerçekleşmeyeceğine küçük miktarlarda (çöp coin’lerle) bahis yapıyorum
Örneğin OpenAI’nin eylülden önce açık kaynak ağırlıklı bir model çıkarıp çıkarmayacağına dair bir bahis var ve şu anda %81’den işlem görüyor
Geçen ay OpenAI de bir şey yayınlamadı, ateşkes de gerçek bir ateşkes çıkmadı, iklim göstergeleri de kötüleşti; böylece yaklaşık 10 dolar kazandım
Varoluşsal umutsuzluğu tamamen hedge edemiyorsunuz ama acısını biraz azaltabiliyorsunuz
Kazanırsam para kazanıyorum (artı), kaybedersem toplum için iyi bir şey olmuş oluyor (artı)
Politik olarak moral bozucu bir şey her olduğunda birkaç yüz dolar kazanmış
AI patlamasından sonra kriptonun zaten bittiğini sanıyordum
Yardıma ihtiyacınız varsa kumar danışma hattına ya da bir doktora başvurun"
Deepseek ve Qwen’e (Alibaba) ABD’li AI şirketlerinden daha çok güveniyorum
ABD AI sektörünün sadece para ve compute kaynağı tükettiği izlenimi çok güçlü
Milyarlar harcanmasına rağmen gösterilecek şey pek yokmuş gibi duruyor
Deepseek sadece 5 milyon dolarla geliştirildi ve birden fazla yeni eğitim yöntemi sundu
Üstelik hem modeli hem kodu FLOSS olarak yayımlıyor
ABD şirketlerinin hepsi kapalı yapıda
ABD’li AI şirketleri birbirini öldürmeye çalışan akbabalar gibi görünüyor
Bunun yanlış anlaşılma mı olduğu, yoksa kasıtlı yanlış bilgi mi yayıldığı konusunda görüşler farklı
Kötü niyet olmasa bile, büyük model eğitmiş biri olarak yalnızca tek bir eğitim çalışmasının maliyetine bakıp toplam maliyetten söz etmenin anlamsız olduğunu söylemek isterim
Başarısız deneylerin, ek eğitimlerin ve sayısız başka denemenin maliyeti de ciddi düzeydedir
R2’nin 6 ay geçmesine rağmen hâlâ çıkmamış olması bana göre anlamlı
Bazen etkileyici sonuçlar çıkıyor ama kimse başarısızlığın maliyetine bakmıyor
AI sektöründe çalışırken Google’ın araştırma makalelerinin çoğunu okudum; sektörün ilerlemesine büyük katkı yaptılar ve modelleri ticari lisansla yayımladıkları için minnettarım
Muhtemelen sonuçlar bugün açıklanan K2 modelinden daha kötü olduğu için böyledir
Düzgün bir mühendis olsaydı buna "güvenlik" demezdi
Ablation gibi yöntemler kullanılırsa sonradan yapılan güvenlik eğitimi de etkisiz hâle geliyor
K2, 1 trilyon parametreye sahip ve sadece indirme boyutu bile neredeyse 1TB
Bunu dizüstü bilgisayarımda çalıştırmam imkânsız
Yerel model için ideal boyutun yaklaşık 20B olduğunu düşünüyorum
Mistral Small 3.x veya bazı Gemma 3 modelleri buna iyi örnek
32GB RAM’in altında da iyi çalışıyorlar ve performansları güçlü
OpenAI’nin gerçekten o boyutlarda bir şey çıkarmasını isterim
Llama modellerinin sansürsüz fine-tune örneklerinde görüldüğü gibi, güvenlik kısıtlarının kolayca kaldırılabildiğini unutmamak gerek
Fiilen hiçbir işe yaramayan bir güvenlik gösterisinden ibaret
Topluluk bu korumaları nasıl kolayca sökeceğini çoktan öğrendi
"Bu bizim için de yeni" sözü şirkete pek yakışmıyor
OpenAI’nin neden kamuya açık ağırlıklı bir model yayımlamak istediğini gerçekten merak ediyorum