4 puan yazan GN⁺ 2026-02-14 | 1 yorum | WhatsApp'ta paylaş
  • OpenAI, yakın zamanda misyon ifadesinden “güvenli bir şekilde” ifadesini çıkardı ve yapay zekanın tüm insanlığın yararına olmasını sağlama yönünde yeni bir hedef tanımladı
  • Bu değişiklik, kâr amacı gütmeyen yapıdan kâr odaklı yapıya geçişle aynı dönemde gerçekleşti ve Microsoft ile SoftBank gibi şirketlerden büyük ölçekli yatırımlar alındı
  • Yeni yapı, kâr amacı gütmeyen vakıf (OpenAI Foundation) ile kâr amaçlı kamu yararı şirketi (OpenAI Group) olarak ayrılıyor; ilki ikincinin yaklaşık %26 hissesine sahip
  • Ancak misyonda güvenlik vurgusunun ortadan kalkması ve her iki kuruluşta da güvenlikle ilgili açık sorumlulukların bulunmaması, yönetim kurulu hesap verebilirliğinin zayıflayabileceği yönünde endişe yaratıyor
  • Bu değişim, yapay zekanın toplumun genel yararını mı yoksa hissedar çıkarlarını mı önceleyeceğini sınayan bir örnek olarak değerlendiriliyor

OpenAI’nin misyon değişikliği ve yapısal yeniden düzenlemesi

  • OpenAI, 2023’e kadar hedefini “insanlığa güvenli bir şekilde fayda sağlayan yapay zeka geliştirmek” olarak tanımlıyordu; ancak 2024 IRS bildiriminde bu ifade “tüm insanlığa fayda sağlayan yapay zekayı güvence altına almak” şeklinde değiştirildi
    • Hem ‘safely’ hem de ‘finansal getiri üretme zorunluluğuyla sınırlı olmama (unconstrained by a need to generate financial return)’ ifadeleri kaldırıldı
    • Platformer’ın haberine göre ‘mission alignment team’ de dağıtıldı
  • OpenAI, web sitesinde hâlâ güvenlik, yetenek ve olumlu etkinin birlikte ilerletilmesinden söz ediyor; ancak resmi misyonda güvenlikle ilgili bir ifade yer almıyor

Kâr amacı gütmeyenden kâr amaçlı yapıya geçiş

  • OpenAI, 2015’te kâr amacı gütmeyen bir araştırma laboratuvarı olarak kuruldu; araştırma sonuçlarını yayımlıyor ve telif ücreti olmadan sunuyordu
  • 2019’da Sam Altman liderliğinde kâr amaçlı bir iştirak kuruldu; Microsoft ilk etapta 1 milyar dolar yatırım yaptı
    • 2024 itibarıyla Microsoft’un toplam yatırımı 13,8 milyar dolara ulaştı
  • 2024 sonunda sağlanan ek 6,6 milyar dolarlık finansman için, geleneksel bir kâr şirketine dönüşülmemesi halinde bunun borca çevrilmesi şartı kondu

Yeni hukuki yapı ve çıkar ilişkileri

  • Ekim 2025’te, California ve Delaware eyalet başsavcılarıyla yapılan anlaşma sonrasında OpenAI, kamu yararı şirketi (public benefit corporation) olarak yeniden yapılandırıldı
    • OpenAI Foundation (kâr amacı gütmeyen) ve OpenAI Group (kâr amaçlı) olarak ikiye ayrıldı
    • Foundation, Group’un yaklaşık dörtte birine sahipken Microsoft %27 paya sahip
  • Kamu yararı şirketleri toplumsal ve çevresel faydayı gözetmek zorunda olsa da, kâr ile kamu yararı arasındaki dengenin nasıl kurulacağı yönetim kurulunun takdirine bağlı
  • SoftBank, 2025 sonu itibarıyla 41 milyar dolarlık yatırımını tamamladı; bunun ardından ek 30 milyar dolarlık yatırım için görüşmeler sürüyor

Güvenlikle ilgili hükümler ve sınırlar

  • Yeniden yapılanma anlaşması; güvenlik ve emniyet komitesi kurulması, ürün lansmanlarını durdurma yetkisi ve yönetim kurulu yapısını kontrol etme hakkı gibi maddeler içeriyor
    • OpenAI Group yönetim kurulunun, güvenlikle ilgili konularda mali çıkarların önünde misyonu dikkate alması gerekiyor
  • Ancak misyonda güvenliğin açıkça yer almaması, yönetim kurulunun güvenliği gerçekten önceliklendirmesi için hukuki dayanağı zayıflatıyor
  • İki kuruluşun yönetim kurulu üyelerinin büyük ölçüde aynı kişilerden oluşması, denetim işlevinin fiilen çakışması sorununu doğuruyor

Alternatif modeller ve düzenleme tartışmaları

  • 1992’de Health Net kâr amaçlı yapıya geçerken, varlıklarının %80’ini kâr amacı gütmeyen bir vakfa devretmesi düzenleyici olarak şart koşulmuştu
  • Philadelphia Inquirer, 2016’da kâr amacı gütmeyen Lenfest Institute sahipliğinde bir kamu yararı şirketine dönüştü ve topluluk gazeteciliği amacını korudu
  • California’daki bazı kâr amacı gütmeyen kuruluşlar, OpenAI’nin tüm varlıklarının bağımsız bir kâr amacı gütmeyen yapıya aktarılması gerektiğini savunuyor
  • Yazı, OpenAI yönetim kurulunun güvenlik misyonunu terk ettiğini ve eyalet yönetimlerinin buna izin vermesini bir yönetişim başarısızlığı olarak değerlendiriyor

Artan yatırımlar ve piyasa değerlendirmesi

  • OpenAI’nin 2026 başı itibarıyla Amazon, Nvidia, Microsoft gibi şirketlerden en fazla 60 milyar dolar yatırım çekebileceği belirtiliyor
  • Şirket değeri, Mart 2025’te 300 milyar dolar iken Ekim 2025’te 500 milyar doların üzerine çıktı
  • IPO (halka arz) olasılığı da gündeme geliyor; bunun hissedar getirilerini azamiye çıkarma baskısını artırması bekleniyor
  • OpenAI Foundation’ın fon büyüklüğü yaklaşık 130 milyar dolar olarak tahmin ediliyor; ancak bu, şirket halka açık olmadığı için piyasa değeri üzerinden yapılan bir tahmin

Toplumsal anlamı

  • OpenAI’nin misyon değişikliği ve yapısal dönüşümü, yapay zeka şirketlerinin kamu yararı ile kâr arasında hangisini önceleyeceğini sınayan bir örnek olarak sunuluyor
  • Güvenlik ifadesinin silinmesi, yapay zekanın toplumsal sorumluluğu ve risk yönetimi açısından bir geri adım olarak yorumlanabilir
  • Bundan sonra kamu yararı şirketi modelinin ne kadar etkili olduğu ve devletin denetim rolü temel tartışma başlıkları olacak

1 yorum

 
GN⁺ 2026-02-14
Hacker News görüşleri
  • Her yılın resmi misyon beyanı, ProPublica'nın IRS 990 kayıtlarında görülebilir
    Ben bunları derleyip Gist revizyon sayfası haline getirdim; böylece yıllara göre değişiklikleri tek bakışta görmek mümkün
    Ayrıntıları ayrıca blog yazımda da topladım

    • Bu aşırı komik. Animal Farm'daki emirlerin değiştirilmesi sahnesini hatırlatıyor — “Bütün hayvanlar eşittir” cümlesinin “Bütün hayvanlar eşittir ama bazı hayvanlar daha eşittir”e dönüşmesi gibi bir hiciv
    • Tarihsel misyon değişikliklerini gerçekten çıkardığın için teşekkürler. Özellikle 2021'de “...that benefits humanity” iken, 2022'de “safely” eklenerek “...that safely benefits humanity” olmuş. Ama en güncel sürümde “safely” tamamen kaldırılmış ve cümle de çok daha kısa hale gelmiş
      Silinen kelimeler arasında responsibly, safe, technology, world de var
    • 2016'dan 2024'e kadar olan ifadeleri çıkarıp, commit tarihlerini Claude Code ile oynayarak bunu bir git reposu gibi yapman gerçekten harika. Otomatik arşivlemenin iyi bir örneği
    • Gist'te epey fazla noktalama işareti eksik gibi geliyor
    • Gerçekten ilginç. Acaba Anthropic için de misyon değişimlerini bu şekilde kayıt altına alan bir kaynak var mı diye merak ediyorum
  • Nisan 2025'teki Preparedness Framework güncellemesinde persuasion/manipulation maddesinin izleme kategorilerinden çıkarılması büyük bir işaretti
    Fortune makalesine göre OpenAI artık model yayımlanmadan önce ikna ve manipülasyon riskini değerlendirmiyor; bunun yerine bunu kullanım şartları ile sınırladığını söylüyor
    Bu, “AI safety”nin anlamını oldukça somut biçimde tanımlamış oluyor — tıpkı kitle imha silahı tasarımı gibi, insanın gerçeklik algısını yitirmesine yol açan manipülatif yapay zeka da insanlık için tehdit olabilir

    • “Gerçeklik algısını yitirmeye yol açan sistemler” mi? Bu tam olarak sosyal medya ve reklam teknolojisi değil mi?
      İnsanlık zaten onlarca yıldır manipülasyon teknolojilerine karşı duyarsızlaştı, şimdi sadece ölçek ve verimlilik artıyor. Sonuçta az sayıda kişi daha zengin olacak, çoğunluk ise daha da zorlanacak
    • AI'ın gerçek amacı tam da bu. İnsan sansürcüler vicdan azabı hisseder ama AI, emredilmiş sansürü kusursuzca uygular.
      Daha da korkutucu olan, Cambridge Analytica tarzı profillemeyi aşırı kişiselleştirip herkese özel manipülasyon içeriği sunabilmesi
    • “Gerçeklik algısını kaybetmek sonuçta bireyin sorumluluğu” diye düşünüyorum. İnsan tekrar tekrar kandırılırken bundan ders çıkarmaya çalışmıyorsa, bu tembelliğin sonucudur
  • 2024 sürümünde “unconstrained by a need to generate financial return” ifadesinin kaldırılması belirleyici değişimdi. O giderse geriye ne kalır ki?

    • Geriye sadece kâr kalır
    • Üstelik 501(c)(3) statüsündeki bir kâr amacı gütmeyen kuruluş için bu tür bir değişiklik hukuken de sorunlu olabilir
  • “safely” kelimesini çıkarmaları bence aksine daha dürüst olduklarını gösteriyor. Google'ın “Don't be evil” ilkesini bırakması gibi, ikiyüzlülük maskesini çıkarmış oldular

    • Katılmıyorum. İnsanlar Palantir ya da Broadcom gibi açıkça kötü şirketlere de gayet öfkeleniyor
    • Karmaşık çıkar ilişkileri içinde bile güvenli çalışan kuruluşlar vardır. Dünyanın en iyi düzeyindeki yeteneklerinden en azından bu kadarını beklemek gerekir
    • Ben Google'da 10 yıl AI araştırması yaptım; proto LLM teknolojisini dünyaya sunmama kararı gerçekten Sundar tarafından verilmişti. Dünyanın bunu kaldıramayacağını düşünüyordu
  • Google “Don't be evil” ilkesini bıraktığında hissedilen aynı alaycı deja vu var

    • Onun yerine “Do the right thing (for the shareholders)” olmuş gibi
  • Nihai soru şu — önce robot kedi kızların keyfini mi çıkaracağız, yoksa doğrudan Terminator'a mı geçeceğiz?

    • “Robot” kelimesinin kökeni Slavca “rabu(köle)” sözcüğüdür. Bu tür şakalar köleci bir zihniyeti yansıtıyor. Fikrini değiştirmen ya da ortadan kaybolman gerek
  • OpenAI'ın misyonu baştan beri şaka gibi bir beyandı. “Araştırmamız başkalarının AGI'ye ulaşmasına katkı sağlarsa misyon tamamlanmış olur” dediler, sonra açık kaynak modeller kendi modellerini eğitimde kullandı diye Kongre'ye şikâyete gittiler

  • Şirketlerin neden böyle misyon metinleri hazırladığını anlamıyorum. “Kötü olmayacağız” cümlesini silmek onları daha kötü yapmıyor, sadece ikiyüzlülüğü açığa çıkarıyor

  • Yeni misyon fiilen “profitably” ile değiştirilmiş gibi.
    Eskiden patronum bizi bütün gün toplantı odasına kapatıp misyon cümlesi yazdırmıştı; sonra çerçeveletip duvara astılar ve kimse bir daha bakmadı. Sonuçta sadece pazarlama süsü

  • Haziran 2024'te eski NSA direktörü Paul Nakasone OpenAI yönetim kuruluna katıldı ve Ekim 2025'te yetişkin içerik üretimine izin verildiği açıklandı

    • Gerçekten ürkütücü bir şirket. Açgözlülük ve gözetimin birleşimi gibi
    • İlgili video bağlantısı
    • Bu şirketler 10 yıllık çalışmalarımı izinsiz şekilde eğitim verisi olarak kullandı. Eğer benim çıplak fotoğraflarımı da alıp porno üretirlerse, duyacağım öfkeyi hayal bile etmek istemiyorum