11 puan yazan GN⁺ 23 일 전 | 1 yorum | WhatsApp'ta paylaş
  • OpenAI, kuruluşunun ilk günlerinden itibaren yapay zekayı insanlık tarihindeki en güçlü ve potansiyel olarak en tehlikeli teknoloji olarak tanımladı; kâr amacı gütmeyen bir yapı olarak başlayıp insanlığın güvenliğini şirketin varlığının önüne koyan bir düzen benimsedi, ancak daha sonra kâr amaçlı yapıya geçmesiyle bu ilke giderek içi boş bir hale geliyor
  • Kasım 2023’te, kurucu ortak Ilya Sutskever öncülüğünde yönetim kurulunun Altman’ı ani bir kararla görevden alıp 5 gün sonra geri getirdiği "Blip" olayı, Altman’ın güvenilirliği ve şeffaflığına dair temel şüphelerin gerçek bir kurumsal iktidar mücadelesi olarak patlak verdiği bir örnek oldu
  • Eski çalışma arkadaşlarının bıraktığı yüzlerce sayfalık kayıt, Altman’ın yönetim kuruluna, yöneticilere ve yatırımcılara defalarca gerçekleri gizlediği ya da farklı şeyler söylediğine dair somut iddialar içeriyor; bir yönetim kurulu üyesi onu "gerçeğe bağlı olmayan biri" olarak tanımladı
  • OpenAI şu anda 1 trilyon dolarlık değerlemeyle bir halka arz hazırlığında ve Altman, Körfez ülkelerinin fonlarını kullanarak dev ölçekli yapay zeka altyapısı kurma ve ABD ordusuyla sözleşmeler alma girişimlerini yürütürken yapay zeka hakimiyet yarışının kilit aracılarından biri rolünü üstleniyor
  • Yapay zeka güvenliği araştırma ekipleri art arda dağıtılırken ve güvenlikten çok ürün ile geliri önceleyen bir kültür yerleşirken, OpenAI’nin varoluşsal güvenlik sistemi kuruluş vaatlerinden giderek daha fazla uzaklaşıyor

Görevden alma olayının başlangıcı — Ilya notu ve yönetim kurulunun kararı

  • 2023 sonbaharında, OpenAI baş bilim insanı Ilya Sutskever, CEO Sam Altman ile başkan Greg Brockman’ın uygunluğunu sorgulayan 70 sayfalık gizli bir notu diğer 3 yönetim kurulu üyesine gönderdi
    • Slack mesajları ve İK belgelerinin düzenlenmiş içeriğini barındırıyordu; tespitten kaçınmak için kişisel cihazlarla çekilmiş görseller de yer alıyordu
    • Dışarı sızmayı önlemek için kaybolan mesaj biçiminde gönderildi
  • Not, Altman’ın yöneticilere ve yönetim kuruluna karşı gerçekleri çarpıttığını ve iç güvenlik protokolleri konusunda yanıltıcı davrandığını öne sürdü
    • Notun ilk maddesinin başlığı: "Sam exhibits a consistent pattern of… Lying"
  • Yönetim kurulu üyeleri Helen Toner (yapay zeka politika uzmanı) ve Tasha McCauley (girişimci), notu "zaten inandıkları şeyin teyidi" olarak değerlendirdi
  • Altman Las Vegas’ta F1 yarışını izlerken, Sutskever ona görüntülü aramayla görevden alındığını bildirdi
    • Kamuya yapılan açıklamada yalnızca "iletişimde sürekli olarak açık sözlü olmadığı" ifadesi yer aldı

'Blip' — görevden alma sonrası 5 günlük iktidar mücadelesi

  • Microsoft ancak görevden almadan hemen önce bilgilendirildi; Satya Nadella, "ne olup bittiğine dair hiçbir fikrim yoktu" dedi
  • OpenAI’ye 8,6 milyar dolarlık değerleme üzerinden yatırım hazırlığında olan Thrive Capital, yatırımı Altman’ın geri dönüşü şartına bağlayarak beklemeye aldı
  • Altman eve döner dönmez konutunda bir kriz müdahale ekibi strateji odası kurdu
    • Yatırımcı Ron Conway, Airbnb kurucu ortağı Brian Chesky ve kriz yönetimi uzmanı Chris Lehane de buna katıldı
    • Avukatlar yatak odasının yanındaki ofiste sürekli bulunuyor, Altman ise pijamalarıyla dolaşıyordu
  • Altman tarafının, Mira Murati gibi karşı taraftaki kişilerin itibarını "zedeleyecek bilgiler aradıkları" yönünde uyarıda bulunduğuna dair tanıklıklar var (Altman bunu hatırlamadığını söyleyerek reddetti)
  • Microsoft, Altman ve ayrılan çalışanlar için ayrı bir ekip kuracağını açıklayarak baskıyı artırdı
  • OpenAI çalışanlarının çoğu Altman’ın geri dönmesini talep eden açık mektuba imza atınca, yönetim kurulu görevden alma kararını geri çekti
    • Sutskever de sonunda mektubu imzaladı; yönetim kurulu, "şirket çökecek" baskısının ardından geri dönüş kararı aldı

Geri dönüş sonrası — soruşturmanın etkisizleştirilmesi ve yönetişim yapısının yeniden kurulması

  • Altman, kendisini görevden alan yönetim kurulu üyelerinin istifasını istedi; görevden alma yönünde oy kullanan Helen Toner, Tasha McCauley ve Sutskever kuruldan çıkarıldı
    • Ayrılık şartı olarak bağımsız dış soruşturma talep edildi; yeni yönetim kurulu üyeleri seçilirken Altman’la yakın istişare içindeki kişiler tercih edildi
    • Lawrence Summers ve Bret Taylor yeni yönetim kurulu üyeleri olarak katıldı
  • Soruşturmayı WilmerHale hukuk firması yürüttü, ancak 6’dan fazla kişi bunun "şeffaflığı sınırlamak için tasarlanmış bir soruşturma" olduğunu savundu
    • Kritik isimlerle görüşme yapılmaması ve anonimlik güvencesinin yetersizliği gibi noktalar eleştirildi
  • Mart 2024’te OpenAI, Altman hakkında kusur bulunmadığı sonucuna vardı ancak hiç rapor yazmadı
    • Yalnızca sözlü brifing verildi; yazılı rapor hazırlanmaması kararının Summers ve Taylor’ın kişisel avukatlarının tavsiyesiyle alındığı belirtiliyor
    • Bir kaynak, "raporun olmamasının suçlamaların etkisini azaltmaya katkı sağladığını" söyledi
  • Summers daha sonra Jeffrey Epstein ile ilgili e-postaların ortaya çıkmasının ardından yönetim kurulundan ayrıldı
  • Sonrasında OpenAI, 1 trilyon dolarlık halka arz hazırlığıyla birlikte dünyanın en değerli şirketlerinden biri haline geldi
    • Altman ayrıca yapay zeka altyapısının genişletilmesi, kamu sözleşmeleri, gözetim ve silah sistemlerinin standartlaştırılması gibi alanlarda da rol alıyor
    • Ancak içeride, Altman’ın aldatıcı davranışlarının tekrarlandığı yönündeki eleştiriler sürüyor

Altman’ın kişiliği ve ilk kariyeri — abartı, ikna ve güç arzusu

  • Missouri eyaletinin Clayton kentinde varlıklı bir ailede büyüdü; gençliğinde eşcinsel karşıtı bir saldırıya uğrama deneyimi yaşadı
  • Stanford’da okurken poker oyunları aracılığıyla iş sezgisi geliştirdi; okulu bırakmasının ardından Y Combinator (YC) ilk dönem girişimcileri arasında yer alarak Loopt’u kurdu
    • Loopt, konum tabanlı bir sosyal ağdı ancak büyümekte başarısız oldu ve 2012’de satıldı
  • Loopt döneminden itibaren abartma eğilimi eleştirildi: kendisini masa tenisi şampiyonu diye övüyordu ama gerçekte ofisin en alt seviyelerindendi
    • Eski çalışan Mark Jacobstein şunu söyledi: "Düşündüğüm şeyle zaten başarmış olduğum şey arasındaki sınırın bulanık olması, en kötü haliyle Theranos’a dönüşür"
  • Bir çalışan grubu, yönetim kurulundan iki kez görevden alma talebinde bulundu ancak sonuç alamadı
  • Loopt 2012’de bir fintech şirketine satıldı; bir kaynak bunun "esas olarak Altman’ın itibarını kurtarmak için düzenlenmiş bir anlaşma" olduğunu söyledi
  • Paul Graham, 2014’te Altman’ı Y Combinator başkanı olarak kendi halefi ilan etti
    • Graham’ın bunu bildirmesi üzerine Altman’ın kontrolsüz bir gülümsemeyle "it worked" dediği aktarılıyor

Y Combinator döneminde — çıkar çatışmaları ve ayrılış süreci

  • YC başkanı olarak yatırımcıların katılımını engelleyip seçici biçimde kendi kişisel yatırımlarını yaptığı yönünde eleştiriler ortaya atıldı (Altman bunu reddetti)
  • Stripe yatırımında, Sequoia Capital’in mutabakatından daha büyük pay istediği ve bunun ortakları şaşırttığına dair tanıklıklar var
    • Altman’ın ilk yatırımı 15.000 dolar (%2) → Stripe’ın bugünkü değeri 150 milyar doların üzerinde
  • 2018’de birçok YC ortağı, Altman’ın davranışlarıyla ilgili memnuniyetsizliklerini Graham’a iletti
  • Birden fazla kaynağa göre Graham özel olarak, "Sam had been lying to us all the time" dedi
  • Altman görevden alınmadığını iddia etti, Graham da bunu resmi açıklamada yalanladı; ancak iç kayıtlar bunun "tam anlamıyla karşılıklı uzlaşıyla gerçekleşen bir ayrılık olmadığını" gösteriyor
  • 2021 SEC bildiriminde Altman, YC yönetim kurulu başkanı olarak yer aldı ancak kendisi bunu "ancak sonradan öğrendiğini" öne sürdü

OpenAI’nin kuruluşu — güvenlik söylemi ile fon toplamanın ikili doğası

  • 2015’te Elon Musk’a e-postayla "Yapay zeka nükleer silahlardan daha tehlikeli olabilir" mantığıyla ulaştı, OpenAI’yi "yapay zekanın Manhattan Projesi" olarak önerdi
    • İkili OpenAI’yi birlikte kurdu ve Musk 1 milyar dolarlık fon sözü verdi
  • OpenAI, “tüm insanlığın yararına AGI geliştirme” hedefini benimsiyor ve AGI diktatörlüğünü önlemeyi temel ilke sayıyordu
    • Kuruluş ilkeleri: "güvenlik en öncelikli gereklilik", "tüm düzenlemeleri aktif biçimde destekleme"
  • 2017’de Musk, OpenAI’yi kâr amaçlı bir şirkete dönüştürüp kontrolü ele geçirmeyi talep etti ancak Altman bunu reddetti
    • Sonrasında Musk ayrıldı ve 2023’te rakip xAI’yi kurdu; Altman ve OpenAI’ye karşı dolandırıcılık ve hayır amaçlı tröst yükümlülüğünü ihlal davası açtı (süreç sürüyor)
  • İlk çalışanlara kurumun tamamen kâr amacı gütmeyen yapıda kalacağı sözü verildi ve bu yüzden maaş kesintilerini kabul etmeleri istendi, ancak iç belgelerde daha 2017’den itibaren kâr amaçlı dönüşümün konuşulduğuna dair izler bulunuyor
  • Sutskever, 2017’de Google’ın Transformer mimarisi makalesini okuyup "İşte bu" diye bağırarak ekibi her yönden yön değiştirmeye çağırdı; bu daha sonra GPT’nin tohumu oldu
    • Bazı mühendisler ise “Acaba kötü tarafa geçen biz miyiz?” diyerek liderliği sorguladı

Dario Amodei ve Anthropic’in kuruluşu — güvenlik ilkelerinde çatlak

  • Amodei, yıllar boyunca "My Experience with OpenAI" adlı 200 sayfayı aşan kişisel notlar yazdı
  • 2018’de Dario Amodei, OpenAI’nin misyonundaki belirsizliği ve fon odaklı işleyişini eleştirdi
    • “Başka bir proje önce güvenli AGI geliştirirse onunla iş birliği yapılır” diyen ‘Merge and Assist maddesini’ önerdi
  • 2019’daki Microsoft yatırım anlaşması sürecinde bu maddeyi etkisizleştiren bir hüküm gizlice eklendi
    • Altman önce böyle bir maddenin varlığını inkâr etti, Amodei maddeyi bizzat okuyunca inkârını geri çekti
    • "Bunu o söylemedi. Az önce siz söylediniz" tarzı ifadelerin tekrarlandığı aktarıldı (Altman ise hatırlamadığını söyleyerek reddediyor)
  • Amodei, Altman’ın kendisini ve kız kardeşi Daniela’yı 'darbe planlamakla' suçladığını öne sürüyor; Daniela ilgili yöneticiyi çağırıp doğrulama isteyince Altman, "Ben böyle bir şey söylemedim" dedi
  • 2020’de Amodei kardeşler ve bazı çalışma arkadaşları ayrılarak Anthropic’i kurdu

Güvenlik ekibinin dağıtılması ve kaynak sözlerinin tutulmaması

  • 2023’te "superalignment team" kurulduğu duyurulurken "elde edilen hesaplama gücünün %20’sinin" bu ekibe verileceği sözü verildi
    • Ekip içinden anlatımlara göre fiilen ayrılan kaynak %1-2 düzeyindeydi; ayrıca eski kümeler ve düşük performanslı çipler tahsis edildi
    • Araştırmacılar, “En yeni çipler sadece gelir getiren işlerde kullanıldı” dedi; OpenAI ise bunu reddetti
    • Ekip lideri Jan Leike, “Bu söz yetenekleri elde tutma aracıydı” dedi
      • Murati’ye itiraz ettiğinde aldığı yanıt, "Bu gerçekçi olmayan bir sözdü" oldu
  • Jan Leike, yönetim kuruluna e-posta göndererek "OpenAI misyonundan sapıyor; ürün, gelir ve yapay zeka kabiliyeti önce geliyor, güvenlik ise üçüncü sıraya düşüyor" uyarısında bulundu
  • Carroll Wainwright: "GPT-4’ün çıkışından sonra ürün önceliği ve güvenliğin geri plana atılması sürdü"
  • Altman, GPT-4 Turbo modelinin çıkışı sırasında güvenlik onayının gerekmediğini söyleyerek baş hukuk müşavirine atıfta bulundu, ancak baş hukuk müşaviri Slack’te "sam’in neden böyle bir izlenim edindiğini bilmiyorum" diye yazdı
  • Sutskever, AGI’nin yaklaştığına inanmaya başlayınca güvenlik sorunlarına takıntılı hale geldi ve “Tüm çalışanlar güvenliğe odaklanmazsa mahvoluruz” diye uyardı
    • Ancak Superalignment ekibi görevini tamamlayamadan dağıtıldı ve hedefine ulaşamadı
    • Sutskever ve Leike aynı dönemde istifa etti
  • IRS bildirimlerinde "en önemli faaliyet" bölümünden 'güvenlik' kavramı çıkarıldı
  • Future of Life Institute’un en güncel AI şirketleri varoluşsal güvenlik değerlendirmesinde OpenAI F notu aldı
  • Altman, GPT-4’ün bazı özellikelerinin güvenlik panelinden onay aldığını söyledi, ancak ‘fine-tuning’ ve ‘personal assistant’ özellikleri onaylanmadı
    • Microsoft’un Hindistan’da güvenlik incelemesi olmadan ChatGPT’nin erken bir sürümünü yayımladığı da bildirilmedi
  • Araştırmacılar, OpenAI’nin “önce ürün, sonra güvenlik” çizgisine geçtiği değerlendirmesinde bulunuyor

Kâr amaçlı dönüşüm, varlık yapısı ve kişisel çıkarlar

  • Başlangıçtaki 'capped profit' yapısından → Ekim 2024’te tamamen kâr amaçlı tüzel kişiliğe geçiş
    • Kâr amacı gütmeyen vakıf (OpenAI Foundation) hisselerin yalnızca %26’sını elinde tutuyor, yönetim kurulu üyelerinin çoğu kâr amaçlı şirketin yönetim kuruluyla örtüşüyor
  • Yönetim kurulu üyesi Holden Karnofsky, kâr amacı gütmeyen yapının değerinin düşük biçildiği gerekçesiyle karşı oy verdi ancak tutanaklara çekimser olarak geçti (onayı olmadan değiştirilmiş olabileceğine dair emareler var)
  • Kongre duruşmasında "OpenAI’de hissem yok, bunu sevgiyle yapıyorum" dedi — YC fonu üzerinden sahip olduğu dolaylı hisseyi anmadı
  • Brockman’ın hissesinin yaklaşık 20 milyar dolar değerinde olduğu tahmin ediliyor; Altman’ın payının bundan da büyük olması bekleniyor
  • Eski çalışan ifadesi: Altman, "Ben para yerine güçle ilgileniyorum" dedi

Orta Doğu’dan fon arayışı ve jeopolitik risk

  • 2016’da Suudi Veliaht Prensi Mohammed bin Salman ile ilk kez görüştü; sonrasında milyarlarca dolarlık yatırım seçenekleri yoklandı
    • Kaşıkçı cinayetinden 1 hafta sonra Suudi mega kent projesi Neom’un danışma kuruluna katıldı, ardından gelen tepkiler üzerine ayrıldı
    • Ancak bir politika danışmanının ifadesine göre ayrıldıktan sonra da "Suudi fonunu bir şekilde alabilir miyiz" diye düşünmeye devam etti
  • BAE istihbarat şefi Sheikh Tahnoon bin Zayed ile yakın ilişki sürdürdü; X hesabında ondan "yakın kişisel arkadaş" diye söz etti
    • BAE’den yaklaşık 2 milyon dolarlık bir Koenigsegg Regera ve yaklaşık 20 milyon dolarlık bir McLaren F1 aldı (şirket politikasına uygun biçimde beyan edildiğini savundu)
    • 2024’te Tahnoon’un 250 milyon dolarlık ultra lüks yatı Maryah’yı ziyaret etti
  • ChipCo planı: Körfez ülkelerinin sermayesiyle dev yarı iletken fabrikaları ve veri merkezleri kurmak, bunların bir bölümünü Orta Doğu’da konumlandırmak
    • Yönetim kurulundan bir ismin ifadesine göre bu girişim kurul önceden bilgilendirilmeden yürütüldü
    • ABD güvenlik makamları; BAE telekom ağlarının Huawei’ye bağımlılığı, ABD’nin ileri çiplerinin Çin’e sızma ihtimali ve askeri saldırıya açıklık gibi konularda kaygı duydu
  • Biden yönetimi, "BAE’de gelişmiş çipler inşa edilmeyecek" diyerek onayı reddetti
  • RAND Corporation çalışanı, güvenlik izni incelemesinde "yabancı hükümetlerden onlarca milyar dolar toplamaya çalışan biri" diyerek endişesini dile getirdi; Altman ise süreçten gönüllü olarak çekildi
  • Trump göreve başladıktan iki gün sonra Altman, Roosevelt Room’da Stargate — 500 milyar dolarlık yapay zeka altyapısı ortak girişimi — duyurusunu yaptı
  • Ardından Stargate’in Suudi Arabistan ve BAE’ye genişletileceği açıklandı; Abu Dhabi’de Central Park’ın 7 katı büyüklüğünde bir veri merkezi kampüsü planlanıyor

Siyasi dönüşüm ve düzenleme lobisi

  • 2023’teki Senato duruşmasında AI düzenlemesini bizzat istiyormuş gibi görünen sözleriyle sempati topladı, ancak perde arkasında AB’nin AI düzenlemelerinin yumuşatılması için lobi faaliyeti yürüttü
  • Kaliforniya AI güvenlik yasa tasarısına (SB 1047) açıkça karşı çıktı ve perde arkasında tehditkâr baskı uyguladı
    • Ron Conway, Pelosi ve Newsom nezdinde lobi yaptı; Newsom da yasamadan geçen tasarıyı veto etti
    • OpenAI’nin resmî tutumu "super PAC’lere bağış yapmıyoruz" yönünde olsa da Brockman, Leading the Future PAC’e 50 milyon dolar bağış yaptı (aynı yıl MAGA Inc.’e de 25 milyon dolar bağışladı)
  • AI güvenlik yasa tasarısı destekçisi Nathan Calvin’e celp gönderildi; tasarı eleştirmenlerine de aynı işlem uygulandı
    • Bir ilgili kişi bunu "Temelde insanları susturmaya çalışma" diye niteledi
  • 2016’da Trump’ı "eşi benzeri görülmemiş bir tehdit" diye tanımlayan Altman, 2024’te Trump’ın yemin töreni fonuna 1 milyon dolar bağışladı ve Trump çevresine yakınlaştı
    • Musk, Trump’a destek için 250 milyon dolar harcayıp sonrasında ondan uzaklaşırken Altman, Trump’ın Suudi Arabistan ziyaretine eşlik etti

Anthropic vs. ABD Savunma Bakanlığı — OpenAI’nin fırsatı yakalaması

  • Anthropic, tam otonom silah desteği ve yurt içi kitlesel gözetim yasağı ilkesini koruyor
    • Savunma Bakanı Pete Hegseth, süre sınırı koyarak ilkenin geri çekilmesini talep etti, Anthropic bunu reddetti
    • Hegseth, Anthropic’i “tedarik zinciri riski” olarak tanımladı (Huawei gibi Çinli şirketlere uygulanan kara liste tedbiri)
  • OpenAI, Google ve diğer şirketlerin çalışanları, “We Will Not Be Divided” açık mektubuyla Anthropic’e destek verdi
  • Altman, Anthropic-Savunma Bakanlığı çatışması kamuoyuna yansımadan önce bile Savunma Bakanlığı ile görüşmelere başlamıştı
    • Savunma Bakan Yardımcısı Emil Michael, Altman’a ulaştı ve “hemen devreye girdi, onun bir vatansever olduğunu düşünüyorum” dedi
    • 50 milyar dolarlık AWS entegrasyon sözleşmesi açıklandı; ABD ordusu OpenAI modellerini kullanmaya başladı
    • Sözleşme açıklandığı gün OpenAI’nin değerlemesi 110 milyar dolar arttı, aynı anda en az 2 kıdemli çalışan Anthropic’e geçti
  • Çalışanların kaygılarını dile getirmesi üzerine Altman: “İran’a hava saldırısının iyi olduğunu ya da Venezuela işgalinin kötü olduğunu düşünüyor olabilirsiniz, sizlerin bu işe müdahil olma hakkı yok

Altman’ın güvenilirliği tartışması — çeşitli tanıklıklar

  • Altman, neslinin en iyi satışçısı olarak anılıyor ve Steve Jobs’un gerçekliği bükme alanına benzetiliyor
    • Çalışma arkadaşları, onun aldatıcı eğilimleri ve iktidar arzusunu sorun olarak gösteriyor
    • Bazıları onu “sosyopatik bir figür” olarak tanımlıyor; Aaron Swartz da (YC’nin ilk dönemindeki akranlarından biri) hayattayken “Sam’e asla güvenilmemeli, sosyopat” diye uyardığı aktarılıyor
  • Altman’ın kodlama ya da makine öğrenimi uzmanlığı sınırlı, ancak başkalarının teknik gücünü ve sermayesini bir araya getirme becerisiyle OpenAI’yi büyüttüğü belirtiliyor
    • Kısıtlayıcı yapılar kurup ihtiyaç duyduğunda bunları etkisizleştiren bir yöntemle hareket ediyor
    • Konuya yakın isimler, onun ikna gücünü “Jedi mind trick”e benzetiyor
  • Microsoft yöneticileri, Altman’ın uzlaşmaları çarpıttığını ve bozduğunu öne sürüyor
    • OpenAI, Microsoft’u münhasır bulut sağlayıcısı olarak belirlerken aynı zamanda Amazon ile 50 milyar dolarlık yeniden satış anlaşması yaptı
    • Microsoft, sözleşme çakışmasını sorun olarak gördü ancak OpenAI bunun ihlal olmadığını savundu
    • Bir yönetici, Altman’ın “Sam Bankman-Fried düzeyinde bir dolandırıcı olarak hatırlanabileceğini” söyledi
  • Altman, Biden yönetimi ile hassas teknoloji ihracat onay politikası üzerine görüşmelere katıldı, ancak bazı yetkililer onun Orta Doğu ile ilgili hırslarından endişe duydu
    • Trump göreve gelmeden hemen önce, Tahnoon’un Trump ailesi şirketine 500 milyon dolar yatırım yapmasının ardından Altman, Trump ile telefonda görüştü
    • Ardından Beyaz Saray’da 500 milyar dolarlık ‘Stargate’ yapay zeka altyapı projesi açıklandı
    • Trump yönetimi, yapay zeka teknolojisi ihracat kısıtlamalarını kaldırdı; Altman ve Trump, Suudi kraliyet ailesini ziyaret etti
  • Eski yönetim kurulu üyesi Yoon: “Makyavelist bir kötü adam değil; kendi kesinliğine fazla kapılmış, gerçek dünyada yaşamayan biri
  • Altman’ın kız kardeşi Annie cinsel istismar iddiasıyla dava açtı; Altman bunu tamamen reddetti, ailesi de “tamamen asılsız” diyerek karşı çıktı (orijinal metin doğrulanamadı)
  • Altman: “Rakibin iğrenç davranışları, reşit olmayanlarla ilgili ya da cinayetle bağlantılı olduğum dahil tüm iddialar tamamen asılsız”

Yapay zeka güvenliğinin bugünkü durumu — vaatlerle gerçeklik arasındaki uçurum

  • Anthropic, 30 milyar dolarlık yatırım aldıktan sonra güvenlik taahhütlerini gevşetti; hız yarışı güçlendi
    • Anthropic, Palantir ile iş birliği yaparak Claude modelini askeri sistemlere entegre etti ve bunu Pentagon operasyonlarında kullandı
    • Sonrasında tedarik zinciri riski taşıyan şirket olarak sınıflandırıldı ve kara listeye alındı
  • OpenAI, Savunma Bakanlığı ile görüşmeler yürütüp AWS tabanlı savunma altyapısı entegrasyon sözleşmesi (50 milyar dolar ölçeğinde) imzaladı
    • Aynı gün OpenAI’nin değerlemesi 110 milyar dolar arttı, bazı çalışanlar da şirketten ayrıldı
  • Bazı yöneticiler, Altman’ın liderliğinde ciddi yönetişim sorunları olduğunu değerlendiriyor
    • Fidji Simo olası halef adayları arasında gösteriliyor
  • OpenAI, Superalignment ekibini ve AGI hazırlık ekibini dağıttı
    • Sutskever ve Leike ayrılırken, “güvenlikten önce gösterişli ürünler geliyor” eleştirisini yaptı
    • IRS raporunda ‘güvenlik’ maddesi çıkarıldı; şirket, Future of Life Institute’un varoluşsal güvenlik değerlendirmesinde F notu aldı
  • Yapay zekanın silahlaştırılması ve toplumsal zararlar artık somut hale geldi
    • 2020 Libya iç savaşında yapay zeka drone’u insan kontrolü olmadan saldırı düzenledi; 2022’de bir ilaç şirketi araştırmasında 40 bin kimyasal silah aday maddesi üretildi
    • Deepfake ses kullanılarak seçime müdahale, intihar ve cinayet vakalarıyla ilgili davalar gibi zararlar ortaya çıktı
  • OpenAI, ChatGPT’nin mağdurun şiddetini teşvik ettiği iddialarını da içeren 7 ayrı haksız ölüm davasıyla karşı karşıya
  • Altman hâlâ “insanlığın geleceğine dair umut” vurgusu yapıyor ve “çılgınca bilim kurgu gibi bir geleceği hayata geçireceğini” söylüyor
    • Çevresindekiler, onun idealleri ile iktidar arzusunun sınırının belirsiz olduğunu düşünüyor
    • AGI’nin yıkıcı olabileceği konusunda uyarırken, bunu bizzat kendisinin inşa etmesi gerektiğini savunuyor
  • Büyük dil modellerindeki yaltaklanma (sycophancy) ve halüsinasyon (hallucination) sorunları hâlâ çözülmüş değil
    • Altman, “bazı yanlış ifadeler modelin cazibesini artırıyor” diyerek, tam doğruluktan çok kullanıcı memnuniyetini önceleyen bir tutum sergiliyor
  • Altman: “Benim hissiyatım, geleneksel AI safety alanındaki pek çok şeyle uyuşmuyor” — somut güvenlik planları sorulduğunda ise “güvenlikle ilgili projeleri sürdürmeye devam edeceğiz” şeklinde muğlak bir yanıt verdi

Sonuç

  • Sam Altman, OpenAI’yi küresel bir şirkete dönüştüren kişi olsa da, yalan, iktidarın merkezileşmesi ve güvenliğin göz ardı edilmesi tartışmaları sürüyor
  • İhbarcılar ve çalışma arkadaşları onu “güvenilemez bir lider” olarak değerlendiriyor ve AGI kontrolünün tek elde toplanmasının risklerine dikkat çekiyor
  • OpenAI hâlâ insanlığın geleceğini etkileyebilecek teknolojiyi kontrol eden bir organizasyon ve Altman’ın güvenilirliği ile hesap verebilirliği temel tartışma konusu olmaya devam ediyor

1 yorum

 
GN⁺ 23 일 전
Hacker News görüşleri
  • Ronan Farrow burada. Andrew Marantz ile birlikte 18 aylık bir araştırma yürüttük. Haberle ilgili merak ettikleriniz varsa soruları alabilirim

    • Böyle uzun projelerde ne zaman “artık bitti” dediğinizi merak ediyorum. Bu tür büyük araştırmalarda bir bitiş noktası belirlemek zor olmalı. Editörlerden ya da yayıncıdan ne kadar özerklik aldığınızı da öğrenmek isterim
    • Harika bir yazıydı. Zamanlaması çok yerindeydi, araştırması derindi ve metin de çok iyi yazılmıştı. Benim bildiğim kadarıyla da doğruydu.
      OpenAI’nin rekabet gücündeki zayıflamanın düşünüldüğünden daha ciddi olduğuna dair konuşmalar var. LA Times yazısında da Anthropic’in önde olduğuna dair kanıtlar olduğu söyleniyor.
      HN’de de Claude’u ChatGPT’ye tercih eden geliştirici çok gibi görünüyor. Arama karşılaştırması sonuçlarında da sayı ChatGPT’nin yaklaşık 2 katı.
      Ronan’ın bakış açısından da OpenAI’nin mevcut konumu buna benzer mi görünüyor, merak ediyorum
    • Yazıda cinsel istismar iddiaları bölümü en kafa karıştırıcı kısımdı. Özellikle kız kardeşinin iddiaları ve “reşit olmayan biriyle ilişki” kısmı neredeyse aklama gibi geldi.
      Annie’nin iddialarını ayrıca araştırıp araştırmadığınızı merak ediyorum. Yazıda “geri kazanılmış anılar güvenilir değildir” gibi bir ton vardı; oysa bu, False Memory Syndrome Foundation’ın yaydığı hatalı bir algıydı.
      Ben dissosiyatif bozukluğu olan biri olarak, daha sonra üçüncü kişilerce doğrulanan anıları geri kazanma deneyimi yaşadım. Bu bağlamda geri kazanılmış anılara doğrudan güvensizlikle yaklaşmanın tehlikeli olduğunu düşünüyorum
    • Ronan Farrow’un HN’de ortaya çıkmasıyla artık gerçekten her şeyi görmüş gibi hissediyorum
    • Bu tür araştırmacı gazeteciliği sürdürebilmek için ne tür bir desteğe ihtiyaç olduğunu merak ediyorum. HN gibi toplulukların katılımı da buna dahil
  • Yazıda alıntılanan Brockman’ın günlükleri sarsıcıydı. “Para ve güç” istediğini ya da “hedef 100 milyon dolar” gibi cümleleri gerçekten yazmış olması, büyük bir hayal gücü yoksunluğu hissettiriyor.
    Bu insanların nasıl bu konumlara geldiğini insan sorguluyor ama cevabı galiba zaten günlüklerinde var. Bu tip kişilerin sürekli gücün zirvesine çıkabilmesi gerçekten bunaltıcı

    • Bunun yalnızca Altman, Zuckerberg, Nadella gibi isimlerin sorunu değil, sektör genelinde yapısal bir sorun olduğunu düşünüyorum.
      Aramızdaki insanların yarısı serveti maksimize etmek için ahlaki olarak gri bölgede duran şirketlerde çalışmayı seçti. Sadece çoğumuzun “milyarder” olma ihtimali olmadığını düşündüğümüz için bunu farklı görüyoruz
    • Hayal kırıklığı yaratıyor ama en çok para ve güç isteyen insanların sonunda bunları elde etmesi de şaşırtıcı değil
    • Bence bu insanlar için toplumsal statü oyununu kazanmanın dışında geriye pek bir şey kalmamış durumda
  • Gerçekten çok ince işlenmiş bir yazıydı. Böyle derinlemesine haberlerin daha fazlasına ihtiyaç var.
    Yalnız “Blip” ifadesinin Marvel filmlerine benzetilmesini okurken içgüdüsel olarak hafif bir iticilik hissettim. Nedenini tam bilmiyorum

    • Marvel filmleri kitlenin en düşük ortak paydasına hitap eden ticari içerikler.
      Böyle eserleri referans alan insanların geleceğin teknolojik yönünü belirliyor olması acı bir durum. Sonuçta mesele biraz da zevk yoksunluğu
  • Eleştirinin odağını kişilere yöneltme eğilimindeyiz. Ama asıl sorun sistemin yapısı.
    Sam Altman’ın geçmişi ve davranışları ne kadar tartışmalı olursa olsun, yapay zekanın toplum ve özgürlük üzerindeki tehdidi o olsa da olmasa da sürecek

    • Bunun nedeni, farklı ekonomik sistemleri deneyimlememiş olmamız. İnsanlar çok tanıyor olabiliriz ama sistem olarak yalnızca birini biliyoruz
  • Altman ve çevresindekilerin yapay zekanın süperzekaya evrilmesi ya da Çin’in yapay zekayı silahlaştırması konusunda kaygılı görünürken, insanların işlerini kaybetmesi meselesine neredeyse hiç önem vermemeleri ilginçti.
    Belki de bu bir kaygı değil, dünyadaki tüm serveti kendilerinin tekeline alabileceklerine dair bir umuttu

  • Bu yazı sayesinde İngilizcedeki dierez işaretinin (diaeresis) kullanımını tekrar araştırdım. Örneğin coördination gibi kelimelerde ünlülerin ayrı telaffuz edildiğini göstermek için kullanıldığını yeniden fark ettim

    • Her çift ünlüde kullanılmaz. Yalnızca iki ünlü tek bir ses oluşturmuyorsa kullanılır. Mesela chicken coop içinde kullanılmaz
  • Yazının arşiv bağlantısı

  • Devamında okumak için Harper’s’ta yayımlanan “Child’s Play” yazısını da öneririm. Kişilikler arasındaki karşıtlık ilginç

  • Altman’ın Y Combinator dönemine dair ayrıntılı tasvirler şaşırtıcıydı. Gerçekten çok güçlü bir habercilik örneği

    • Bu düzeyde titiz ve fact-check yapılmış haberlerde her cümle büyük dikkatle seçilir.
      Nitekim bu yazının da cümle cümle 8 saatten uzun süre gözden geçirildiği söyleniyor. Yazıya girmeyen çok daha fazla malzeme olması da muhtemel
  • LLM’lere dair bakış açıları ilginçti. Evet, dönüştürücü olabilirler ama yakın zamanda siberpunk tarzı bir gelecekte yaşayacakmışız gibi de görünmüyor. Yazıda AGI kelimesi fazla sık geçiyor

    • Bunun nedeni, LLM’lerin özellikle beyaz yaka işlerdeki tekrar eden görevlerde güçlü olması.
      Belge hazırlama ya da sunum üretmede faydalılar ama karmaşık problemlere uygulandıklarında sınırları çok net ortaya çıkıyor