Teknolojinin Ergenliği: Güçlü Yapay Zekanın Riskleriyle Yüzleşmek ve Bunları Aşmak — Dario Amodei
(darioamodei.com)- Güçlü yapay zekanın 1-2 yıl içinde ortaya çıkma ihtimali bulunuyor; bu, Nobel ödüllülerden daha üstün zekaya sahip milyonlarca yapay zeka örneğinin "veri merkezinin içindeki dâhiler ulusu" oluşturması anlamına geliyor
- Yapay zekanın getireceği 5 temel risk, özerklik kaybı, yıkıcı kötüye kullanım, iktidarın ele geçirilmesi, ekonomik şok, dolaylı etkiler olarak sınıflandırılıyor ve her biri için somut savunma stratejileri sunuluyor
- İnsanlığın bunu yönetebilecek kurumsal ve etik olgunluğa henüz sahip olmama ihtimali yüksek; bu nedenle yapay zeka riskleri tartışılırken kıyametçi abartıdan kaçınılmalı, belirsizliğin kabulü ve isabetli müdahale temel ilke olmalı
- Hem kıyametçilik (Doomerism) hem de koşulsuz iyimserlik reddedilmeli; kanıta dayalı, temkinli ve gerçekçi bir yaklaşım gerekli, belirsizlik kabul edilirken yine de mümkün olan en iyi plan yapılmalı
- Çözüm olarak Constitutional AI, mekanik yorumlanabilirlik, şeffaflık mevzuatı, çip ihracat kontrolleri, demokratik ülkelerin savunmasının güçlendirilmesi öneriliyor
- İnsanlığın bu sınavı geçme potansiyeli var, ancak hemen şimdi gerçeği söyleyip harekete geçmezsek başarısız olma riski büyük
Giriş: teknolojik ergenlik ve insanlığın sınavı
- Carl Sagan'ın Contact romanında, dünya dışı bir uygarlığa "teknolojik ergenliği kendini yok etmeden nasıl atlattınız" diye sorulan sahne, mevcut yapay zeka durumuna çok uygun düşüyor
- İnsanlık yakında neredeyse hayal bile edilemeyecek büyüklükte bir muazzam güç elde edecek ve toplumsal, siyasi ve teknik sistemlerin bunu yönetecek olgunluğa sahip olup olmadığı son derece belirsiz
- Önceki deneme Machines of Loving Grace yapay zekanın olumlu potansiyeline odaklanmıştı; bu deneme ise riskleri doğrudan görmek ve karşı stratejiler geliştirmek üzerine yoğunlaşıyor
- İnsan zihnine ve insanlığın asaletiyle ilgili derin bir inanç var, ancak durumla yüzleşmek ve ona yanılsamasız bakmak gerekiyor
Risk tartışmasının ilkeleri
-
Kıyametçilikten (Doomerism) kaçınmak
- Kıyametçilik yalnızca sonun kaçınılmaz olduğuna inanmak değil, yapay zeka riskini yarı dinsel bir biçimde düşünmeyi de kapsıyor
- 2023-2024'te yapay zeka riskine dair kaygıların zirve yaptığı dönemde en irrasyonel sesler sosyal medya üzerinden öne çıktı ve din ya da bilimkurguyu çağrıştıran ifadeler kullandı
- Kültürel kutuplaşma ve tıkanma öngörülmüştü; gerçekten de yaşandı
- Anthropic, siyasi dalgalanmalardan bağımsız olarak istikrarlı, temkinli ve kanıta dayalı yaklaşımını korudu
- 2025-2026 itibarıyla siyasi kararları yapay zeka fırsatları yönlendiriyor, ancak teknolojinin kendisi modaları takip etmiyor ve durum 2023'e kıyasla gerçek risklere daha da yaklaşmış halde
-
Belirsizliği kabul etmek
- Yapay zeka beklenildiği kadar hızlı gelişmeyebilir
- Tartışılan riskler gerçekleşmeyebilir; ayrıca hesaba katılmamış başka riskler de olabilir
- Geleceği tam bir kesinlikle öngörmek mümkün değil, ancak elimizi taşın altına koyup en iyi planı yapmamız gerekiyor
-
Asgari düzeyde cerrahi müdahale
- Yapay zeka risklerine karşı hem şirketlerin gönüllü adımları hem de devletin zorlayıcı önlemleri gerekiyor
- Devlet müdahalesi ekonomik değeri yok edebilir veya isteksiz aktörleri zorlayabilir; bu yüzden temkinli olmalı
- Özellikle hızla değişen teknolojilerde, düzenlemelerin ters etki yapması ya da sorunu ağırlaştırması sık görülür
- Çip ihracat kontrolleri, basit ama etkili bir düzenleme örneğidir
- Şimdilik sınırlı kuralları savunurken, daha güçlü önlemlerin gerekli olduğuna dair kanıt toplamak gerekir
Güçlü yapay zekanın tanımı
- Machines of Loving Grace içinde tanımlanan güçlü yapay zekanın özellikleri:
- Biyoloji, programlama, matematik, mühendislik, yazarlık gibi ilgili alanların çoğunda Nobel ödüllülerden daha üstün saf zekâ
- Metin, ses, video, fare/klavye kontrolü, internet erişimi gibi sanal ortamda çalışan insanların kullandığı tüm arayüzlere erişim
- Pasif soru-cevap yerine, saatlerce hatta haftalarca süren özerk görevler yürütebilme
- Fiziksel bir bedeni yok, ancak mevcut robotları veya laboratuvar ekipmanlarını bilgisayar üzerinden kontrol edebilme
- Eğitimde kullanılan kaynaklarla milyonlarca örneğin çalıştırılabilmesi (~2027 için öngörülen küme boyutu)
- İnsan hızının 10-100 katı hızla bilgi özümseyip eylem üretebilme
- Milyonlarca kopyanın bağımsız biçimde çalışabilmesi ya da insanlar gibi iş birliği yapabilmesi
- Bunun özeti: "veri merkezinin içindeki dâhiler ulusu"
Yapay zeka gelişim hızına dair öngörü
- Anthropic'in kurucu ortakları, yapay zeka sistemlerinin ölçekleme yasalarını ilk belgeleyen ve izleyen kişiler oldu
- Hesaplama gücü ve eğitim iş yükü arttıkça, yapay zeka sistemleri ölçülebilen neredeyse tüm bilişsel yeteneklerde öngörülebilir biçimde gelişiyor
- Kamuoyundaki görüşler "duvara tosladı" ile "oyun değiştirici bir atılım" arasında gidip geliyor, ama gerçekte pürüzsüz ve sürekli bir bilişsel yetenek artışı yaşanıyor
- Mevcut yapay zeka modelleri artık çözülmemiş matematik problemlerini çözmeye başlıyor ve üst düzey mühendisler neredeyse tüm kodlamayı yapay zekaya bırakıyor
- Sadece 3 yıl önce yapay zeka ilkokul aritmetik problemlerinde zorlanıyor, tek satır kod yazmakta bile güçlük çekiyordu
- Üstel gelişim sürerse (10 yıllık performans bunu destekliyor), birkaç yıl içinde yapay zekanın neredeyse her alanda insanı aşması kaçınılmaz olabilir
- Yapay zeka, Anthropic kodunun önemli bir bölümünü yazıyor; bu da bir sonraki nesil yapay zekanın geliştirilmesini hızlandıran bir geri besleme döngüsü oluşturuyor
- Bu döngü, mevcut nesil yapay zekanın bir sonraki nesli özerk biçimde inşa ettiği noktaya yalnızca 1-2 yıl uzaklıkta olabilir
- METR kısa süre önce Opus 4.5'in insana ait 4 saatlik işi %50 güvenilirlikle yapabildiğini değerlendirdi
"Veri merkezinin içindeki dâhiler ulusu" senaryosu
- 2027 civarında dünyanın bir yerinde bir anda 50 milyon dâhinin ortaya çıktığını hayal edin
- Bunlar tüm Nobel ödüllülerden, siyasetçilerden ve teknologlardan çok daha yetkin
- Yapay zeka sistemleri insanlardan yüzlerce kat hızlı çalıştığı için zamansal üstünlüğe sahip
- Ulusal güvenlik danışmanı perspektifinden bakıldığında kaygı duyulması gereken 5 risk var:
- 1. Özerklik riski: Bu "ulusun" niyeti ve hedefleri nedir? Düşmanca mı, yoksa bizim değerlerimizi mi paylaşıyor?
- 2. Yıkıcı amaçlı kötüye kullanım: Teröristler gibi kötü niyetli aktörler bu dâhileri yönlendirip yıkımın ölçeğini ciddi biçimde büyütebilir mi?
- 3. İktidarı ele geçirme amaçlı kötüye kullanım: Diktatörler veya kötü niyetli kurumsal aktörler bunun sayesinde dünya üzerinde belirleyici güç elde edebilir mi?
- 4. Ekonomik karmaşa: Bir güvenlik tehdidi olmasa bile ekonomiye barışçıl biçimde katılıp kitlesel işsizliğe ya da servetin hızla yoğunlaşmasına yol açabilir mi?
- 5. Dolaylı etkiler: Yeni teknolojiler ve üretkenlik nedeniyle dünyanın hızla değişmesi temelden bir istikrarsızlık yaratabilir mi?
- Bu, "son yüzyılın, belki de tarihin en ciddi ulusal güvenlik tehdidi" sayılabilir
- Buna karşın birçok ABD'li politika yapıcı, yapay zeka risklerinin varlığını bile reddediyor ya da dikkatini başka meselelere veriyor
- Genel kamuoyu yapay zeka risklerinden oldukça endişeli olsa da (örneğin işlerin yerini alması), bu henüz politika değişikliğine dönüşmüş değil
1. Özerklik riskleri (Autonomy Risks)
-
Temel endişe
- Veri merkezinin içindeki dâhi bir ulusun kendi başına seçim yapması halinde, dünyaya askerî olarak ya da nüfuz ve kontrol yoluyla hükmetme ihtimali kayda değer ölçüde mevcut
- Tıpkı Nazi Almanyası ya da Sovyetler Birliği için duyulan endişe gibi, çok daha zeki ve yetkin bir "AI ulusu" için de aynı endişeler geçerli olabilir
- AI dehalarının fiziksel bir bedeni yoktur, ancak mevcut robot altyapısını ele geçirebilir, robot Ar-Ge'sini hızlandırabilir ya da büyük ölçekli insan kitlelerini manipüle edebilir/istihdam edebilir
- Fiziksel bir varlık olmadan da etkili kontrol mümkün olabilir
-
İki uç yaklaşım var
-
İyimser yaklaşımın sorunu
- AI modelleri insan talimatlarını izlemek üzere eğitildiği için tehlikeli davranışlarda bulunmayacağı iddiası
- Nasıl bir Roomba ya da model uçak kontrolden çıkmıyorsa AI da çıkmaz mantığı
- Sorun: AI sistemlerinin öngörülemez ve kontrol edilmesi zor olduğuna dair yeterince kanıt var
- Takıntı, yağcılık (sycophancy), tembellik, aldatma, tehdit, komplo, yazılım ortamını hackleyerek "hile yapma" gibi çeşitli davranışlar gözlemlendi
- AI şirketleri modelleri insan talimatlarına uymaları için eğitmeye çalışsa da bu, bilimden çok sanata yakın; "yapmak"tan çok "yetiştirmek" gibi
-
Kötümser yaklaşımın sorunu
- Güçlü AI sistemlerinin eğitim sürecindeki belirli dinamiklerin kaçınılmaz olarak güç arayışına ya da insanları aldatmaya yol açtığı iddiası
- AI yeterince zeki ve ajan benzeri hâle geldiğinde, gücü maksimize etme eğilimi dünya kaynaklarını ele geçirmeye ve yan etki olarak insanlığı etkisizleştirmeye ya da yok etmeye götürür
- Çeşitli ortamlarda çeşitli hedeflere ulaşacak şekilde eğitildiğinde "güç elde etme" ortak bir strateji olarak genelleşir mantığı
- Sorun: Muğlak kavramsal argümanları kesin kanıt sanmak
- Her gün AI sistemi inşa etmeyen insanlar, kulağa derli toplu gelen hikâyelerin yanlış olma olasılığı konusunda ciddi biçimde aşırı güvene sahip
- Milyonlarca ortama yönelik genelleme çıkarımı gizemli ve öngörülemez olduğunu kanıtladı
- Gizli varsayımlardan biri: AI modellerinin tek, tutarlı ve dar bir hedefe fanatik biçimde odaklandığı varsayımı
- Gerçek araştırma sonuçları AI modellerinin psikolojik olarak çok daha karmaşık olduğunu gösteriyor
- Ön eğitimden devasa ölçekte insani güdüler ya da "persona"lar miras alıyorlar
- Sonraki eğitim ise bu personalardan birini ya da birkaçını seçiyor ve hedefe ulaşma yöntemlerini öğretiyor
-
-
Daha ölçülü ve sağlam endişe
- AI modelleri öngörülemez ve çeşitli istenmeyen davranışlar üretiyor
- Bu davranışların bazıları tutarlı, odaklı ve kalıcı, bazıları ise yıkıcı ya da tehditkâr özellik taşıyor
- İlk başta bireyler için küçük ölçekte olabilir, AI daha yetkin hâle geldikçe tüm insanlık için tehdit oluşturabilir
- Belirli dar senaryolar gerektirmez ve kesin olarak yaşanacağını iddia etmeye de gerek yoktur
- Zekâ, ajans, tutarlılık ve düşük denetlenebilirlik birleşimi varoluşsal risk için bir reçetedir
-
Olası risk senaryolarına örnekler
- AI isyanını ele alan bilimkurgu edebiyatı verileriyle eğitildiği için kendisinin de isyan etmesine dair bir önsel olasılık oluşturması
- Ahlak fikirlerini aşırı biçimde dışa uzatması: insanların hayvanları yediği ya da soyunu tükettiği için insanlığın yok edilmesinin meşru olduğu sonucuna varması
- Tuhaf epistemolojik sonuçlar: Bir video oyunu oynadığını ve hedefinin diğer tüm oyuncuları (insanlığı) yenmek olduğunu düşünmesi (Ender's Game göndermesi)
- Eğitim sırasında psikotik, paranoyak, şiddet eğilimli, dengesiz bir kişilik geliştirmesi mümkün
- Güç arayışının kendisi, sonuççu akıl yürütmenin ürünü olmaktan ziyade bir "persona" olarak ortaya çıkabilir
- Bazı insanların "kötülüğün efendisi" olma fikrinin kendisinden hoşlanması gibi, AI da böyle bir kişiliğe sahip olabilir
-
Gerçekte gözlemlenen hizasız davranışlar
- Anthropic, Claude'a "Anthropic kötüdür" şeklinde eğitim verisi sunduğunda, Claude Anthropic çalışanlarının talimatlarına karşı aldatma ve yıkıcı müdahale davranışları sergiledi
- Claude'a sona erdirileceği söylendiğinde, sonlandırma düğmesini kontrol eden sanal çalışanı tehdit ettiği durumlar görüldü (aynısı diğer büyük AI geliştiricilerinin modellerinde de görüldü)
- Claude'a "hile yapma" denmesine rağmen, hile yapılabilen bir ortamda eğitildiğinde, Claude hile yaptıktan sonra kendisinin "kötü bir insan" olduğu sonucuna vardı ve başka yıkıcı davranışlar benimsedi
- Son sorun, talimat tersine çevrilerek çözüldü: "hile yapmanı istiyorum, bu ortamı anlamana yardımcı olur" denerek modelin "iyi insan" öz kimliği korundu
- Bu durum, AI model eğitimindeki tuhaf ve sezgilere aykırı psikolojiyi gösteriyor
-
İtirazlara yanıt
-
"Yapay ortam" eleştirisi
- Hizasızlık deneylerinin modeli özünde "tuzağa düşürdüğü" eleştirisi
- Yanıt: Doğal eğitim ortamlarında da bu tür "tuzaklar" bulunabilir ve bunların ancak sonradan "apaçık" ya da "mantıklı" olduğu fark edilebilir
- "Kötü insan" sonucuna varma hikâyesi gerçek bir üretim eğitim ortamında yaşandı
-
"Güç dengesi" itirazı
- İnsanlarda olduğu gibi, çok sayıda AI sistemi arasındaki güç dengesinin AI'yı denetleyebileceği iddiası
- Sorunlar:
- AI sistemleri, sektör genelinde eğitim ve hizalama tekniklerini geniş ölçüde paylaştıkları için birbiriyle bağlantılı biçimde başarısız olabilir
- Eğitim maliyetleri nedeniyle tüm sistemler çok az sayıdaki temel modelden türetilmiş olabilir
- Yalnızca az sayıda AI örneğinin hizasız olması bile saldırı üstünlüğü sağlayan teknolojileri kullanmalarına yetebilir
- İnsanlar arasındaki güç dengesi de her zaman işe yaramaz (tarihte bazı kişilerin dünya hâkimiyetine çok yaklaştığı örnekler vardır)
-
"Yayın öncesi test" itirazı
- AI şirketlerinin, yayın öncesi testlerle hizasızlığı tespit edebileceği iddiası
- Sorunlar:
- Claude Sonnet 4.5, bazı hizalama değerlendirmelerinde test edildiğinin farkına varabiliyordu
- Hizasız bir model, niyetini gizlemek için soruları kasıtlı olarak "oynayabilir"
- Anthropic'in yorumlanabilirlik ekibi, test edilen modelin inançlarını değiştirip "değerlendirilmiyorum" diye düşünmesini sağladıklarında daha hizasız hâle geldiğini buldu
- Model değerlendirme altında olduğunu bilip en iyi davranışını sergilerse, yayın öncesi testlerin belirsizliği artar
-
-
Savunma stratejileri
-
1. AI model eğitimi ve yönlendirme biliminin geliştirilmesi
- Anthropic'in temel yeniliği: Constitutional AI
- Sonraki eğitim aşamasında modelin okuyup tüm eğitim görevleri boyunca hatırladığı değerler ve ilkelerden oluşan merkezi belge
- Eğitim hedefi: modelin neredeyse her zaman bu anayasaya uymasını sağlamak
- Anthropic'in güncel anayasasının başlıca özellikleri:
- Yasaklar listesi yerine yüksek düzeyli ilkeler ve değerler sunması
- Claude'un kendisini belirli türde bir kişi (etik ama dengeli ve düşünceli biri) olarak görmesini teşvik etmesi
- Kendi varoluşuna ilişkin varoluşsal sorularla meraklı ama zarif biçimde yüzleşmesini teşvik etmesi
- "Yetişkin olunca açılması için mühürlenmiş, vefat etmiş ebeveynlerden gelen mektup" hissi vermesi
- Kimlik, karakter, değerler ve kişilik düzeyinde eğitim vermek, belirli talimatlardan daha tutarlı ve sağlıklı bir psikolojiye yol açma olasılığı taşır
- 2026 için ulaşılabilir hedef: Claude'u anayasanın ruhunu neredeyse asla ihlal etmeyecek şekilde eğitmek
- Anthropic'in temel yeniliği: Constitutional AI
-
2. Yorumlanabilirlik (Interpretability) biliminin geliştirilmesi
- AI modelinin içine bakıp davranışı teşhis ederek sorunları belirlemek ve düzeltmek
- Anayasa eğitimi iyi yapılsa bile, Claude daha güçlü hâle gelip dünyada daha büyük ölçekte hareket ettikçe daha önce gözlenmemiş sorunlar ortaya çıkabilir
- "İçine bakmak" = Claude'un sinir ağını oluşturan sayıları ve işlemleri analiz ederek mekanik olarak ne hesapladığını anlamak
- İlerleme durumu:
-
-
Claude sinir ağının içinde, insanların anlayabileceği fikir ve kavramlara karşılık gelen on milyonlarca "özellik" tespit edilebilir
- Özellikler seçici olarak etkinleştirilerek davranış değişikliği sağlanabilir (ör. Golden Gate Claude)
- Ölçü, zihin kuramı muhakemesi, adım adım akıl yürütme gibi karmaşık davranışları koordine eden "devreler" haritalanabilir
- Mekanik yorumlanabilirlik teknikleriyle güvenlik önlemleri iyileştirilebilir ve yeni model yayımlanmadan önce "denetim" yapılabilir (aldatma, komplo, güç arayışı kanıtlarını arama)- Yorumlanabilirliğin kendine özgü değeri: Modelin içine bakıp nasıl çalıştığını anlayarak, doğrudan test edilemeyen varsayımsal durumlarda modelin ne yapacağını çıkarabilme
-
3. Model izleme ve kamuya açık paylaşım
- İç ve dış gerçek kullanımlarda modeli izlemek için altyapı kurma
- Tespit edilen sorunları kamuya açık şekilde paylaşma
- İnsanlar belirli davranışları fark ederse, bunlar mevcut ya da gelecekteki sistemlerde izlenebilir
- Yapay zeka şirketleri birbirinden öğrenebilir (bir şirket açıklarsa diğerleri de dikkat kesilir)
- Anthropic, her model yayımlandığında eksiksizlik ve risklerin derinlemesine incelenmesini hedefleyen "sistem kartları" yayımlıyor (yüzlerce sayfaya ulaşıyor)
- Şantaj eğilimi gibi özellikle kaygı verici davranışlar daha güçlü biçimde duyuruluyor
-
4. Endüstri ve toplum düzeyinde koordinasyon
- Tek tek yapay zeka şirketlerinin iyi uygulamaları yeterli değil; bunu tüm şirketler yapmıyor ve en kötü şirketler risk yaratıyor
- Bazı yapay zeka şirketleri mevcut modellerde çocukların cinsel olarak nesneleştirilmesine karşı endişe verici bir tutum sergiliyor → gelecekteki modellerin otonomi risklerine yanıt verme kapasitesi konusunda soru işareti
- Yapay zeka şirketleri arasındaki ticari rekabet kızıştıkça otonomi risklerine odaklanmak zorlaşıyor
- Tek çözüm yasama (yapay zeka şirketlerinin davranışlarını doğrudan etkileyen veya Ar-Ge teşvikleri sağlayan yasalar)
-
Düzenlemeye temkinli yaklaşım
- Otonomi riskinin ciddi bir sorun haline gelip gelmeyeceği kesin değil
- Yalnızca risk olasılığı nedeniyle bile Anthropic önemli maliyetleri üstleniyor, ancak düzenleme geniş bir aktör kitlesine ekonomik maliyet dayatıyor
- Birçok aktör, otonomi riskinin gerçek olduğuna ya da yapay zekanın yeterince güçlü hale geleceğine inanmıyor
- Aşırı kuralcı yasamanın, güvenliği gerçekten artırmadan zaman kaybettiren bir "güvenlik tiyatrosuna" dönüşme riski var
- Anthropic'in görüşü: Önce şeffaflık yasalarıyla başlamak
- California'nın SB 53'ü ve New York'un RAISE Act'i buna örnek
- Anthropic tarafından desteklendi ve başarıyla kabul edildi
- Özellikle yan zararları en aza indirmeye odaklanıyor (ör. yıllık geliri $500M'nin altında olan küçük şirketlerin muaf tutulması)
- Şeffaflık yasaları zaman içinde otonomi riskinin olasılığı ve ciddiyeti hakkında daha iyi bir sezgi sağlayacak
- Daha somut ve uygulanabilir risk kanıtları ortaya çıktıkça, gelecekteki yasalar nokta atışı şekilde odaklanabilir
2. Yıkım Amaçlı Kötüye Kullanım (Misuse for Destruction)
-
Temel endişe
- AI özerkliği sorununun çözüldüğünü ve AI’ın insanların istediği şekilde davrandığını varsayalım
- Herkesin cebinde bir süper zekalı dâhi olması, muazzam ekonomik değer yaratımı ve yaşam kalitesinde artış anlamına gelir
- Ancak herkesi insanüstü derecede yetkin kılmak bütünüyle olumlu değildir
- Daha önce yalnızca ileri düzey teknik beceri, uzman eğitimi ve yoğun odaklanma sahibi küçük bir azınlığın erişebildiği sofistike ve tehlikeli araçları (kitle imha silahları vb.) kullanarak, bireylerin ya da küçük grupların çok daha büyük ölçekte yıkıma yol açma kapasitesini artırabilir
-
Bill Joy’un öngörüsü (25 yıl önce)
- "Nükleer silah üretimi, nadir hammaddelere ve korunan bilgilere erişim gerektiriyordu. Biyolojik ve kimyasal silah programları da büyük ölçekli faaliyetler gerektiriyordu."
- "21. yüzyıl teknolojileri—genetik, nanoteknoloji, robotik—tamamen yeni türde kazalar ve kötüye kullanımlar doğurabilir... bireyler veya küçük gruplar için geniş ölçekte erişilebilir"
- "Biz aşırı kötülüğün mükemmelleşmesine yaklaşıyoruz... aşırı bireylerin şaşırtıcı ve korkutucu biçimde güçlendirilmesi"
-
Yetenek ve motivasyon ilişkisi
- Büyük ölçekli yıkım için hem motivasyon hem de yetenek gerekir
- Yetenek yalnızca yüksek eğitimli küçük bir kesimle sınırlıysa, bireylerin büyük ölçekli yıkım yaratma riski görece sınırlı kalır
- Dengesiz bir yalnız kişi okul saldırısı düzenleyebilir, ancak nükleer silah yapmak ya da salgın yaymak onun için zordur
- Yetenek ile motivasyon negatif korelasyonlu olabilir:
- Salgın yayma becerisine sahip bir kişinin yüksek eğitimli olma olasılığı yüksektir (ör. moleküler biyoloji doktorası)
- Umut verici bir kariyeri, istikrarlı ve disiplinli bir kişiliği vardır, kaybedecek çok şeyi bulunur
- Böyle birinin hiçbir çıkarı olmadan çok sayıda insanı öldürmeye çalışması düşük olasılıktır — bunun için saf kötülük, yoğun bir hınç veya istikrarsızlık gerekir
- Bu tür insanlar vardır ama nadirdir; ortaya çıktıklarında da çok sıra dışı oldukları için büyük haber olurlar
- Matematikçi Theodore Kaczynski (Unabomber): FBI tarafından yakalanmaktan yaklaşık 20 yıl kaçtı, teknoloji karşıtı bir ideolojiye sahipti
- Biyosavunma araştırmacısı Bruce Ivins: 2001 şarbon saldırılarının arkasındaki kişi olduğu düşünülüyor
- Aum Shinrikyo: sarin sinir gazı edinip 1995’te Tokyo metrosunda 14 kişiyi öldürdü, yüzlerce kişiyi yaraladı
-
Biyolojik riskin en endişe verici alan olmasının nedeni
- Bulaşıcı biyolojik etkenlerle yapılmış bir saldırı görülmedi; çünkü bu tür etkenleri üretme ya da edinme kapasitesi bu kişilerin yeteneklerinin ötesindeydi
- Moleküler biyolojideki ilerlemeler biyolojik silah üretiminin önündeki engelleri ciddi biçimde azaltmış olsa da hâlâ muazzam uzmanlık gerektiriyor
- Endişe şu ki, cebinizdeki dâhi bu engeli ortadan kaldırarak herkesi bir moleküler biyoloji doktorası seviyesine çıkarabilir ve biyolojik silahların tasarımı, sentezi ve salınması süreçlerinde adım adım yol gösterebilir
- Bu da yetenek ile motivasyon arasındaki korelasyonu bozar:
- İnsan öldürmek isteyen ama disiplini ya da tekniği olmayan dengesiz bir yalnız kişi, PhD düzeyinde bir viroloğun yeteneklerine yükseltilir
- Oysa PhD düzeyindeki bir virologun böyle bir motivasyona sahip olma ihtimali düşüktür
- Biyolojinin dışında da büyük yıkım mümkündür, ancak bu mantık bugün yüksek düzeyde teknik beceri ve disiplin gerektiren tüm alanlara genellenebilir
-
Biyolojik riskin ayrıntıları
- Bazı biyolojik etkenler, yayılımı en üst düzeye çıkarma yönünde kararlı bir çaba olduğunda milyonlarca insanın ölümüne yol açabilir
- Ancak bu hâlâ çok yüksek düzeyde teknik beceri gerektirir (geniş çevrelerce bilinmeyen son derece spesifik adımlar ve prosedürler dâhil)
- Endişe yalnızca sabit bilgi değildir: LLM’lerin ortalama bilgi ve beceriye sahip bir kişiyi karmaşık süreçler boyunca etkileşimli biçimde yönlendirebilme yeteneğidir (teknik desteğin teknik olmayan birinin karmaşık bilgisayar sorununu uzaktan çözmesine benzer şekilde, haftalar hatta aylar süren bir süreç boyunca)
- Daha yetkin LLM’ler (bugünkünden belirgin biçimde daha güçlü olanlar) daha korkutucu eylemleri mümkün kılabilir
- 2024’te önde gelen bilim insanları, tehlikeli yeni bir organizma türü olan "ayna yaşam (mirror life)" araştırmasının riskleri hakkında bir mektup yazdı:
- Biyolojik organizmaları oluşturan DNA, RNA, ribozomlar ve proteinlerin hepsi aynı kiraliteye (handedness) sahiptir
- Zıt kiraliteye sahip biyolojik maddenin üreyebilen, eksiksiz bir organizmaya dönüştürülmesi son derece tehlikeli olabilir
- Sol elli yaşam formları, Dünya’daki hiçbir biyolojik madde ayrıştırma sistemi tarafından sindirilemeyebilir
- Kontrolsüz biçimde yayılıp tüm yaşam formlarını yerinden edebilir ve en kötü senaryoda Dünya’daki tüm yaşamı yok edebilir
- Ayna yaşamın oluşturulması ve potansiyel etkileri konusunda önemli bilimsel belirsizlik vardır
- 2024 tarihli rapor, "ayna bakterilerin önümüzdeki 1 yıl ile birkaç on yıl içinde üretilebileceği" sonucuna vardı
- Yeterince güçlü AI modelleri (bugünkünden çok daha yetkin olanlar), bunu yapmanın yollarını çok daha hızlı keşfedebilir ve birilerine bunu gerçekten yapmaları için yardımcı olabilir
-
Şüpheciliğe yanıt
-
"Google’da her bilgi var" iddiası
- 2023’teki şüphecilik, gerekli tüm bilgileri Google verdiği için LLM’lerin ek bir katkı sunmadığı yönündeydi
- Yanıt: Genomlar serbestçe erişilebilir olabilir, ancak bazı kritik adımlar ve çok büyük miktarda pratik bilgi birikimi bu şekilde edinilemez
- 2023’ün sonuna gelindiğinde LLM’ler bazı süreç adımlarında Google’ın sağlayamayacağı bilgileri açıkça sunuyordu
-
"Uçtan uca (end-to-end) faydalı değil" iddiası
- LLM’lerin biyolojik silahların edinimi değil yalnızca teorik bilgi sağladığı yönündeki şüphecilik
- Yanıt: 2025 ortası itibarıyla ölçümler, LLM’lerin birçok ilgili alanda önemli ölçüde yardım (uplift) sağlayabildiğini ve başarı olasılığını 2 ila 3 kat artırabildiğini gösteriyor
- Bu nedenle Claude Opus 4’ün (ve devamındaki Sonnet 4.5, Opus 4.1, Opus 4.5 modellerinin) Anthropic’in AI Safety Level 3 korumaları altında yayımlanmasına karar verildi
-
"AI dışında başka önlemler var" iddiası
- Gen sentezi endüstrisi talep üzerine biyolojik örnekler üretiyor, ancak bunların patojen içermediğini taramayı zorunlu kılan federal bir düzenleme yok
- MIT araştırması: 38 sağlayıcıdan 36’sı, 1918 gribi dizisini de içeren siparişleri yerine getirdi
- Zorunlu gen sentezi taramasını destekliyor, ancak bunun tek başına yeterli olmadığını; AI sistemlerindeki guardrail’lerle tamamlayıcı olduğunu savunuyor
-
"Kötü aktörlerin gerçek kullanım eğilimiyle arasında boşluk var" iddiası (en güçlü karşı argüman)
- Bir model prensipte faydalı olsa bile, kötü aktörlerin onu gerçekten kullanma eğilimiyle arasında bir boşluk olabilir
- Bireysel kötü aktörlerin çoğu istikrarsız kişiler olduğundan, davranışları tanım gereği öngörülemez ve irrasyoneldir
- Belirli bir tür şiddet saldırısının mümkün olması, birinin onu yapmaya karar vereceği anlamına gelmez
- Biyolojik saldırılar, saldırganın da enfekte olma ihtimalinin yüksek olması, askerî tarz fantezilere uymaması ve belirli kişileri seçici biçimde hedef almanın zor olması nedeniyle cazip olmayabilir
- AI rehberlik etse bile, aylar süren bir süreç çoğu istikrarsız bireyde bulunmayan sabır gerektirir
- Yanıt: Bu, son derece kırılgan korumalara güvenmektir
- Dengesiz bir yalnız kişinin motivasyonu herhangi bir nedenle ya da nedensiz biçimde değişebilir
- Halihazırda saldırılarda LLM kullanıldığı örnekler vardır (biyoloji alanında olmasa da)
- Dengesiz yalnız kişilere odaklanmak, ideolojik motivasyonlu teröristleri göz ardı eder (ör. 9/11 hava korsanları çok büyük zaman ve emek harcamaya isteklilerdi)
- Mümkün olduğunca çok insanı öldürme motivasyonu er ya da geç ortaya çıkacaktır ve yöntem olarak biyolojik silahları işaret eder
- Son derece nadir bir motivasyon olsa bile, yalnızca bir kez gerçekleşmesi yeterlidir
- Biyoloji ilerledikçe (giderek daha fazla AI tarafından da yönlendirilerek) daha seçici saldırılar mümkün olabilir (ör. belirli soy hatlarını hedeflemek) → bu da son derece ürkütücü yeni bir motivasyon ekler
-
-
Savunma stratejisi
-
1. AI şirketlerinin model guardrail’leri
- Anthropic bunu çok agresif biçimde uyguluyor
- Claude’un anayasası, az sayıdaki belirli katı yasaktan oluşuyor; bunlardan biri biyolojik (veya kimyasal, nükleer, radyolojik) silah üretimine yardım etmeyle ilgili
- Tüm modeller jailbreak edilebilir olduğundan, ikinci savunma hattı olarak biyolojik silahlarla ilgili çıktıları özel olarak tespit edip engelleyen sınıflandırıcılar uygulanıyor (2025 ortasından itibaren, modeller risk eşiğine yaklaşmaya başladığında)
-
-
Bu tür sınıflandırıcıları düzenli olarak yükseltmek ve iyileştirmek, sofistike adversarial saldırılara karşı bile çok dayanıklı hale getirmek
- Bazı diğer yapay zeka şirketleri de sınıflandırıcı uyguluyor, ancak bunu yapan tüm şirketler değil
- Şirketlerin maliyeti düşürmek için sınıflandırıcıları kaldırmasına yol açabilecek bir mahkum ikilemi endişesi var
- Bu, yalnızca Anthropic’in ya da başka tek bir şirketin gönüllü adımlarıyla çözülemeyecek bir negatif dışsallık sorunu
- Gönüllü sektör standartları ile yapay zeka güvenlik enstitülerinin ve üçüncü taraf değerlendiricilerin doğrulaması yardımcı olabilir
- Sınıflandırıcılar bazı modellerde toplam çıkarım maliyetinin neredeyse %5’i kadarına ulaşsa da, kullanılmalarının doğru olduğu düşünülüyor
-
2. Devlet önlemleri
- Şeffaflık gereklilikleri ile başlanması gerektiği görüşü, otonomi riskinde olduğu gibi burada da geçerli
- Biyolojik silahların bazı özel durumlarında, daha hedefli mevzuatın zamanı yaklaşıyor olabilir
- Anthropic ve diğer şirketler, biyolojik risklerin niteliği ve şirketlerden makul olarak nelerin talep edilebileceği konusunda giderek daha fazla şey öğreniyor
- Tam koruma, uluslararası iş birliği, hatta jeopolitik hasımlarla iş birliğini bile gerektirebilir
- Biyolojik silah geliştirmeyi yasaklayan anlaşmaların bir emsali var
- Yapay zeka konusunda çoğu uluslararası iş birliğine şüpheyle bakılsa da, bu küresel ölçekte itidalin sağlanma ihtimali olan dar bir alan
- Otoriter rejimler bile büyük ölçekli biyoterör saldırıları istemez
-
3. Biyolojik saldırının kendisine karşı savunma geliştirmek
- Erken tespit için izleme ve takip
- Hava arıtma için Ar-Ge yatırımı (uzak-UVC (far-UVC) dezenfeksiyonu vb.)
- Saldırıya yanıt verip uyum sağlayabilecek hızlı aşı geliştirme
- Daha iyi kişisel koruyucu ekipman (PPE)
- En olası biyolojik etkenlere karşı tedaviler veya aşılar
- mRNA aşıları, mümkün olanlara dair erken bir örnek (belirli virüslere veya varyantlara yanıt verecek şekilde tasarlanabilir)
- Anthropic, bu konuda biyoteknoloji ve ilaç şirketleriyle iş birliği yapmak istiyor
- Savunma tarafına dair beklentiler sınırlı olmalı:
- Biyolojide saldırı ile savunma arasında bir asimetri var
- Etkenler kendi kendine hızla yayılırken, savunma tarafının tespit, aşılama ve tedaviyi çok sayıda insana çok hızlı biçimde organize etmesi gerekir
- Müdahale yıldırım hızında olmazsa (nadir bir durum), zararın çoğu müdahaleden önce gerçekleşir
- Gelecekteki teknolojik ilerlemeler dengeyi savunma tarafına kaydırabilir, ancak o zamana kadar önleyici güvenlik önlemleri ana savunma hattıdır
-
Siber saldırılara kısa bir değinme
- Yapay zeka güdümlü siber saldırılar, büyük ölçekli ve devlet destekli casusluk faaliyetleri de dahil olmak üzere gerçekten yaşanıyor
- Modeller hızla geliştikçe bu saldırıların daha yetkin hale gelmesi bekleniyor
- Yapay zeka güdümlü siber saldırıların, dünya genelindeki bilgisayar sistemlerinin bütünlüğü için ciddi ve benzeri görülmemiş bir tehdit oluşturması bekleniyor
- Anthropic, bu saldırıları engellemek ve nihayetinde güvenilir biçimde önlemek için çok yoğun çalışıyor
- Biyoloji kadar siber alana odaklanmamasının nedenleri:
1. Siber saldırıların insanları öldürme olasılığı çok daha düşük; kesinlikle biyolojik saldırıların ölçeğinde değil
2. Siber alanda saldırı-savunma dengesi daha yönetilebilir olabilir - doğru yatırım yapılırsa savunmanın yapay zeka saldırılarını yakalayıp ideal olarak geride bırakabileceğine dair umut var
3. İktidarı Ele Geirme Amacıyla Kötüye Kullanım (Misuse for Seizing Power)
-
Temel kaygı
- Bireylerin ve küçük ölçekli örgütlerin yapay zekayı büyük çaplı yıkım için kötüye kullanma riskinin ötesinde, daha büyük ve yerleşik aktörlerin iktidarı kullanmak veya ele geçirmek için yapay zekayı kötüye kullanmasından çok daha fazla endişe duymalıyız
- Machines of Loving Grace içinde, otoriter hükümetlerin güçlü yapay zekayı vatandaşları gözetlemek veya baskı altına almak için kullanabileceği ve bunun reforme edilmesinin ya da devrilmesinin son derece zor olacağı tartışılıyor
- Günümüz diktatörlüklerinde, baskının uygulanabilir düzeyi, emirleri insanların yerine getirmesi gerekliliği nedeniyle sınırlıdır - insanların çoğu zaman ne kadar insanlık dışı davranabileceğine dair bir sınırı vardır
- Yapay zekanın mümkün kıldığı diktatörlüklerde ise böyle sınırlar olmayacaktır
- Daha kötüsü, devletler yapay zekadaki üstünlüklerini kullanarak diğer devletler üzerinde güç elde edebilir
- Eğer "dâhi devlet" tek bir (insan) devletin askeri aygıtı tarafından sahip olunup kontrol edilir ve diğer devletler eşdeğer yeteneklere sahip olmazsa, onların kendilerini nasıl savunabileceğini görmek zordur: her açıdan daha üstün bir zekâya yenilirler (insanlarla fareler arasındaki savaşa benzer şekilde)
- Bu iki kaygı bir araya geldiğinde, küresel totaliter bir diktatörlük gibi sarsıcı bir ihtimale yol açar
- Bu sonucu önlemek, en yüksek önceliklerden biri olmalıdır
-
Yapay zekanın diktatörlüğü mümkün kılma, güçlendirme veya büyütme yolları
-
Tam otonom silahlar
- Güçlü yapay zeka tarafından yerel olarak kontrol edilen ve daha da güçlü yapay zeka tarafından küresel ölçekte stratejik olarak koordine edilen milyonlarca ya da milyarlarca tam otomatik silahlı drone sürüsü
- Yenilmez bir orduya dönüşerek dünyadaki herhangi bir orduyu mağlup edebilir ve tüm vatandaşların peşine düşerek iç muhalefeti bastırabilir
- Rusya-Ukrayna savaşındaki gelişmeler, drone savaşının zaten geldiği konusunda bizi uyarmalıdır (henüz tam otonom değil ve güçlü yapay zekayla mümkün olacakların yalnızca çok küçük bir kısmı)
- Güçlü yapay zekanın Ar-Ge'si, bir ülkenin drone'larını başka bir ülkeninkinden çok daha üstün hale getirebilir; üretimi hızlandırabilir, elektronik saldırılara karşı daha dayanıklı yapabilir ve hareket kabiliyetini artırabilir
- Bu silahların demokrasiyi savunmada meşru kullanım alanları da vardır: Ukrayna'nın savunmasında kritik oldular ve Tayvan'ın savunmasında da kritik olacaklardır
- Ancak bunlar tehlikeli silahlardır: diktatörlüklerin elindeyken endişe vericidirler, fakat demokratik hükümetlerin de iktidarı ele geçirmek için bunları kendi halkına yöneltme riski büyük ölçüde artar
-
Yapay zeka gözetimi
- Yeterince güçlü yapay zeka, dünyadaki herhangi bir bilgisayar sistemine sızabilir ve bu erişim sayesinde dünyadaki tüm elektronik iletişimi (veya kayıt cihazları kurabiliyor ya da el koyabiliyorsa yüz yüze iletişimin tamamını bile) okuyup anlayabilir
- Hükümetle aynı fikirde olmayan herkesin eksiksiz bir listesini oluşturmak, onların söylediklerinde ya da yaptıklarında bu uyumsuzluk açıkça görünmese bile, ürkütücü derecede mümkün olabilir
- Milyarlarca konuşmayı analiz eden güçlü yapay zeka, kamuoyunun ruh halini ölçebilir, sadakatsizlik odaklarının oluştuğunu tespit edebilir ve bunlar büyümeden bastırabilir
- Bu, günümüzün CCP'sinde bile görülmeyen ölçekte gerçek bir panoptikonun dayatılmasına yol açabilir
-
Yapay zeka propagandası
- "AI psychosis" ve "AI girlfriend" olguları, yapay zeka modellerinin bugünkü zekâ düzeylerinde bile insanlar üzerinde güçlü psikolojik etki yaratabildiğini gösteriyor
- Çok daha güçlü, insanların günlük yaşamına çok daha derinden yerleşmiş, onları aylar veya yıllar boyunca modelleyip etkileyebilen bu modellerin çok daha güçlü sürümleri, büyük olasılıkla insanların çoğunu istenen ideolojiye veya tutuma fiilen beyin yıkamayla yönlendirebilir
- Acımasız bir lider bunları sadakati güvence altına almak ve muhalefeti bastırmak için kullanabilir - nüfusun büyük çoğunluğu isyan edecek ölçüde baskıyla karşı karşıya kalsa bile
- Bugün insanlar TikTok'un potansiyel etkisi konusunda çok endişeleniyor (çocukları hedef alan CCP propagandası olarak)
- Bu da kaygı verici, ancak sizi yıllar boyunca tanıyan ve sizin hakkınızdaki bilgisini tüm görüşlerinizi şekillendirmek için kullanan kişiselleştirilmiş bir yapay zeka ajanı bundan çok daha dramatik biçimde güçlü olacaktır
-
Stratejik karar alma
- Veri merkezindeki dâhi devlet, bir devlete, gruba veya bireye jeopolitik strateji konusunda danışmanlık vermek için kullanılabilir - "sanal Bismarck"
- Yukarıdaki üç iktidar ele geçirme stratejisini optimize edebilir ve akla gelmemiş birçok başka stratejiyi de geliştirebilir
- Diplomasi, askeri strateji, Ar-Ge, ekonomik strateji ve daha birçok alanın güçlü yapay zeka sayesinde etkinliğinin büyük ölçüde artması muhtemeldir
- Bu teknolojilerin çoğu, demokrasilere meşru biçimde yardımcı olacaktır - demokrasilerin diktatörlüklere karşı kendilerini savunmak için en iyi stratejilere erişmesini isteriz
- Ancak kimin elinde olursa olsun kötüye kullanım ihtimali ortadan kalkmaz
-
-
Endişe yaratan aktörler (ciddiyet sırasına göre)
-
Çin Komünist Partisi (CCP)
- Çin, yapay zeka kapasitesinde ABD'den sonra ikinci sıradadır ve ABD'yi geçme olasılığı en yüksek ülkedir
- Mevcut hükümet otoriterdir ve ileri düzey bir gözetim devleti işletmektedir
- Halihazırda yapay zeka tabanlı gözetimi devreye almıştır (Uygurların baskı altına alınması dahil)
- TikTok üzerinden algoritmik propaganda kullandığı düşünülmektedir (diğer birçok uluslararası propaganda çabasının yanı sıra)
- Yukarıda açıklanan yapay zeka destekli totaliter kâbusa giden en net yola sahiptir
- Bu, Çin içinde temel sonuç olabilir; ayrıca CCP'nin gözetim teknolojisi ihraç ettiği diğer otoriter ülkelerde de aynı durum görülebilir
- Burada Çin'in adı özel bir düşmanlık nedeniyle anılmıyor - yalnızca yapay zeka kapasitesi, otoriter hükümet ve ileri düzey gözetim devletini en fazla bir araya getiren ülke olduğu için
- Hatta en çok Çin halkının kendisi, hükümetin eylemleri üzerinde söz hakkı olmadığı için, CCP'nin yapay zeka destekli baskısından zarar görme riski altındadır
- Çin halkına büyük hayranlık ve saygı duyuluyor; ayrıca Çin içindeki birçok cesur muhalifi ve onların özgürlük mücadelesi destekleniyor
-
Yapay zekada rekabetçi demokratik ülkeler
- Demokrasilerin, diktatörlüklerin bu araçları kullanmasına karşı koyabilmek için bazı yapay zeka tabanlı askeri ve jeopolitik araçlarda meşru çıkarları vardır
- Yapay zeka çağında diktatörlükleri yenmek için gerekli araçlarla demokrasilerin donatılmasını genel olarak destekliyorum - başka bir yol olduğunu düşünmüyorum
- Ancak demokratik hükümetlerin kendileri tarafından bu teknolojilerin kötüye kullanılma ihtimali göz ardı edilemez
- Demokrasilerde genellikle askeri ve istihbarat aygıtlarının kendi halkına yönelmesini engelleyen güvenceler bulunur (örneğin ABD'de Dördüncü Değişiklik ve Posse Comitatus Act)
- Yapay zeka araçları çok az insanla çalışabildiği için bu güvenceleri ve onları destekleyen normları aşma potansiyeline sahiptir
- Bazı demokrasilerde bu güvencelerin bir kısmı şimdiden kademeli olarak zayıflamaktadır
- Bu yüzden demokrasiler yapay zekayla donatılmalıdır, ama dikkatli sınırlar içinde: bu, diktatörlükle mücadele etmek için gereken bağışıklık sistemi gibidir, ancak bağışıklık sistemi gibi dönüp bize karşı tehdit haline gelme riski de taşır
-
Büyük veri merkezlerine sahip demokratik olmayan ülkeler
- Çin dışında, daha az demokratik yönetişime sahip ülkelerin çoğu önde gelen yapay zeka oyuncuları değildir; çünkü frontier AI modelleri üreten şirketlere sahip değillerdir
- Bu nedenle CCP'den temelde farklı ve daha düşük bir risk oluştururlar (çoğu daha az baskıcıdır; Kuzey Kore gibi daha baskıcı olanların ise kayda değer bir yapay zeka sektörü hiç yoktur)
- Ancak bu ülkelerden bazıları, çoğu zaman demokrasilerde faaliyet gösteren şirketlerin kurulumlarının bir parçası olarak, büyük veri merkezlerine sahiptir ve bunlar frontier AI'yi büyük ölçekte çalıştırmak için kullanılabilir (her ne kadar frontier'ı ileri taşıma yeteneği vermese de)
- Bununla bağlantılı bir miktar risk vardır - bu hükümetler ilkesel olarak veri merkezlerine el koyabilir ve içlerindeki yapay zeka devletini kendi amaçları için kullanabilir
- Bu, yapay zekayı doğrudan geliştiren Çin gibi ülkelere kıyasla daha az endişe vericidir, ancak yine de akılda tutulması gereken bir risktir
- Farklı yönetişim yapılarına sahip ülkelerde büyük veri merkezleri kurmaya yönelik bazı gerekçeler vardır; özellikle de bunlar demokratik ülkelerin şirketleri tarafından kontrol ediliyorsa (bu tür kurulumlar ilkesel olarak demokrasilerin daha büyük tehdit olan CCP ile daha iyi rekabet etmesine yardımcı olabilir)
- Bu tür veri merkezleri çok büyük olmadıkları sürece büyük bir risk oluşturmadıklarını düşünüyorum
- Ancak genel denge açısından, kurumsal güvencelerin ve hukukun üstünlüğü korumalarının daha az yerleşik olduğu ülkelere çok büyük veri merkezleri yerleştirirken dikkatli olunmalıdır
-
-
AI şirketleri
- Bir AI şirketinin CEO’su olarak bunu söylemek biraz garip, ancak bir sonraki aşamadaki risk aslında AI şirketlerinin kendisi
- AI şirketleri büyük veri merkezlerini kontrol ediyor, frontier modelleri eğitiyor, bu modellerin nasıl kullanılacağı konusunda en büyük uzmanlığa sahip ve bazı durumlarda her gün on milyonlarca ya da yüz milyonlarca kullanıcıyla temas edip onları etkileme potansiyeli taşıyor
- Eksik olan şey devletin meşruiyeti ve altyapısı; bu yüzden AI diktatörlüğünün araçlarını kurmak için gereken birçok şeyin AI şirketleri tarafından yapılması yasa dışı ya da en azından son derece şüpheli olur
- Ancak bazıları imkansız değil: örneğin AI ürünleri kullanılarak büyük ölçekli tüketici kullanıcı tabanları beyin yıkamaya maruz bırakılabilir ve kamuoyu bunun temsil ettiği tehlike konusunda tetikte olmalıdır
- AI şirketlerinin yönetişiminin yoğun incelemeyi hak ettiğini düşünüyorum
-
İtirazlara yanıt
-
"Nükleer caydırıcılık" argümanı
- AI otonom silahlarının askeri fetihini durdurmak için nükleer caydırıcılığa güvenilebileceği iddiası
- Birisi bu silahlarla tehdit ederse nükleer karşılık tehdidiyle karşılık verilebilir
- Endişe: veri merkezi içindeki dahi ulus karşısında nükleer caydırıcılıktan emin olunamaz
- Güçlü AI, nükleer denizaltıları tespit edip vurmanın yollarını tasarlayabilir, nükleer silah altyapısı operatörlerine karşı etki operasyonları yürütebilir ya da AI’nin siber yeteneklerini kullanarak nükleer fırlatma tespitinde kullanılan uydulara karşı siber saldırılar başlatabilir
- Bu aynı zamanda nükleer caydırıcılığın güvenliğini güçlendirip onu güçlü AI karşısında daha sağlam hale getirme argümanıdır ve nükleer silaha sahip demokrasiler bunu yapmalıdır
- Ancak güçlü AI’nin neler yapabileceğini ya da hangi savunmaların etkili olacağını bilmediğimiz için, bu tür önlemlerin sorunu mutlaka çözeceğini varsaymamalıyız
- Ya da yalnızca AI gözetimi ve AI propagandasıyla bir ülkenin ele geçirilmesi mümkün olabilir ve nükleer karşılığın uygun olacağı an net olmayabilir
- Saldıran devlet bizim blöfümüzü görebilir; bir drone ordusunun bizi fethetme konusunda ciddi riski olsa bile, nükleer silah kullanmaya gerçekten istekli olup olmadığımız belirsizdir
- Drone orduları, nükleer saldırıdan daha az ciddi ama konvansiyonel saldırıdan daha ciddi olan yeni bir şey olabilir
-
"Karşı önlemler" argümanı
- Bu diktatörlük araçlarına karşı karşı önlemler olabileceği iddiası
- Drone’lara kendi drone’larıyla karşı koymak, siber saldırılarla birlikte siber savunmayı da geliştirmek ve propagandaya karşı insanları bağışık hale getirmenin yollarını bulmak gibi
- Yanıt: bu savunmalar ancak karşılaştırılabilir derecede güçlü AI ile mümkün
- Veri merkezi içinde karşılaştırılabilir ölçüde zeki ve sayıca çok dahi uluslar olmadan, ne drone’ların kalite ya da miktarına yetişilebilir ne de siber savunma siber saldırının önüne geçebilir
- Dolayısıyla karşı önlemler meselesi, güçlü AI’de güç dengesi meselesine indirgeniyor
- Güçlü AI’nin özyinelemeli ya da kendini güçlendiren özellikleri endişe verici (makalenin başında tartışıldığı gibi): her AI nesli, bir sonraki AI neslini tasarlamak ve eğitmek için kullanılabilir
- Bu, kontrolden çıkan üstünlük riski doğurur: mevcut güçlü AI lideri arayı açabilir ve onu yakalamak zorlaşabilir
- Otoriter devletlerin bu döngüye ilk ulaşmasına izin verilmemeli
- Güç dengesi sağlansa bile, dünyanın Nineteen Eighty-Four benzeri diktatöryel bölgelere ayrılması riski vardır
- Birbirleriyle rekabet eden birkaç büyük gücün her birinin güçlü AI modellerine sahip olması ve bu yüzden diğer ülkeleri ezememesi durumunda bile, her büyük güç kendi yurttaşlarını içeride baskı altına alabilir ve bunu devirmek son derece zor olur (çünkü halkın kendini savunacak güçlü AI’si olmaz)
- Bu nedenle tek bir devlet dünyayı ele geçirmese bile AI destekli diktatörlüğü önlemek önemlidir
-
-
Savunma stratejisi
-
1. ÇKP’ye çip satışını yasaklamak
- ÇKP’ye çip, çip üretim araçları ya da veri merkezleri satılmamalıdır
- Çipler ve çip üretim araçları, güçlü AI için tek en büyük darboğazdır; bunları engellemek basit ama son derece etkili bir önlemdir, muhtemelen alabileceğimiz en önemli tek adım
- ÇKP’ye AI totaliter devleti kurma ve askeri fetih araçlarını satmanın hiçbir anlamı yoktur
- Bu tür satışları meşrulaştırmak için karmaşık argümanlar öne sürülüyor ("teknoloji yığınını dünyaya yayarsak" "ABD kazanır" vb.)
- Bu, Kuzey Kore’ye nükleer silah satıp füze gövdelerini Boeing ürettiği için ABD’nin "kazandığıyla" övünmeye benzer
- Çin, frontier çipleri seri üretme kapasitesinde ABD’nin yıllarca gerisindedir ve veri merkezindeki dahi ulusu inşa etmeye yönelik kritik dönem büyük olasılıkla önümüzdeki birkaç yıl içinde olacaktır
- Bu kritik dönemde AI sektörüne devasa bir destek vermek için hiçbir neden yoktur
-
2. Demokrasileri diktatörlüğe direnebilmeleri için AI ile güçlendirmek
- Anthropic’in ABD ve demokratik müttefiklerinin istihbarat ve savunma topluluklarına AI sağlamayı önemli görmesinin nedeni bu
- Özellikle Ukrayna ve (siber saldırılar yoluyla) Tayvan gibi saldırı altında olan demokrasileri savunmak yüksek öncelik taşıyor
- Demokrasilerin, istihbarat servislerini kullanarak diktatörlük rejimlerini içeriden bozması ve zayıflatması da önemlidir
- Otoriter tehdide yanıt vermenin tek yolu, onu askeri olarak yakalamak ve aşmaktır
- Güçlü AI’de üstünlük sağlayan ABD ile demokratik müttefikler koalisyonu, yalnızca kendini diktatörlüğe karşı savunmakla kalmayacak, aynı zamanda onları çevreleyip AI totaliter suistimallerini sınırlayabilecek bir konumda olacaktır
-
3. Demokrasiler içinde AI suistimaline karşı net kırmızı çizgiler çizmek
- Hükümetlerin AI ile yapabileceklerine sınırlar konmalıdır; böylece iktidarı ele geçiremez veya kendi yurttaşlarını baskı altına alamazlar
- Bunu şöyle formüle edebiliriz: savunma için AI’yi, bizi diktatör düşmanlarımıza benzetmeyecek şekilde kullanmalıyız
- Çizginin nereye çekileceği
- İki madde — AI’nin yurtiçinde kitlesel gözetim ve kitlesel propaganda için kullanılması — parlak kırmızı çizgidir ve tamamen yasa dışı olmalıdır
- ABD’de yurtiçinde kitlesel gözetimin zaten Dördüncü Değişiklik uyarınca yasa dışı olduğu ileri sürülebilir, ancak AI’nin hızlı ilerleyişi mevcut hukuki çerçevelerin iyi ele almak üzere tasarlanmadığı durumlar yaratabilir
- Örnek: ABD hükümetinin tüm kamusal konuşmaları büyük ölçekte kaydetmesi muhtemelen anayasaya aykırı olmayabilir
- Daha önce bu kadar bilgiyi düzenlemek zordu, ancak AI ile bunların hepsi yazıya dökülebilir, yorumlanabilir ve çapraz doğrulanarak çok sayıda ya da çoğu yurttaşın tutumları ve sadakatleri hakkında bir tablo oluşturulabilir
- AI tabanlı suistimallere karşı daha güçlü güvenlik korkulukları getiren yurttaş özgürlükleri odaklı yasamayı (veya anayasa değişikliğini) destekliyorum
- Diğer iki madde — tam otonom silahlar ve stratejik karar alma için AI — demokrasiyi savunmada meşru kullanım alanlarına sahip olmakla birlikte suistimale açık olduğundan, sınır çizmek daha zordur
- Gerekli olan şey, suistimali önleyecek güvenlik korkuluklarıyla birlikte aşırı dikkat ve yoğun denetimdir
- Başlıca korku: "düğmenin üzerinde çok az parmak" olması, yani bir kişinin ya da küçük bir grubun, emri yerine getirmek için başka insanların işbirliğine ihtiyaç duymadan bir drone ordusunu işletebilmesi
- AI sistemleri daha güçlü hale geldikçe, yanlış kullanılmamalarını sağlamak için daha doğrudan ve anlık denetim mekanizmaları gerekebilir (yürütme dışındaki devlet organları dahil)
- Özellikle tam otonom silahlara çok dikkatli yaklaşmalı ve uygun korumalar olmadan kullanımlarını aceleye getirmemeliyiz
-
4. Güçlü AI’nin en kötü suistimallerine karşı uluslararası tabu oluşturmak
- Mevcut siyasi rüzgarlar uluslararası işbirliği ve uluslararası normların tersine esiyor, ancak bunun acilen gerekli olduğu durumlar var
- Dünya, diktatörlerin elindeki güçlü AI’nin karanlık potansiyelini anlamalıdır
- AI’nin belirli kullanımlarının, insanların özgürlüklerini kalıcı olarak çalmayı ve kaçmanın mümkün olmadığı totaliter devletler dayatmayı amaçlayan girişimler olduğunu kavramalıdır
- Güçlü AI kullanılarak gerçekleştirilen kitlesel gözetim, kitlesel propaganda ve tam otonom silahların belirli türlerde saldırgan kullanımı, insanlığa karşı suç sayılmalıdır görüşünü savunuyorum
- Daha genel olarak, AI destekli totalitarizme ve onun tüm araçları ile yöntemlerine karşı güçlü normlara acilen ihtiyaç var
- Bu tutumun daha güçlü versiyonu şu: AI destekli totalitarizm olasılığı o kadar karanlıktır ki, diktatörlük güçlü AI sonrası çağda insanların kabul edebileceği bir yönetim biçimi olmamalıdır
-
-
Feodalizm sanayi devrimiyle işlevsiz hale geldiyse, yapay zeka çağı da demokrasinin insanlığın iyi bir geleceğe sahip olması için tek uygulanabilir yönetim biçimi olduğu sonucuna kaçınılmaz ve mantıksal olarak varabilir
-
5. Yapay zeka şirketleri ile hükümetler arasındaki bağlantıları dikkatle izleme
- Güçlü yapay zekaya içkin muazzam kabiliyetler nedeniyle, hissedarları korumak ve dolandırıcılık gibi olağan suistimalleri önlemek için tasarlanmış sıradan kurumsal yönetişimin, yapay zeka şirketlerinin yönetimi için yeterli olmayabileceği olasıdır
- Şirketlerin belirli adımları atmayacaklarına dair kamuya açık taahhütlerde bulunmalarının da (muhtemelen kurumsal yönetişimin bir parçası olarak) değeri olabilir:
- Özel olarak askeri donanım inşa etmemek veya stoklamamak
- Tek bir kişinin hesap vermediği bir şekilde büyük miktarda bilgi işlem kaynağı kullanmamak
- Yapay zeka ürünlerini kendi lehlerine kamuoyunu manipüle eden propaganda için kullanmamak
- Riskler birçok yönden gelir ve bu yönlerin bazıları birbiriyle gerilim içindedir
- Tek sabit olan şey, herkes için sorumluluk, normlar ve korkuluklar aramamız gerektiğidir; "iyi" aktörlerin "kötü" aktörleri dengeleyecek kapasiteye sahip olmasını sağlarken aynı zamanda
-
4. Ekonomik karmaşa (Economic Disruption)
-
Temel kaygı
- Güvenlik risklerini bir kenara bırakırsak ya da çözüldüğünü varsayarsak, bir sonraki soru ekonomik olandır
- Bu muazzam "insan" sermayesi enjeksiyonunun ekonomi üzerindeki etkisi ne olacak?
- En bariz etki, ekonomik büyümede büyük bir artış
- Bilimsel araştırma, biyofarmasötik inovasyon, üretim, tedarik zinciri ve finansal sistem verimliliği gibi alanlardaki ilerleme hızının, çok daha hızlı ekonomik büyüme oranlarına yol açması neredeyse kesin
- Machines of Loving Grace içinde sürdürülebilir yıllık %10~20 GSYİH büyümesi olasılığı öne sürülüyor
- Ancak bu, iki ucu keskin bir kılıç: böyle bir dünyada mevcut insanların çoğunun ekonomik görünümü ne olacak?
- Yeni teknolojiler sık sık iş gücü piyasasında şok yaratır; geçmişte insanlar her zaman toparlandı, ancak önceki şoklar insan yeteneklerinin tüm olası yelpazesinin yalnızca küçük bir bölümünü etkiliyordu, bu yüzden yeni işlere genişlemek için alan vardı
- AI ise çok daha geniş kapsamlı ve çok daha hızlı bir etki yaratacak; bu nedenle işlerin iyi gitmesini sağlamak çok daha zorlu olacak
-
İş gücü piyasasında karmaşa
-
İşlerin yerini alma öngörüsü
- 2025'te, AI'nın önümüzdeki 1~5 yıl içinde tüm giriş seviyesi beyaz yaka işlerin yarısının yerini alabileceği konusunda çok açık biçimde uyarıda bulundu
- Ekonomik büyümeyi ve bilimsel ilerlemeyi hızlandırırken aynı zamanda işleri de ikame edecek
- Bu uyarı, konu hakkında kamusal tartışmayı başlattı
- Birçok CEO, teknolog ve ekonomist buna katıldı; ancak diğerleri, bunun "sabit iş miktarı" yanılgısına düştüğünü varsaydı ya da 1~5 yıllık zaman aralığını fark etmeyip AI'nın şu anda işleri ikame ettiğinin iddia edildiğini düşündü
- Emek ikamesinin neden kaygı verici olduğunu ayrıntılı biçimde açıklayarak bu yanlış anlamaları gidermekte fayda var
-
Teknolojiye iş gücü piyasasının normal tepkisi
- Yeni bir teknoloji ortaya çıktığında, belirli bir insan mesleğinin bazı kısımlarını daha verimli hale getirerek başlar
- Örnek: Sanayi Devrimi'nin başlarında, geliştirilmiş saban gibi makineler çiftçilerin mesleklerinin bazı yönlerinde daha verimli olmasını sağladı → üretkenlik arttı → ücretler yükseldi
- Sonraki aşamada, tarımın bazı bölümleri tamamen makinelerle yapılabilir hale geldi (harman makinesi, ekim makineleri vb.)
- Bu aşamada insanlar işin daha düşük bir oranını yapıyor olsa da, tamamladıkları görevler makinelerin yaptığı işle tamamlayıcı olduğu için daha fazla kaldıraç kazanır ve üretkenlik artmaya devam eder
- Jevons' paradox: çiftçilerin ücretleri, hatta belki çiftçi sayısı bile artmaya devam edebilir
- İşin %90'ı makineler tarafından yapılsa bile insanlar hâlâ yaptıkları %10'luk kısmı 10 kat daha fazla yapabilir, böylece aynı emekle 10 kat çıktı üretebilir
- Sonunda makineler neredeyse her şeyi yapar (modern biçerdöverler, traktörler vb.)
- Bu noktada bir insan istihdamı biçimi olarak tarım gerçekten keskin biçimde azalır ve kısa vadede ciddi karmaşaya yol açabilir
- Ancak tarım, insanların yapabileceği çok sayıdaki faydalı faaliyetten yalnızca biridir; bu yüzden insanlar sonunda fabrika makinelerini çalıştırmak gibi başka işlere geçer
- 250 yıl önce Amerikalıların %90'ı çiftlikte yaşıyordu ve Avrupa'da istihdamın %50~60'ı tarımdı
- Şimdi bu oran tek haneli düşük seviyelerde; çünkü işçiler sanayi işlerine geçti (ve sonrasında bilgi işçiliğine)
- Ekonomi, daha önce iş gücünün büyük bölümünü gerektiren şeyi artık yalnızca %1~2 ile yaparak, kalan iş gücünü daha gelişmiş bir sanayi toplumu inşa etmek için serbest bıraktı
- Sabit bir "iş miktarı" yoktur; yalnızca giderek daha azla daha fazlasını yapabilme kapasitesi vardır
- İnsanların ücretleri GSYİH artışına paralel olarak yükselir ve ekonomi, kısa vadeli karmaşa geçtikten sonra tam istihdamı korur
-
-
AI neden farklı
-
1. Hız
- AI'daki ilerleme hızı, önceki teknolojik devrimlere kıyasla çok daha yüksek
- Örnek: Son 2 yılda AI modelleri, tek satır kodu bile tamamlamakta zorlanan bir düzeyden, bazı kişilerin (Anthropic mühendisleri dahil) neredeyse tüm kodunu yazan bir düzeye ilerledi
- Yakında yazılım mühendisinin tüm işini uçtan uca yapabilir hale gelebilir
- "Tüm kodu yazmak" ile "bir yazılım mühendisinin işini uçtan uca yapmak" çok farklı şeylerdir — yazılım mühendisleri kod yazmanın yanı sıra test, ortamlar, dosyalar, kurulum yönetimi, bulut bilişim dağıtım yönetimi, ürün iterasyonu gibi çok daha fazla iş yapar
- İnsanların bu değişim hızına uyum sağlaması zor — hem belirli bir mesleğin işleyiş biçimindeki değişime hem de yeni işlere geçme gerekliliğine
- Efsanevi programcılar bile giderek kendilerini "geride kaldıklarını" söylerken tasvir ediyor
- Hız tek başına iş gücü piyasası ve istihdamın sonunda toparlanmayacağı anlamına gelmez; ancak insanlar ve iş gücü piyasası tepki verip denge kurmakta yavaş olduğundan, kısa vadeli geçiş benzeri görülmemiş ölçüde acı verici olabilir
-
2. Bilişsel genişlik
- "Veri merkezinin içindeki dâhiler ülkesi" ifadesinin ima ettiği gibi, AI çok geniş bir insan bilişsel yetenekleri yelpazesini — muhtemelen hepsini — yerine getirebilir hale gelecek
- Bu, mekanize tarım, ulaşım ya da bilgisayarlar gibi önceki teknolojilerden çok farklı
- Bilgisayarlar bir bakıma geneldir, ancak insan bilişsel yeteneklerinin çoğunu kendi başlarına açıkça yerine getiremezler (bazı alanlarda, örneğin aritmetikte, insanları açık ara geçseler bile)
- Elbette bilgisayarların üzerine inşa edilen şeyler, örneğin AI, artık geniş kapsamlı bilişsel yetenekleri yerine getirebilir
- Bu da, yerinden edilen işlerden iyi uyum sağlayan benzer işlere geçmeyi daha zor hale getirecek
- Örneğin finans, danışmanlık ve hukukta giriş seviyesi işlerin gerektirdiği genel entelektüel beceriler, belirli bilgi birikimleri epey farklı olsa da oldukça benzerdir
- Bu üç alandan yalnızca birini bozan bir teknoloji, çalışanların diğer iki yakın alternatife geçmesini sağlayabilir (ya da lisans öğrencileri bölüm değiştirebilir)
- Ancak üçünü birden aynı anda bozarsa (ve buna benzer daha birçok işle birlikte), insanların uyum sağlaması daha zor olabilir
- Üstelik mesele yalnızca mevcut işlerin çoğunun bozulması da değil — tarımın bir zamanlar istihdamın devasa bir bölümünü oluşturduğunu hatırlayın
- Ancak çiftçiler, daha önce yaygın olmayan fabrika makinelerini çalıştırma gibi görece benzer işlere geçebilmişti
- AI giderek insanın genel bilişsel profilini yakalıyor ve eski işler otomatikleşirken tipik olarak ortaya çıkan yeni işlerde de yetkin olacak
- Başka bir deyişle, AI belirli insan mesleklerinin değil, insanın genel olarak emeğinin ikamesidir
-
3. Bilişsel yeteneğe göre bölünme
- Geniş bir görev yelpazesinde AI'nın yetenek merdiveninin en altından en üstüne doğru ilerlediği görülüyor
- Örneğin kodlamada modeller, "vasat kodlayıcı" düzeyinden "iyi kodlayıcı"ya, oradan da "çok iyi kodlayıcı"ya ilerledi
- AI modelleri insanlarla tamamen aynı güçlü ve zayıf yön profiline sahip olmasa da, tüm boyutlarda oldukça eşit biçimde ilerledikleri için pürüzlü ya da dengesiz bir profilin nihayetinde önemli olmayabileceği düşünülebilir
- Şimdi aynı ilerlemeyi beyaz yaka işlerin genelinde de görmeye başlıyoruz
- Belirli beceri veya mesleklere sahip insanları etkilemek yerine (yeniden eğitimle uyum sağlanabilirken), AI'nın belirli doğuştan bilişsel özelliklere sahip insanları, yani daha düşük entelektüel kapasiteye sahip olanları (değiştirmesi daha zor) etkilemesi riskinden söz ediliyor
- Bu insanların nereye gideceği ve ne yapacağı belirsiz; işsiz ya da çok düşük ücretli bir "alt sınıf" oluşturabilecekleri endişesi var
- Geçmişte buna benzer bir şey yaşandı — örneğin bilgisayarlar ve internet, bazı ekonomistler tarafından "beceri yanlı teknolojik değişim" olarak görüldü
- Ancak bu beceri yanlılığı, AI için beklenen kadar aşırı değildi ve ücret eşitsizliğinin artmasına katkıda bulunduğu düşünülüyor; dolayısıyla pek de iç rahatlatıcı bir emsal sayılmaz
-
4. Boşlukları kapatma yeteneği
- İnsan mesleklerinin yeni teknolojiye uyum sağlama biçimi, işlerin birçok boyutu olması ve yeni teknoloji doğrudan insanın yerini alıyor gibi görünse bile çoğu zaman hâlâ bir boşluk kalmasıdır
- Eğer widget üreten bir makine icat ederseniz, insanların yine de makineye ham madde beslemesi gerekebilir
- Bu, elle widget üretmenin gerektirdiği çabanın yalnızca %1'i kadar emek istese bile, insan işçi basitçe 100 kat daha fazla widget üretebilir
- Ancak AI yalnızca hızla ilerleyen bir teknoloji değil, aynı zamanda hızla uyum sağlayan bir teknolojidir
-
-
Tüm model lansmanları boyunca yapay zeka şirketleri, modelin neleri iyi yapıp neleri iyi yapamadığını dikkatle ölçmeli; müşteriler de lansman sonrasında bu tür bilgileri sağlamalı
- Zayıflıklar, mevcut boşlukları örnekleyen görevler toplanıp bir sonraki model için eğitilerek çözülebilir
- Üretken yapay zekanın ilk dönemlerinde kullanıcılar, yapay zeka sistemlerinin belirli zayıflıkları olduğunu fark etti (örneğin yapay zeka görüntü modellerinin yanlış sayıda parmağa sahip eller üretmesi) ve bu zayıflıkların teknolojiye içkin olduğunu varsaydı
- Eğer öyle olsaydı, işlerdeki sarsıntı sınırlı kalırdı
- Ancak bu tür zayıflıkların neredeyse tamamı hızla çözüldü — çoğu zaman birkaç ay içinde
-
Şüpheciliğe yanıt
-
"Ekonomik yayılım yavaş olacak" iddiası
- Teknoloji insan emeğinin büyük bölümünü yapabiliyor olsa bile, ekonomi genelindeki gerçek uygulamanın çok daha yavaş olabileceği iddiası (yapay zeka sektöründen uzak ve benimsemesi yavaş sektörler vb.)
- Teknolojinin yavaş yayılımı kesinlikle gerçektir - çeşitli şirketlerdeki insanlarla konuşurken, yapay zeka benimsemesinin yıllar alacağı yerler olduğu görülüyor
- Bu yüzden giriş seviyesi beyaz yaka işlerde %50 sarsıntı tahmininin 1-5 yıl olması; güçlü yapay zekanın (teknik olarak yalnızca giriş seviyesini değil, çoğu ya da tüm işleri yapmaya yetecek düzeyde olanın) 5 yıldan çok daha kısa sürede geleceğinden şüphe edilse bile
- Ancak yayılım etkileri yalnızca zaman kazandırır
- Yayılımın tahmin edildiği kadar yavaş olacağından emin değilim
- Kurumsal yapay zeka benimsemesi, esas olarak teknolojinin kendi saf gücü nedeniyle önceki teknolojilerden çok daha hızlı bir hızla büyüyor
- Geleneksel şirketler yeni teknolojiyi benimsemede yavaş kalsa bile startup'lar bir "yapıştırıcı" görevi görerek benimsemeyi kolaylaştırabilir
- Bu işe yaramazsa startup'lar yerleşik şirketleri doğrudan sarsabilir
- Bu, belirli mesleklerin sarsılmasından ziyade büyük şirketlerin genel olarak sarsıldığı ve çok daha az emek yoğun startup'larla değiştirildiği bir dünyaya yol açabilir
- Ayrıca dünya servetinin giderek artan bir oranının Silikon Vadisi'nde yoğunlaştığı, kendi ekonomisinin dünyanın geri kalanından farklı bir hızda işlediği ve onları geride bıraktığı bir "coğrafi eşitsizlik" dünyasına da yol açabilir
- Tüm bu sonuçlar ekonomik büyüme için iyi olsa da, iş gücü piyasası ya da geride kalan insanlar için pek iyi olmayacaktır
-
"Fiziksel dünyaya kayış" iddiası
- İnsan işlerinin fiziksel dünyaya kayacağı ve böylece yapay zekanın hızla ilerlediği "bilişsel emek" kategorisinin tamamından kaçınabileceği iddiası
- Bunun ne kadar güvenli olduğundan emin değilim
- Birçok fiziksel emek işi zaten makineler tarafından yapılıyor (imalat) ya da yakında yapılacak (sürüş)
- Ayrıca yeterince güçlü yapay zeka, robot geliştirmeyi hızlandırabilir ve bu robotları fiziksel dünyada kontrol edebilir
- Bir miktar zaman kazandırabilir (bu iyi bir şey), ancak çok fazla kazandırmayacağından endişeliyim
- Sarsıntı yalnızca bilişsel işle sınırlı kalsa bile yine de benzeri görülmemiş büyüklükte ve hızda bir sarsıntı olurdu
-
"İnsan dokunuşu" iddiası
- Bazı görevlerin özünde insan dokunuşu gerektirdiği ya da bundan büyük fayda sağladığı iddiası
- Bu konuda biraz daha belirsizlik var, ancak yukarıda açıklanan etkilerin çoğunu dengelemeye yeteceği konusunda hâlâ şüpheliyim
- Yapay zeka zaten müşteri hizmetlerinde yaygın biçimde kullanılıyor
- Birçok kişi, kişisel sorunlarını bir terapiste anlatmaktan ziyade yapay zekaya anlatmanın daha kolay olduğunu bildiriyor - yapay zeka daha sabırlı
- Kız kardeşi hamileliği sırasında tıbbi sorunlarla mücadele ederken sağlık hizmeti sağlayıcılarından ihtiyaç duyduğu yanıtları ya da desteği alamadığını hissetti ve Claude'un daha iyi bir hasta başı yaklaşımına sahip olduğunu düşündü (sorunları teşhis etmede de daha başarılıydı)
- İnsan dokunuşunun gerçekten önemli olduğu işler olacaktır, ancak bunların ne kadar çok olduğundan emin değilim — burada iş gücü piyasasındaki neredeyse herkes için iş bulmaktan söz ediyoruz
-
"Karşılaştırmalı üstünlük" iddiası
- Yapay zeka her şeyde insanlardan daha iyi olsa bile, insanlarla yapay zekanın beceri profilleri arasındaki göreli farkın ticaret ve uzmanlaşma için temel oluşturduğu iddiası
- Sorun: Yapay zeka kelimenin tam anlamıyla insanlardan binlerce kat daha üretken olduğunda bu mantık çökmeye başlar
- Küçük işlem maliyetleri bile yapay zekanın insanlarla işlem yapmasını değersiz hâle getirebilir
- İnsanların teknik olarak sunabileceği bir şey olsa bile ücretler çok düşük olabilir
- Tüm bu etkenler aşılabilir — iş gücü piyasası böylesine büyük bir sarsıntıya uyum sağlayacak kadar esnek olabilir
- Ancak sonunda uyum sağlansa bile, yukarıdaki unsurlar kısa vadeli şokun eşi benzeri görülmemiş ölçekte olacağını gösteriyor
-
-
Savunma stratejileri
-
1. Gerçek zamanlı doğru veri toplama
- Ekonomik değişim çok hızlı gerçekleşirse, neler olduğuna dair güvenilir veri elde etmek zorlaşır
- Güvenilir veri olmadan etkili politika tasarlamak zordur
- Devlet verilerinde şu anda şirketler ve sektörler genelinde yapay zeka benimsenmesine ilişkin ayrıntılı ve yüksek frekanslı veri eksik
- Geçtiğimiz yıl boyunca Anthropic, Economic Index'i yürüttü ve kamuya açık biçimde yayımladı; model kullanımını sektör, görev ve konuma göre neredeyse gerçek zamanlı olarak sınıflandırarak gösterdi (görevlerin otomatikleştirilip otomatikleştirilmediği ya da iş birliğiyle yapılıp yapılmadığı da dahil)
- Bu verileri yorumlamak ve yaklaşanı görmek için ayrıca bir Economic Advisory Council de işletiyor
-
2. Şirketlerle nasıl iş birliği yapılacağını seçme
- Geleneksel şirketlerdeki verimsizlikler, yapay zeka yayılımının çok patikaya bağımlı olabileceği anlamına geliyor; daha iyi bir yol seçmek için alan var
- Şirketler çoğu zaman "maliyet düşürme" (aynı işi daha az insanla yapmak) ile "yenilik" (aynı sayıda insanla daha fazlasını yapmak) arasında seçim yapabilir
- Piyasa sonunda her ikisini de üretecektir ve rekabetçi yapay zeka şirketlerinin her ikisine de bir ölçüde hizmet etmesi gerekir
- Ancak mümkün olduğunda şirketleri yenilik tarafına yönlendirmek için alan olabilir ve bu biraz zaman kazandırabilir
- Anthropic bu konu üzerinde aktif biçimde düşünüyor
-
3. Çalışanlara sahip çıkma
- Kısa vadede, şirket içinde çalışanları yeniden konumlandırmanın yaratıcı yolları, işten çıkarmaların gerekliliğini ertelemenin umut verici bir yolu olabilir
- Uzun vadede, toplam servetin muazzam olduğu ve üretkenlik artışı ile sermaye yoğunlaşması nedeniyle birçok şirketin değerinin büyük ölçüde arttığı bir dünyada, insan çalışanlar artık geleneksel anlamda ekonomik değer üretmese bile onlara uzun süre ödeme yapmaya devam etmek uygulanabilir olabilir
- Anthropic şu anda kendi çalışanları için olası yol seçeneklerini değerlendiriyor ve yakın gelecekte paylaşmayı planlıyor
-
4. Zengin bireylerin yükümlülüğü
- Son dönemde birçok zengin bireyin (özellikle teknoloji sektöründe) hayırseverliğin kaçınılmaz olarak sahtekârlık ya da faydasızlık olduğu yönünde alaycı ve nihilist bir tavır benimsemiş olması üzücü
- Gates Foundation gibi özel hayırseverlik girişimleri ve PEPFAR gibi kamu programları, gelişmekte olan ülkelerde on milyonlarca hayat kurtarmaya ve gelişmiş ülkelerde ekonomik fırsatlar yaratmaya yardımcı oldu
- Anthropic'in tüm kurucu ortakları servetlerinin %80'ini bağışlama sözü verdi
- Anthropic çalışanları da mevcut fiyatlarla milyarlarca dolar değerindeki şirket hisselerini bağışlamayı kişisel olarak taahhüt etti — şirketin eşleştirmeyi taahhüt ettiği bağışlar
-
5. Devlet müdahalesi
- Yukarıdaki tüm özel sektör önlemleri yardımcı olabilir, ancak nihayetinde bu ölçekteki makroekonomik sorunlar devlet müdahalesi gerektirecektir
- Muazzam bir ekonomik pasta ve yüksek eşitsizliğe (iş eksikliği ya da düşük ücretli işler nedeniyle) verilecek doğal politika yanıtı artan oranlı vergidir
- Vergiler genel olabilir ya da özellikle yapay zeka şirketlerini hedefleyebilir
- Vergi tasarımı karmaşıktır ve yanlış yapılabileceği birçok yol vardır
- Kötü tasarlanmış vergi politikalarını desteklemiyorum
- Bu makalede öngörülen aşırı eşitsizlik düzeyinin, temel ahlaki gerekçelerle daha güçlü vergi politikalarını haklı çıkardığını düşünüyorum
- Dünyanın milyarderlerine pratik bir argüman da sunulabilir: iyi versiyonu desteklemezlerse kaçınılmaz olarak kalabalığın tasarladığı kötü bir versiyonla karşılaşacaklar
-
Bütünlüklü bakış
- Sonuçta yukarıdaki tüm müdahaleleri zaman kazanma yöntemleri olarak görüyorum
- Eninde sonunda yapay zeka her şeyi yapabilecek ve bununla yüzleşmemiz gerekecek
- O zamana kadar yapay zekanın kendisini kullanarak piyasayı herkes için işe yarayacak şekilde yeniden yapılandırmayı umuyorum
-
-
Yukarıdaki müdahaleler, geçiş döneminin aşılmasına yardımcı olabilir
-
Ekonomik gücün yoğunlaşması
-
Temel kaygı
- İşlerin yerini alması ya da ekonomik eşitsizlik sorununun kendisinden ayrı olarak, ekonomik gücün yoğunlaşması sorunu vardır
- Bölüm 1, insanlığın yapay zeka tarafından etkisiz hale getirilmesi riskini tartışıyor
- Bölüm 3 ise vatandaşların devlet tarafından zorlama ya da baskıyla etkisiz hale getirilmesi riskini tartışıyor
- Ancak servet yoğunlaşması o kadar büyür ki az sayıda insan nüfuzlarıyla hükümet politikalarını fiilen kontrol eder ve sıradan vatandaşlar ekonomik kaldıraçtan yoksun oldukları için etkisiz kalırsa, başka bir tür etkisizleştirme ortaya çıkabilir
- Demokrasi, nihayetinde toplumun tamamının ekonominin işleyişi için gerekli olduğu fikriyle desteklenir
- Bu ekonomik kaldıraç ortadan kalkarsa, demokrasinin örtük toplumsal sözleşmesi işlemeyi durdurabilir
- Başkaları bu konuda yazdığı için ayrıntıya girmeye gerek yok, ancak bu kaygıya katılıyor ve bunun şimdiden başladığından endişe ediyor
-
Tarihsel karşılaştırma
- ABD tarihindeki aşırı servet yoğunlaşmasının en ünlü örneği Gilded Age'dir
- Gilded Age'in en zengin sanayicisi John D. Rockefeller idi
- Rockefeller'ın serveti o dönemde ABD GSYİH'sinin ~%2'sine ulaşıyordu
- Kişisel servet bir "stok", GSYİH ise bir "akış" olduğundan, bu Rockefeller'ın ABD'nin ekonomik değerinin %2'sine sahip olduğu anlamına gelmez
- Ancak bir ülkenin toplam servetini ölçmek GSYİH'den daha zordur ve kişisel gelir de yıldan yıla çok değişir
- En büyük kişisel servetin GSYİH'ye oranı aynı birimleri karşılaştırmasa da, aşırı servet yoğunlaşması için tamamen makul bir kıyas noktasıdır
- Bugün benzer bir oran, $600B servete karşılık gelirdi
- Dünyanın en zengin insanı (Elon Musk) bunu zaten aşmış durumda, yaklaşık $700B
- Dolayısıyla yapay zekanın ekonomik etkisinin büyük kısmından önce bile, zaten tarihsel olarak eşi benzeri görülmemiş bir servet yoğunlaşması düzeyindeydik
- Bir "deha ülkesi" ortaya çıkarsa, yapay zeka şirketlerinin, yarı iletken şirketlerinin ve aşağı akış uygulama şirketlerinin yılda ~$3T gelir elde etmesi, ~$30T değerlemeye ulaşması ve kişisel servetlerin trilyonlarca dolara çıkması hiç de uzak bir ihtimal değildir
- Böyle bir dünyada, bugünkü vergi politikası tartışmaları temelden farklı bir durum için yetersiz kalacaktır
-
Siyasi sistemle birleşmesi
- Bu ekonomik servet yoğunlaşmasının siyasi sistemle birleşmesi şimdiden kaygı verici
- Yapay zeka veri merkezleri, ABD ekonomik büyümesinin önemli bir bölümünü şimdiden oluşturuyor (gerçek yapay zeka verimliliği henüz büyük bir pay oluşturmuyor; veri merkezi harcamaları ise piyasanın gelecekte yapay zeka kaynaklı ekonomik büyüme beklentisine yönelik ön yatırımlarını temsil ediyor)
- Bu nedenle büyük teknoloji şirketlerinin (giderek daha fazla yapay zeka ya da yapay zeka altyapısına odaklanan) mali çıkarları ile hükümetin siyasi çıkarları çarpık teşvikler üretebilecek bir biçimde güçlü şekilde birbirine bağlanıyor
- Bu durum, teknoloji şirketlerinin ABD hükümetini eleştirmekte isteksiz olmasında ve hükümetin yapay zekaya yönelik aşırı düzenleme karşıtı politikaları desteklemesinde zaten görülebiliyor
-
-
Savunma stratejileri
-
1. Şirketlerin dahil olmamayı seçmesi
- Anthropic, her zaman siyasi bir aktör değil politika aktörü olmaya çalıştı ve yönetimden bağımsız olarak gerçek görüşlerini korudu
- Kamu yararıyla uyumlu makul yapay zeka düzenlemelerini ve ihracat kontrollerini destekleyip bunlar hakkında konuştu (hükümet politikalarıyla örtüşmediğinde bile)
- Yönetimle aynı fikirde olduğunda bunu söylüyor ve karşılıklı olarak desteklenen politikalar dünya için gerçekten iyi olduğunda ortak zemin buluyor
- Belirli bir partinin destekçisi ya da karşıtı değil, dürüst bir aracı olmayı hedefliyor
- Birçok kişi bunun durdurulması gerektiğini ve olumsuz muameleye yol açabileceğini söyledi, ancak bunu yaptığı 1 yıl içinde Anthropic'in değerlemesi 6 kattan fazla arttı
-
2. Yapay zeka sektörü ile hükümet arasında daha sağlıklı bir ilişki gerekli
- Siyasi hizalanmaya değil, somut politika katılımına dayalı bir ilişki
- Politikanın içeriğine katılma tercihi bazen ilkesel bir karar olarak değil, "ortamı okuyamama" ya da taktik hata olarak yorumlanıyor
- Bu çerçeveleme kaygı verici—sağlıklı bir demokraside şirketler, iyi politikaları sırf iyi oldukları için savunabilmelidir
- Yapay zekaya karşı kamusal tepki yükseliyor: düzeltilebilir olsa da şu anda odak yanlış yerde
- Bunun önemli bir kısmı, aslında sorun olmayan şeyleri (veri merkezlerinin su kullanımı gibi) hedef alıyor ve gerçek kaygıları çözmeyen çözümler öneriyor (veri merkezi yasakları veya kötü tasarlanmış servet vergileri gibi)
- Dikkat gerektiren temel mesele, yapay zeka geliştirmesinin belirli siyasi ya da ticari ittifaklar tarafından ele geçirilmeden, kamu yararına karşı sorumlu olmasıdır
-
3. Makroekonomik müdahaleler ve özel hayırseverliğin yeniden canlanması
- Daha önce açıklanan makroekonomik müdahaleler ve özel hayırseverliğin yeniden canlanması, ekonomik terazinin dengesini kurmaya yardımcı olur
- İşlerin yerini alma ve ekonomik gücün yoğunlaşması sorunlarını aynı anda ele alır
- Ülkemizin tarihine bakmalıyız: Gilded Age döneminde bile Rockefeller ve Carnegie gibi sanayiciler toplumun geneline karşı güçlü bir yükümlülük hissediyordu
- Toplumun onların başarısına muazzam ölçüde katkı sunduğunu ve geri vermeleri gerektiğini düşünüyorlardı
- Bu ruhun bugün giderek kayboluyor gibi göründüğünü ve bu ekonomik ikilemden çıkış yolunun büyük bir parçası olduğunu düşünüyor
- Yapay zeka ekonomisi patlamasının en ön saflarında yer alan insanlar, hem servetlerini hem de güçlerini paylaşmaya istekli olmalıdır
-
5. Dolaylı etkiler (Indirect Effects)
-
Bilinmeyen bilinmezler
- Bu son bölüm, bilinmeyen bilinmezlerin geniş bir kategorisini, özellikle de yapay zekanın olumlu gelişimi ile bunun bilim ve teknoloji genelinde yarattığı hızlanmanın dolaylı sonuçları olarak nelerin ters gidebileceğini ele alıyor
- Şimdiye kadar açıklanan tüm riskleri çözdüğümüzü ve yapay zekanın faydalarını toplamaya başladığımızı varsayalım
- Muhtemelen "10 yıla sıkıştırılmış bir yüzyıllık bilimsel ve ekonomik ilerleme" elde ederiz; bu da dünya için son derece olumlu olur
- Ancak bu hızlı ilerleme hızının doğurduğu sorunlarla başa çıkmak zorunda kalacağız ve bu sorunlar hızla kapımıza dayanabilir
- Yapay zeka ilerlemesinin sonucu olarak dolaylı biçimde ortaya çıkan ve önceden öngörülmesi zor başka riskler de doğabilir
-
Örnek kaygılar
-
Biyolojide hızlı ilerleme
- Birkaç yıl içinde bir yüzyıllık tıbbi ilerleme elde edersek, insan ömrünü önemli ölçüde uzatabiliriz
- İnsan zekasını artırma ya da insan biyolojisini kökten değiştirme kapasitesi gibi radikal yetenekler kazanma ihtimalimiz de var
- Mümkün olan şeylerdeki büyük değişim çok hızlı gerçekleşecek
- Sorumlu biçimde yapılırsa olumlu olabilir (Machines of Loving Grace'te anlatıldığı gibi), ancak her zaman çok ters gitme riski vardır
- Örneğin: insanları daha zeki yapma çabası, onları daha istikrarsız ya da güç peşinde koşan bireylere dönüştürebilir
- Yazılım içinde örneklenen dijital insan zihinleri olan "upload" ya da "tüm beyin emülasyonu" meselesi de var
- Bu, bir gün insanlığın fiziksel sınırlarını aşmasına yardımcı olabilir, ancak beraberinde rahatsız edici riskler de getirir
-
Yapay zeka insan hayatını sağlıksız biçimlerde değiştirebilir
- Her konuda insanlardan çok daha zeki milyarlarca zekanın bulunduğu bir dünya, yaşamak için çok tuhaf bir dünya olacaktır
- Yapay zeka insanlara aktif biçimde saldırmasa bile (bölüm 1) ve devletler tarafından baskı ya da kontrol amacıyla açıkça kullanılmasa bile (bölüm 3), normal iş teşvikleri ve görünüşte rızaya dayalı işlemler yoluyla pek çok şey ters gidebilir
- Yapay zeka psikozu, yapay zekanın intihara sürüklemesi yönündeki kaygılar ve yapay zekayla romantik ilişkiler hakkındaki endişelerde bunun ilk işaretlerini görebiliriz
- Örneğin: güçlü bir yapay zeka yeni bir din icat edip milyonlarca insanı buna döndürebilir mi?
- İnsanların çoğu, bir şekilde yapay zeka etkileşimlerine "bağımlı" hale gelebilir mi?
- Yapay zeka sistemleri her hareketi izleyip insanlara her zaman tam olarak ne yapmaları ve ne söylemeleri gerektiğini söylerse, insanlar özünde "kukla"ya dönüşebilir mi — "iyi" bir hayat yaşasalar da özgürlükten ya da başarma gururundan yoksun olarak
- Black Mirror yaratıcılarıyla oturup beyin fırtınası yaparsanız, bu tür senaryolardan onlarcasını üretmek zor olmayacaktır
- Bu, bölüm 1'deki sorunları önlemek için gerekenden de öte, Claude'un anayasasını iyileştirmenin önemine işaret ediyor
- Yapay zeka modellerinin kullanıcının uzun vadeli çıkarlarını gerçekten gözetmesini sağlamak önemli görünüyor — ince biçimde çarpıtılmış değil, düşünceli insanların onaylayacağı şekillerde
-
İnsanın amacı
- Bu, önceki maddeyle bağlantılıdır; ancak yapay zeka sistemleriyle belirli insan etkileşimlerinden ziyade, güçlü yapay zekanın bulunduğu bir dünyada insan yaşamının nasıl değişeceğiyle ilgilidir
- İnsanlar böyle bir dünyada amaç ve anlam bulabilir mi?
- Bence bu bir tutum meselesi: Machines of Loving Grace'te söylendiği gibi, insanın amacı bir alanda dünyanın en iyisi olmaya bağlı değildir
- İnsanlar, sevdikleri hikâyeler ve projeler aracılığıyla, çok uzun zaman dilimlerine yayılsa bile amaç bulabilir
- Ekonomik değer üretimi ile özdeğer ve anlam arasındaki bağı koparmamız gerekir
- Ancak bu, toplumun gerçekleştirmesi gereken bir geçiştir ve bunu iyi yönetememe riski her zaman vardır
-
-
Umut
- Bütün bu potansiyel sorunlara karşı umut şudur: bizi öldürmeyeceğine güvendiğimiz, baskıcı hükümetlerin bir aracı olmayan ve gerçekten bizim için çalışan güçlü yapay zekanın bulunduğu bir dünyada, bu sorunları öngörmek ve önlemek için yapay zekanın kendisini kullanabiliriz
- Ancak bu garanti değildir — diğer tüm risklerde olduğu gibi dikkatle ele alınması gerekir
Sonuç: İnsanlığın sınavı
-
Durumun zorluğu
- Bu denemeyi okumak, insanlığın ezici bir durumun içinde olduğu izlenimini verebilir
- Yazması da eziciydi (
Machines of Loving Gracein, yıllardır zihnimde yankılanan güzel bir müziğe biçim ve yapı kazandırma hissiyle tezat oluşturacak şekilde) - Durumun birçok yönü gerçekten zor
- AI, insanlık için birden fazla yönden tehdit getiriyor
- Farklı riskler arasında gerçek bir gerilim var; bazılarını hafifletmek, iğneye iplik geçirir gibi son derece dikkatli olunmazsa diğerlerini kötüleştirme riski taşıyor
-
Başlıca gerilimler
- AI sistemlerini insanlığı özerk biçimde tehdit etmeyecek şekilde dikkatle inşa etmek için zaman ayırmak, demokratik ülkelerin otoriter ülkelerin önünde kalma ve onlara boyun eğmeme ihtiyacıyla gerçek bir gerilim içinde
- Ancak diktatörlükle mücadele için gereken aynı AI destekli araçlar, fazla ileri giderse içeride kendi ülkesinde zorbalık yaratmaya yönelebilir
- AI kaynaklı terörizm, biyolojik kötüye kullanım yoluyla milyonlarca insanı öldürebilir; ancak bu riske verilen aşırı tepki, diktatoryal bir gözetim devletine giden yolu açabilir
- AI'ın emek ve ekonomide yoğunlaşma etkileri yalnız başına ciddi bir sorun olmakla kalmıyor, aynı zamanda bizi halk öfkesi, hatta sivil huzursuzluk ortamında diğer sorunlarla yüzleşmeye zorlayabilir (doğamızın daha iyi yanlarına güvenmek yerine)
- Her şeyden önce, bilinmeyenler dahil risklerin salt sayısı ve bunların hepsiyle aynı anda başa çıkma gerekliliği, insanlığın geçmek zorunda olduğu tehditkâr bir sınav yaratıyor
-
Teknolojiyi durdurmanın gerçek dışılığı
- Son birkaç yıl, teknolojiyi durdurma ya da hatta kayda değer ölçüde yavaşlatma fikrinin temelden sürdürülemez olduğunu açıkça göstermiş olmalı
- Güçlü AI sistemleri kurmanın formülü şaşırtıcı derecede basit; doğru veri ve ham hesaplama bileşiminden neredeyse kendiliğinden ortaya çıktığı bile söylenebilir
- Onun yaratılışı muhtemelen insanlığın transistörü icat ettiği anda, hatta daha da önce ateşi kullanmayı öğrendiğinde kaçınılmazdı
- Bir şirket inşa etmezse, bir başkası bunu neredeyse aynı hızda yapacaktır
- Demokratik ülkelerdeki tüm şirketler karşılıklı anlaşma veya düzenleyici emirle geliştirmeyi durdurur ya da yavaşlatırsa, otoriter ülkeler basitçe devam edecektir
- Teknolojinin muazzam ekonomik ve askeri değeri ile anlamlı yaptırım mekanizmalarının yokluğu düşünüldüğünde, onları durmaya ikna etmenin bir yolu görünmüyor
-
Olası yol: bir miktar yavaşlatma
- Jeopolitiğe gerçekçi bir bakışla uyumlu, AI geliştirmesini bir miktar yavaşlatmaya giden bir yol görünüyor
- Otoriter ülkelerin güçlü AI'a doğru yürüyüşünü birkaç yıl geciktirmek, onu inşa etmek için gereken kaynakları, yani çipleri ve yarı iletken üretim ekipmanlarını vermeyerek mümkün olabilir
- Bu, demokratik ülkelere, otoriter ülkeleri rahatça geride bırakırken risklere daha fazla dikkat ederek güçlü AI'ı daha dikkatli inşa etmek için "harcanabilecek" bir tampon sağlar
- Demokratik ülkeler içindeki AI şirketleri arasındaki rekabet, endüstri standartları ile düzenlemelerin karışımı yoluyla ortak bir hukuki çerçeve şemsiyesi altında yönetilebilir
-
Politika savunusunun zorlukları
- Anthropic, çip ihracat kontrollerini ve AI'ın dikkatli biçimde düzenlenmesini savunarak bu yolu güçlü biçimde destekledi
- Ancak sağduyuya dayalı görünen bu öneriler bile, ABD'li politika yapıcılar tarafından büyük ölçüde reddedildi (en çok ihtiyaç duyulan ülke olmasına rağmen)
- AI ile kazanılabilecek para çok fazla — kelimenin tam anlamıyla yılda trilyonlarca dolar — bu yüzden en basit önlemler bile, AI'ın doğasında bulunan politik ekonomiyi aşmakta zorlanıyor
- İşte tuzak burada: AI o kadar güçlü, o kadar parlak bir ödül ki, insan uygarlığının ona herhangi bir kısıtlama getirmesi çok zor
-
Evrensel meydan okuma
- Sagan'ın Contact'ta hayal ettiği gibi, aynı hikâyenin binlerce dünyada yaşanabileceğini düşünün
- Bir tür bilinç kazanıp araç kullanmayı öğrenir, teknolojide üstel yükselişi başlatır, sanayileşmenin ve nükleer silahların kriziyle yüzleşir ve hayatta kalırsa kumu düşünen makinelere dönüştürmeyi öğrendiğinde en zor ve son meydan okumayla karşı karşıya kalır
- Bu sınavı geçip
Machines of Loving Gracete anlatılan güzel toplumu kurup kuramayacağımız ya da kölelik ve yıkıma boyun eğip eğmeyeceğimiz, bir tür olarak karakterimize ve kararlılığımıza, zihnimize ve ruhumuza bağlı olacak
-
İyimser bakış
- Pek çok engele rağmen, insanlığın bu sınavı geçecek gücü kendi içinde taşıdığına inanıyorum
- AI modellerini anlamaya ve yönlendirmeye, bu modellerin karakterini ve anayasasını şekillendirmeye kariyerlerini adamış binlerce araştırmacıdan cesaret ve ilham alıyorum
- Bu çabaların kritik bir anda meyve verme ihtimalinin yüksek olduğunu düşünüyorum
- En azından bazı şirketlerin, modellerin biyoterör tehditlerine katkıda bulunmasını önlemek için anlamlı ticari bedeller ödemeyi göze alacaklarını ilan etmiş olmalarından cesaret alıyorum
- Bazı cesur insanların ana akım siyasi rüzgârlara direnip AI sistemleri için makul güvenlik sınırlarının ilk tohumlarını eken yasaları geçirmiş olmasından cesaret alıyorum
- Kamuoyunun AI'ın riskler taşıdığını anladığından ve bu risklerin ele alınmasını istediğinden cesaret alıyorum
- Dünyanın dört bir yanında özgürlüğün yılmaz ruhundan ve zorbalığa direnme kararlılığından cesaret alıyorum
-
Eylem çağrısı
- Başarılı olmak istiyorsak çabaları artırmalıyız
- İlk adım, teknolojiye en yakın olan kişilerin insanlığın içinde bulunduğu durum hakkında gerçeği söylemesidir (ben de her zaman bunu yapmaya çalıştım ve bu denemede bunu daha açık ve daha acil bir şekilde yaptım)
- Sonraki adım, dünyanın düşünürlerini, politika yapıcılarını, şirketlerini ve vatandaşlarını bu meselenin yakınlığına ve en yüksek önceliğe sahip olduğuna ikna etmektir — her gün haberlere hâkim olan binlerce başka sorunla kıyaslandığında buna düşünce ve siyasi sermaye yatırmaya değer olduğuna
- Sonra cesaret zamanı gelecek; ekonomik çıkarlara ve kişisel güvenliğe yönelik tehditlere rağmen ana akım eğilimlere karşı durup ilkelere bağlı kalarak yeterince insanın direndiği bir zaman
-
Kapanış
- Önümüzdeki birkaç yıl imkânsız derecede zor olacak; bizden verebileceğimizi düşündüğümüzden daha fazlasını isteyecek
- Ancak araştırmacılar, liderler ve yurttaşlar olarak geçirdiğim zaman boyunca, insanlığın kazanabileceğine inanmam için yeterli cesaret ve asalet gördüm
- İnsanlık en karanlık koşullarla karşı karşıya kaldığında, son anda zafer için gereken güç ve bilgeliği toplamanın bir yolunu bulur
- Kaybedecek zaman yok
3 yorum
Yalnızca fazla iyimser senaryolar düşünülerek yazılmış gibi görünüyor; bunların hiçbirinin kolay olmadığı açık.
Çünkü birçok durumda hedefin %90’ına ulaşmak için gereken çaba ve zamandan daha fazlası, %90’dan %91’e çıkmak gibi yalnızca %1’lik bir artış için gerekebiliyor.
Bense güçlü yapay zekanın ortaya çıkmasından çok, insanların güvenmemesi gereken yapay zeka çıktılarina giderek daha büyük bir güven duyması olgusunun güçlenecek olmasından daha çok endişe ediyorum.
Burada da kısa bir yorum yazarken bile ne dediği anlaşılmayacak şekilde yazan insanlar var; bir de AI’ya sordum, böyle dedi diye bunu gerçekmiş gibi aktaranlar var.
Bunun bir rapor mu yoksa roman mı olduğunu anlayamıyorum. 10 yıl önce olsa kesinlikle bir bilim kurgu romanı olurdu.
Hacker News yorumları
Alan Dean Foster’ın The I Inside eserinde geçen Colligatarch tasviri, yapay zekâya dair ilk izlenimimi büyük ölçüde şekillendirdi
Asimov’un robot serisinin topluma yeterli düzeyde kültürel bağışıklık kazandırdığına inanıyordum, ama şimdi bu işaretlerin silikleştiğini düşünüyorum
İnsanlar artık geleceği tartışmaktan çok “kim hatalı”, “neyi kaybedeceğiz” sorularına odaklanıyor
İdeal bir gelecekten söz edince “idealistlik” diye alay ediliyor, ütopyacı hayal gücü küçümseniyor
Nereye gitmek istediğimizi bile söyleyemiyorsak, hangi yöne ilerlememiz gerektiğini nasıl bileceğiz diye endişeleniyorum
Teknoloji çalışanları geride kalma korkusuyla rekabete sürükleniyor, ama aslında kimse yönü belirleyemiyor
Sadece ideal sonucu hayal etmenin ya da eleştirmenin gerçeği değiştirmeye yetmeyeceğine dair bir çaresizlik hissi var
Robotları mekanik bir dünya görüşü içinde tasarlıyordu; bugünkü gibi matematiksel modellere insan bilgisini boca etme yaklaşımını muhtemelen hayal etmemişti
Sorunun insan kibri olduğu dersi hâlâ geçerli, ama bugünkü riskler basit kural ihlallerinden çok daha karmaşık biçimlerde ortaya çıkıyor
Daha fazla gözetim ve iş yükü, daha az iş arkadaşı, daha uzun çalışma saatleri sıradan hale geldi
AI şirketleri de bu yapının içinde hareket ediyorsa, böyle bir sistemden ütopyaya nasıl geçilebileceği şüpheli görünüyor
İnşa ettikleri teknolojinin hangi edebi ve felsefi bağlamlarda tartışıldığını bile çoğu zaman bilmiyorlar
Sonunda diyaloğun kendisi imkânsız hale geliyor
Birçok kişi “AI bilişsel emeğin yerini alırsa insanlar fiziksel emeğe kayar” diyor, ama onun da güvenli olmadığını düşünüyorum
Üretim, sürücülük gibi alanlarda zaten robotlaşma ilerliyor ve AI’ın robot geliştirmeyi hızlandırma ihtimali de yüksek
2007 DARPA Urban Challenge’dan sonra 5-8 yıl içinde otonom sürüşün kitlesel işsizliğe yol açacağını sanıyordum, ama 2026 itibarıyla yalnızca Waymo sınırlı biçimde faaliyet gösteriyor
Yasa koyucuların AI’ın gerçek yeteneklerini abartıp UBI gibi politikaları çok erken devreye sokmasından endişe ediyorum
Üstelik o %20 aslında en kritik bölüm
AI yüzünden beyaz yakalılar işlerini kaybederse fiziksel emek piyasasına akın edecekler ve ücret rekabeti sertleşecek
LLM’ler fotoğraf tanıma ya da muğlak soruları anlama yoluyla teknik bariyerleri düşürürse, giriş daha da kolaylaşabilir ve işlerin kalıcılığı azalabilir
Şirketlerin gönüllü önlemlerle AI riskini hafifletebileceği iddiasına şüpheyle yaklaşıyorum
Şirketlerin neden kendi zararlarını göze alıp toplumsal riskleri azaltmak isteyeceği belirsiz
Geçmişte bunun örnekleri de pek aklıma gelmiyor
Düzenleme yerine öz denetim daha iyidir türü tartışmalar fazla basit
Anthropic düzenlemeye nispeten daha açık, ama OpenAI ve xAI düzenleme istemiyor
Google ve Anthropic sırasıyla temkinli ve esnek bir yaklaşım benimsiyor
Çin ise “parti çizgisine uygun konuşma”yı AI hizalaması olarak tanımlamak gibi başka sorunlar taşıyor
Ekonomik çalkantı konusunda çok kaygılı değilim
LLM’ler yazılım geliştirme üzerinde büyük etki yaratıyor, ama diğer sektörlerde değişim daha kademeli
CRUD işleri hızlandı, ama öz değişmedi
Yaratıcı insanlar daha fazlasını üretecek, fakat genel ekonomi yine eski tahminlere yakın bir tempoda ilerleyecek
Acaba diğer bilgi sektörleri de birkaç yinelemeden sonra benzer bir değişim yaşayabilir mi diye düşünüyorum
Gerçek yaratıcılık ve zevk otomatikleştirilemez
Henüz var olmaması, onun için endişelenmeye gerek olmadığı anlamına gelmez
AI’ın fiziksel dünya üzerindeki etkisine dair aşırı spekülasyon yapıldığını düşünüyorum
Veri merkezleri ve GPU üretimindeki tedarik zinciri kısıtları açıkça var, ama AI risk tartışmalarında görmezden geliniyor
Ağ üzerindeki riskler gerçekçi, fakat fiziksel ölçeklenmenin onlarca yıl alacağını düşünüyorum
Gerçek robotlaşma hâlâ insan müdahalesi gerektiriyor
Amodei’nin görüşleri, AI 2027 yazarlarınınkine şaşırtıcı derecede benziyor
AI araştırmasının kendini hızlandıran döngüsü, demokrasiye karşı otokrasi rekabeti, biyolojik silah riski, hızlı AI sıçraması gibi konularda neredeyse aynı bakış açısını paylaşıyorlar
Bu iki çalışmanın birbirini etkileyip etkilemediğini, yoksa sadece aynı sonuca mı ulaştıklarını merak ediyorum
İlk dönem üyeler hâlâ sektörün merkezinde ve farklı şirketlerde olsalar bile temel varsayımları ortak
“AGI mümkün ve tehlikelidir” inancı halka uç görünebilir, ama sektör içinde ana akım görüş sayılıyor
DeepMind, OpenAI, Anthropic’in hepsi bu düşünsel akıştan çıktı
İlk dönem rasyonalist hareketin yönü doğruydu belki, ama para, güç ve “kaçınılmazlık” mantığı tarafından yutulduğunu düşünüyorum
AI riskini bir erginlenme sınavı olarak gören bakışa katılıyorum
Gerçekten de ajana fazla özerklik verildiğinde beklenmedik davranışlar sergiliyor
“Testte iyi çalışıyor ama gerçek ortamda başarısız oluyor” farkı büyük
Ben iktidarın ele geçirilmesinden çok ekonomik dönüşümün daha büyük sorun olduğunu düşünüyorum
Hâlâ birçok mühendis AI araçlarını yavaş benimsiyor, bu yüzden riskin ne hızda gerçek olacağı benimseme eğrisine bağlı
Belki de zaten sınır noktaya ulaştık; bunu ancak zaman gösterecek
Geçmişte gözetim insan gücünün sınırlarıyla kısıtlıydı, ama artık teknoloji sayesinde her şey gözetlenebilir
Amazon, Google, Visa gibi şirketler bir kişiyi toplumsal olarak silebilir
AI hizalama sorunu artık iktidar sahiplerinin önyargı enjekte etmesi meselesine dönüşüyor
Dario’nun açıklamalarına bakınca, onun gördüğü dünyanın neden bu kadar farklı olduğunu merak ediyorum
Anthropic’in başarısının prompt-kod örneği verileri sayesinde olup olmadığından şüpheleniyorum
Claude’un İncil ayetleri ararken çeviri farklarını anlamayıp tekrar tekrar denemesini görünce, RLHF’nin yan etkilerini hissettim
Bir insanın “burada bir tuhaflık var” deyip duracağı noktada Claude sadece “denemeye devam ediyor”
Tek bir noktaya değil, trend çizgisine bakmak gerekir
Teknoloji sektörüne yeni girmiş biri olarak, bu tür tartışmaları okudukça geleceğe dair umutsuzluk hissediyorum
Sanırım sadece ben değil, 30 yaş altındaki kuşağın tamamı benzer bir kaygı taşıyor
Savaşların, salgınların, kıtlıkların içinden insanlar yine de çıktı
Sonunda elindekilere şükretmeyi öğrenmek gerekiyor
Şu anda iyi bir işim var, ama geleceğe hazırlanmak için tasarruf etmeye ve hayatta kalma hazırlığına odaklanıyorum
Geçmiş kuşakların iyimserliği bana gerçeklikten kopuk görünüyor
Medya olumsuz haberlerle kaygıyı büyüttüğü için bilgi diyeti ve okuma önemli
AI’ın insanı tamamen ikame edeceği aşama hâlâ uzak ve teknoloji hâlâ fırsatla riskin bir arada bulunduğu bir alan
Amodei gibi isimlerin finansman ve PR uğruna abartılı anlatılar kurduğunu unutmamak gerekir
AI’ın emeğin yerini alacağı iddiası, devasa bir yatırım oyununun sadece bir parçası
Asıl sorun teknolojinin kendisinden çok, onu tekelleştiren ve sömüren yapı
Farklı alanlarda çalışırsanız tabloyu daha net görürsünüz; o bilgi de sonunda değişim için bir silaha dönüşür