- LLM'ler, kod ile veriyi ayıramayan yapısal bir soruna sahip oldukları için prompt injection saldırılarına karşı savunmasızdır
- Özellikle harici verilere erişim, dahili sırları okuma ve dış dünya ile iletişim kurma yetkisi aynı anda verildiğinde, sözde ölümcül üçlü (lethal trifecta) ortaya çıkar ve ciddi zararlara yol açabilir
- Yapay zeka mühendisleri makine mühendisleri gibi düşünmeli; deterministik yaklaşım yerine olasılıksal sistemlerin belirsizliğini kabul eden ve güvenlik payı bırakan bir yönteme ihtiyaç vardır
- Viktorya dönemi mühendisleri malzemelerin belirsizliğine karşı aşırı tasarımla güvenlik payı bıraktığı gibi, yapay zeka sistemlerine de güvenlik sınırları, risk toleransı ve hata oranları eklenmelidir
- Fiziksel dünyadaki köprülerin yük sınırları olduğu gibi, yapay zeka sistemleri için de açık sınırlar ve güvenlik payı tanımlayan normlara ihtiyaç duyulan bir dönemdeyiz
LLM'lerin özündeki güvenlik sorunu
- Büyük dil modelleri, kod ile veriyi ayıramayan yapısal bir kusur taşır
- Bu nedenle prompt injection saldırılarına açıktırlar
- Sistemin uymaması gereken komutlara uymasını sağlamak için kandırılması
- Bazı durumlarda müşteri destek ajanının korsan gibi konuşmasına neden olmak gibi yalnızca utandırıcı sonuçlar doğurabilir
- Diğer durumlarda ise çok daha yıkıcı zararlar ortaya çıkabilir
Ölümcül Üçlü (Lethal Trifecta)
- En kötü etkiler, "ölümcül 3 unsur" oluştuğunda görülür
- Bu 3 unsur şunlardır
- Güvenilmeyen verilere erişim yetkisi
- Önemli gizli bilgileri okuyabilme yeteneği
- Dış dünya ile iletişim kurabilme yeteneği
- Şirketler çalışanlarına güçlü bir yapay zeka asistanı vermeye çalışırken bu üçünü aynı anda sağlarsa ciddi sorunlar kaçınılmaz olur
- Yalnızca yapay zeka mühendislerinin değil, genel kullanıcıların da yapay zekayı güvenli kullanmayı öğrenmesi gerekir
- Yanlış uygulama kombinasyonları yüklenirse bu 3 unsur tesadüfen oluşabilir
Yapay zeka mühendislerinin düşünme biçimini değiştirmesi gerekiyor
Makine mühendisi gibi düşünmek
- Daha iyi yapay zeka mühendisliği ilk savunma hattıdır
- Yapay zeka mühendisleri köprü gibi yapılar inşa eden mühendisler gibi düşünmelidir
- Kötü işçiliğin insan hayatına mal olabileceğini kabul ederek
Viktorya dönemi mühendisliğinden alınacak dersler
- Viktorya dönemi Britanyası'nın büyük yapıları, malzeme özelliklerinden emin olamayan mühendisler tarafından inşa edildi
- O dönemde demir, yetersizlik veya sahtekârlık nedeniyle sık sık düşük kaliteliydi
- Sonuç olarak mühendisler ihtiyatlı davranıp aşırı tasarımla fazladan dayanıklılık entegre etti
- Bunun sonucunda yüzyıllar boyunca ayakta kalan başyapıtlar ortaya çıktı
Günümüz yapay zeka güvenliği sektörünün sorunu
- Yapay zeka güvenlik sağlayıcıları bu şekilde düşünmüyor
- Geleneksel kodlama deterministiktir
- Güvenlik açıkları düzeltilmesi gereken hatalar olarak görülür
- Düzeltildiğinde ortadan kalkarlar
- Yapay zeka mühendisleri okul yıllarından beri bu düşünme biçimine alışkındır
- Bu yüzden sorunun yalnızca daha fazla eğitim verisi ve daha akıllı sistem prompt'larıyla çözülebileceği gibi davranırlar
Olasılıksal sistemlere uygun yaklaşım
Eğitim verisi ve prompt'ların sınırları
- Eğitim verisi ve akıllı prompt'lar riski azaltır
- En akıllı son model sistemler, kötü niyetli istekleri tespit edip reddetmede önceki ya da daha küçük modellere göre daha iyidir
- Ancak riski tamamen ortadan kaldıramazlar
- Çoğu yazılımdan farklı olarak LLM'ler olasılıksaldır
- Çıktılar, olası yanıtlar arasından rastgele bir seçime göre belirlenir
- Bu nedenle deterministik güvenlik yaklaşımı uygun değildir
Fiziksel dünya mühendisliğini örnek almak
- Daha iyi yöntem, fiziksel dünyanın mühendislerini örnek almaktır
- Öngörülemez sistemlerle birlikte çalışmayı öğrenmek
- Amaçlandığı gibi çalışacağı garanti edilemeyen kaprisli sistemlere karşı savaşmak yerine onlarla birlikte çalışmak
- Güvenlik payı, risk toleransı ve hata oranları getirerek öngörülemezliği daha rahat yönetmek
Yapay zeka çağında aşırı tasarım stratejisi
- Gerekli olandan daha güçlü modeller kullanmak
- Uygunsuz davranışlara kandırılma riskini azaltır
- LLM'nin harici kaynaklardan alabileceği sorgu sayısına sınır koymak
- Kötü niyetli sorguların verebileceği zarar riskine göre ayarlanmalı
- Güvenli biçimde başarısız olmayı vurgulamak
- Yapay zeka sisteminin gizli bilgilere erişmesi gerekiyorsa ona krallığın anahtarlarını teslim etmekten kaçınılmalıdır
Güvenlik sınırları belirleme ihtiyacı
- Fiziksel dünyada köprülerin yük sınırları vardır
- Sürücülere her zaman açıkça gösterilmese de bu sınırlar mevcuttur
- Kritik nokta: Bu sınırlar, hesaplamalara göre köprünün kaldırabileceği gerçek tolerans aralığının içinde yeterli güvenlik payı bırakır
- Artık yapay zeka sistemlerinin sanal dünyasının da benzer şekilde donatılmasının zamanı geldi
- Açık güvenlik sınırları ve payları olan sistemler tasarlamak zorunludur
1 yorum
Hacker News görüşü
cgroupssınırlamaları eklemek. Yine de güvenilmeyen verinin içine komut karışırsa, LLM’nin gizli verileri de dışarı sızdırma riski sürüyor. Kullanıcı LLM çıktısını fark etmeden dışarı kopyalarsa sızıntı yolu yeniden açılmış oluyor