- Son dönemde yapay zeka kodlama araçlarının kullanımıyla bağlantılı hizmet kesintileri peş peşe yaşanınca, Amazon tüm yapay zeka destekli kod değişiklikleri için kıdemli mühendislerden ön onay alınması sürecini devreye aldı
- İç notlara göre kesintilerin nedeni olarak "en iyi uygulamaları ve güvenlik önlemleri henüz tam olarak yerleşmemiş yeni GenAI kullanımları" gösterildi
- Bu ay Amazon web sitesi ve alışveriş uygulaması yaklaşık 6 saat boyunca erişilemez kaldı; müşteriler işlemleri tamamlayamadı, hesap bilgilerini kontrol edemedi ve fiyatlara bakamadı; nedenin hatalı bir yazılım kodu dağıtımı olduğu belirtildi
- AWS tarafında da yapay zeka kodlama yardımcısı Kiro ortamı silip yeniden oluşturunca 13 saatlik bir kesinti yaşandı; böylece yapay zekayla ilişkili en az iki olay rapor edilmiş oldu
- Yapay zeka kodlama araçlarının üretim ortamında kullanılmasının operasyonel riskleri somutlaşırken, junior ve mid-level mühendislerin yaptığı yapay zeka destekli değişikliklerde kıdemli mühendis imzasını zorunlu kılan acil önlemler uygulanmaya başladı
Amazon'un iç toplantısı ve alınan önlemler
- Amazon'un e-ticaret birimi, son dönemde yaşanan art arda hizmet kesintilerini analiz etmek için geniş kapsamlı bir mühendislik toplantısı düzenledi
- Toplantı gündeminde yapay zeka kodlama araçlarının kullanımıyla ilişkili olaylar da yer aldı
- İç brifing notunda, son aylarda “yüksek riskli (high blast radius)” olayların arttığı ve bunun başlıca nedenleri arasında “Gen-AI destekli değişikliklerin” bulunduğu belirtildi
- Belgede, “henüz tam olarak yerleşmemiş yeni GenAI kullanım örneklerinin” katkıda bulunan faktörler arasında olduğu açıkça yazıldı
- Kıdemli başkan yardımcısı Dave Treadwell, e-postasında “son dönemde site ve altyapı erişilebilirliğinin iyi olmadığını” söyledi
Yapay zekayla ilgili kesinti örnekleri
- Amazon web sitesi ve alışveriş uygulaması ayın başında yaklaşık 6 saat kesintiye uğradı; nedenin “hatalı bir yazılım kodu dağıtımı” olduğu doğrulandı
- Bu nedenle müşteriler işlemleri tamamlama, hesap bilgilerini görüntüleme ve ürün fiyatlarını kontrol etme gibi işlemleri yapamadı
- AWS'de de yapay zeka kodlama asistanı Kiro kullanımı sırasında sorun yaşandı
- Aralık ortasında Kiro, ortamı “silip yeniden oluşturma” kararı alınca maliyet hesaplayıcı hizmeti 13 saat boyunca kullanılamadı
- Amazon bu olayı “Çin ana karasındaki bazı bölgelerde tek bir hizmetle sınırlı, son derece kısıtlı bir olay” olarak tanımladı
- Amazon ayrıca ikinci olayın “müşterilere sunulan AWS hizmetlerini etkilemediğini” belirtti
Yeni onay süreci ve operasyonel iyileştirmeler
- Treadwell, haftalık ‘This Week in Stores Tech (TWiST)’ toplantısında sorunun nedenlerini ve kısa vadeli iyileştirme önlemlerini ele almayı planlıyor
- Daha önce isteğe bağlı katılımlı olan toplantı için artık tüm çalışanların katılımı teşvik ediliyor
- Bundan sonra junior ve mid-level mühendislerin yaptığı yapay zeka destekli kod değişiklikleri, kıdemli mühendis imzalı onay almak zorunda olacak
- Amazon, bu incelemeyi “işlerin normal akışının bir parçası” olarak tanımlıyor ve hedefin sürekli iyileştirme olduğunu söylüyor
Personel azaltımı ve artan kesinti tartışması
- Financial Times, bazı mühendislerin personel azaltımından sonra ‘Sev2’ düzeyindeki olayların (hızlı müdahale gerektiren orta seviye kesintiler) arttığını söylediğini aktardı
- Amazon son yıllarda birden çok yeniden yapılanma gerçekleştirdi ve yalnızca 2026 Ocak ayında 16.000 kurumsal pozisyonu kaldırdı
- Ancak şirket, personel azaltımının kesintilerdeki artışın nedeni olduğu iddiasına katılmıyor
Bundan sonraki yön
- Amazon, web sitesi erişilebilirliği incelemelerini ve operasyonel performans değerlendirmelerini düzenli hale getiriyor
- Şirket, yapay zeka kodlama araçlarının güvenli kullanımını ve kesinti önleme mekanizmalarının güçlendirilmesini birlikte ilerletiyor
- Bu adım, yapay zeka kullanımının yaygınlaştığı bir dönemde insan denetimi süreçlerinin önemini yeniden öne çıkaran bir örnek olarak değerlendiriliyor
6 yorum
Kıdemli biri AI kodunu incelese bile bunun güvenli olduğunu garanti edemez.
crowdstrike olayı AI yüzünden olmamıştı.
Heartbleed de yapay zekanın olmadığı dönemde yaşanan bir olaydı.
Sonuçta işin özü, birine sorumluluk yüklemek istemeleri.
Hukuken sorumlu tutulacak bir insan olması gerektiği için bizim yerimiz doldurulmayacak diyen vergi muhasebecilerinin kara mizahı aklıma geliyor.
Aynen, bu yüzden AI agent’a hukuki imza gibi bir şey eklenmediği sürece bunun devam edeceğini düşünüyorum..
O zaman Anthropic ya da OpenAI kullanım maliyetlerinin astronomik seviyeye çıkması gerekir.
Her API çağrısında sigorta primi ödemek gerekecek sonuçta
Hmm... biraz kuruntu gibi ama IAM'deki gibi bir şeyin ortaya çıkabileceği... hissine kapılıyorum.
"Vergi müşaviri hapse giren taraftır" derler ama sigorta şirketi sizin yerinize hapse girmediği için sonuçta yine...
Hacker News yorumları
Bu seferki “mandatory meeting”, her hafta yapılan şirket genelindeki operasyon toplantısı
Geçen hafta büyük bir operasyonel olay yaşandığı için bu hafta katılımın yüksek olması normal
Medyanın bunu fazla abarttığı hissine kapılıyorum
Ayrıca “junior ve mid-level mühendislerin AI ile yapılan kod değişiklikleri için senior onayı gerekmesi” politikasından da söz ediliyordu
Düzenli bir toplantı olsa bile yeni bir politika duyurusu varsa bunun haber değeri olduğunu düşünüyorum
Fiyatlar görünmüyordu ve sepete ürün eklenemiyordu
Walmart gibi bir rakipte olsaydı haber olurdu, bu kısmı garip
“Junior ve mid-level mühendisler senior onayı olmadan AI kodu push edemez” politikası,
senior review'nun her şeyi çözeceği yanılgısından doğmuş gibi görünüyor
Gerçekte bir senior’ın kodu bütünüyle doğrulaması, çoğu zaman onu baştan yazmaya yakın bir süre alır
Yani review değerlidir ama kötü kodu iyi koda dönüştürmez
Sonuçta “idiot proof” bir sistem kurunca, ‘idiot’ da işe alınabilir gibi bir yanlış anlama doğuyor
Bug bulmak sadece yan etkidir; asıl önemli olan testleri kolaylaştırmak ve kod karmaşıklığını azaltmaktır
Ama bunlar terfiye yardımcı olmuyor
Model çalışırken baştan itibaren gözlemlemek verimlilik açısından daha iyi
Aksi halde AI, düşük kaliteli kod bombaları üretir
Bir uzman 5 ila 15 kat fazla zaman harcayıp düzeltirse sorun olmayabilir, ama aksi halde kod tabanı mahvolur
Özellikle kötü kodu anlamak iki kat zaman alıyor
Çünkü mevcut kodu ve yeni çözümü aynı anda zihinde tutup karşılaştırmak gerekiyor; bu da bilişsel yükü artırıyor
Sonunda bu, şirketlerin ortalama performans yönetimi merkezli hale gelmesinin doğal bir evrimi gibi görünüyor
Amazon içinde çoğu kişi esas olarak işten çıkarılmamak ve terfi almakla ilgileniyor
Geliştirici değerlendirmesi “ticket kapatma hızı”, “PR yorum sayısı” ve “dokümantasyon yazımı” üzerinden yapılıyor
AI kullanmazsanız rekabette geriye düşüyorsunuz
Böyle bir yapıda “AI kullanımını azaltın” talebinin pratikte işlemesi zor
İyi işbirliği yapan takımlarda PR tartışmaları daha az olur
Bence gerçekten gereken şey bir self-review süreci
AI’ın yazdığı kodu olduğu gibi push etmek riskli
GitHub gibi yerlere “self-review zorunlu” seçeneği eklenip, yazarın kodu bizzat gözden geçirdiğini açıkça belirtmesi sağlanmalı
Yerel UI hızlı olduğu için projenin akışını daha iyi kavrıyorum
Çok bariz gibi görünse de pratikte yardımcı oluyor
Amazon’un liderliğe duyulan güveni düşüyor gibi görünüyor
Kıdemli çalışanların ayrılması, AI kaynaklı kalite düşüşü ve sık kesintiler yüzünden mühendisliğin zayıfladığı izlenimi var
Karar vericiler pipeline darboğazlarını anlamıyor gibi görünüyor
AI 10 kat daha hızlı diff üretse bile review darboğazsa toplam hız değişmez
Sonuçta sadece maliyet ve belirsizlik artar
AI kod review’unu PR aşamasına bırakırsanız üretkenlik avantajı ortadan kalkar
AI bir özelliği 10 dakikada çıkarabilir ama insan review’u 10 ila 20 kat daha uzun sürer
Asıl zor olan, “neyi neden yaptığını” ve “doğru yapılıp yapılmadığını” bilmektir
AI henüz bu iki konuda yeterli değil
LLM hem üretimde hem review’da iyi olana kadar yalnızca risk büyüyor
Bu pratikte uygulanabilir bir politika değil
O zaman testten sonra doğrudan deploy edilen bir dönemin geleceğini söylüyorlar
Code review’un özü hata tespiti değil, ekip senkronizasyonu ve öğrenmedir
Review sayesinde tasarım ve standartlar paylaşılır, junior’lar eğitilir ve farklı bakış açıları sürece katılır
Hataların kendisini azaltan asıl şey de bu süreçtir
Çünkü yanlış bir tasarım yönüne girildiğinde geri dönmek zordur
AI çılgınlığına harcanan zaman ve para fazla büyük
Gelecekte kritik altyapı yazılımları için ne olacağını merak ediyorum
Havacılık yazılımları da bu akıma kapılırsa ölümcül sonuçlar olabilir
AI daha çok kaliteyi artırmaya yardımcı olan destekleyici bir araç olarak kullanılacaktır