Yapay zeka nedeniyle OSINT'te eleştirel düşünce kademeli olarak çöküyor
(dutchosintguy.com)- OSINT (açık kaynak istihbaratı) aslında baştan beri bir “düşünme oyunu”ydu
- Son dönemde ise giderek AI araçlarına dayanan bir “güven oyunu”na dönüşüyor
- Belge özetleme, çeviri ve rapor yazımıyla başlayıp AI öncülüğündeki araştırmaya evrilirken eleştirel düşünce azalıyor
- “Daha akıllı çalışıyoruz” yanılgısı içinde, gerçek düşünme süreci çökmeye başlıyor
AI'nin yayılmasıyla gelen değişim
- Yazar da ChatGPT, Copilot, Claude, Gemini gibi araçları her gün kullanıyor
- Sorun, analistlerin zor adımları atlayıp düşünmeyi AI'ye bırakmaya başlaması
- OSINT'te önemli olan yalnızca hız değil, muhakemedir; muhakemeyi ise model veremez
- Eleştirel alışkanlıklar korunmazsa, araştırmacı değil otomasyon operatörü haline gelinir
Herkesin okuması gereken araştırma sonucu
- 2025'in başında Carnegie Mellon ve Microsoft Research ekipleri, 319 bilgi çalışanı üzerinde yapılan bir araştırma yayımladı
- Sonuç: AI'ye güven arttıkça eleştirel düşünme eğilimi düşüyor
- Buna karşılık, kendine güveni yüksek kişiler daha fazla soru soruyor ve daha çok doğrulama yapıyor
- AI'ye duyulan güven, kişinin kendi düşünmesinden vazgeçmesiyle bağlantılı
Gerçek iş akışlarında görülen durum
- Hipotez kurmak yerine AI'den fikir isteme yönünde bir değişim yaşanıyor
- Kaynakları doğrulamak yerine, bunu AI'nin zaten yapmış olduğu varsayılıyor
- Farklı bakış açılarını değerlendirmek yerine AI özetleri düzenlenip geçiliyor
- Uzmanlar bile bu yönteme alışıp çoğu zaman düşünmeyi bırakabiliyor
OSINT'te AI'nin kötü kullanım örnekleri
Görsel doğrulama hatası
- Bir protesto fotoğrafı Gemini'ye yüklenip “Bu fotoğraf nerede?” diye sorulduğunda yanıt “Paris” oldu
- Oysa tabelalar, plakalar ve mimari üslup Belçika'yı açıkça gösteriyor; AI'ye güvenildiği için yanlış sonuca varılıyor
Kişi profili çarpıtması
- Claude ile bir kişinin çevrimiçi faaliyetleri özetlendiğinde “aktivist, teknoloji çalışanı, zararsız biri” olarak tanımlanıyor
- Aşırı sağ forumlardaki faaliyet geçmişi atlanıyor → doğrulama yapılmadan etkinlik konuşmacısı olarak seçilme riski doğuyor
Dezenformasyon kampanyası analizinde başarısızlık
- Telegram mesajları ChatGPT'ye verilerek özet ve desen analizi isteniyor
- Yalnızca anahtar kelimeler gösteriliyor, ancak Rus bilgi manipülasyonu gruplarının dil kalıpları kaçırılıyor
OSINT analistlerinin karşı karşıya olduğu tehdit
- Bu örneklerin tümü son derece gerçekçi OSINT hata ihtimalleri
- Sorun, kötü niyetli ya da tembel analistlerden değil, araçlara fazla güvenilmesinden kaynaklanıyor
- AI araştırma yeteneğinin yerini alamaz; eleştirel olmayan kullanım OSINT'i tehlikeye atar
Ölmekte olan OSINT ustalığı (Tradecraft)
- Ustalık, bir “araç listesi” değil; şüphe duyan ve doğrulayan bir düşünme alışkanlığıdır
- Tuhaf bir his oluştuğunda yeniden bakma, metadata kontrol etme, dil uyuşmazlıklarını sezme gibi içgüdüler
- AI işi kolaymış gibi gösteriyor ve düşünme sürecini ortadan kaldırıyor
- Rahatlığın içinde uzmanlık yavaş yavaş kayboluyor
Geçmişin ve bugünün analistlerinin karşılaştırması
Eskiden:
- Bulanık görüntüler çeşitli araçlarla analiz edilir, EXIF bilgisi kontrol edilir, yer işaretleriyle tersine arama yapılırdı
- Yabancı dildeki gönderiler elle çevrilir, hashtag'ler takip edilir, hesap etkinlik geçmişi incelenirdi
- Domain WHOIS analizi yapılır, alt alan adları izlenir, e-posta bağlantıları araştırılırdı
Bugün:
- Görsel AI'ye veriliyor, yalnızca konum kontrol edilip geçiliyor
- Gönderi AI'ye özetletiliyor ve doğrudan kullanılıyor
- “Bu domaini kim işletiyor?” diye AI'ye soruluyor ve verilen yanıt güvenilir kabul ediliyor
Uzmanlık kaybının sonuçları
- Bağlamsal düşünme, kaynaklar arası çapraz kontrol, hipotez doğrulama ve derinlemesine araştırma becerileri kayboluyor
- AI ikna edici cümleler ve kendinden emin bir tonla yanılsama yaratıyor
- Kötü niyetli aktörler, AI'nin zayıflıklarından yararlanarak manipüle edilmiş veriler sızdırıyor
Analistin yeni rolü: AI'nin denetçisi
- GenAI ortadan kalkmayacak; sorun, ona bir “yardımcı” değil bir “yargı ölçütü” gibi davranıldığında başlıyor
- Analistlerin artık AI'yi test etmesi, doğrulaması ve ondan şüphe etmesi gerekiyor
- “Cevabı bulan kişi” değil, “cevabı bozan kişi” olunmalı
Analist zihniyetindeki değişim
- Eskiden rol, sadece AI'ye soru sorup yanıt almak ise,
artık rol AI'nin ürettiği yanıtları titizlikle sorgulamak ve doğrulamak olmalı - Eskiden AI'nin özetlediğini olduğu gibi kabul etmekle yetiniliyorsa,
artık o özeti ince ince açıp hangi bilginin eksik kaldığını ve hangi yorumların eklendiğini analiz etmek gerekiyor - Eskiden AI'nin sunduğu öneriler doğrudan kullanılıyor ya da takip ediliyorsa,
artık o önerinin neden o şekilde ortaya çıktığını parçalayıp yeniden kurmak gerekiyor - Eskiden AI'nin temiz ve kesin görünen yanıtlarına güvenme eğilimi varsa,
artık o yanıtın nereden geldiğini ve hangi kaynaklara dayandığını, kirli ve karmaşık olsa da izlemek gerekiyor - Eskiden bir kişi ya da olay profili AI'ye yazdırılıyorsa,
artık o profildeki anlatının gerçek bağlamla uyuşup uyuşmadığını bizzat doğrulamak önem taşıyor - Eskiden AI iyi bir taslak hazırladıysa doğrudan teslim ediliyorsa,
artık o taslağı söküp sorunlarını bulup yeniden birleştirerek gerçekten kendi işine dönüştürmek gerekiyor
Eleştirel düşünceyi yeniden canlandırmanın yolları
Bilinçli olarak “sürtünme” eklemek
- Fazla hızlı sonuçlar risklidir
- AI'nin sağladığı bilgiler için de, normalde uygulanan doğrulama sürecinin aynısı işletilmeli
Taktikler:
- “AI olmasaydı ne yapardım?” → o adımı gerçekten uygulayın
- AI çıktısının doğru olup olmadığını görmek için kasıtlı olarak karşı örnek arayın
- Başka bir modele “Tam ters bir yorum yap” talimatı verin
Kaynak kontrol alışkanlığını geri kazanmak
- GenAI, OSINT tarzı atıf yapmaz
- Modelin verdiği isimler, bağlantılar ve alıntılar mutlaka geriye doğru izlenmeli
Taktikler:
- AI sonucu ile gerçek kaynakları yan yana karşılaştırın
- Özet görseniz bile orijinal metni mutlaka açın
AI'yi bir “düşünme ortağı” olarak ele almak
- AI ancak junior bir analisttir; gözetim gerektirir
Taktikler:
- Kendi hipotezinize itiraz etmesini isteyin
- Araştırma notlarınızı verip eksikleri göstermesini isteyin
- Farklı bakış açılarını simüle etmek için kullanın
Modeller arası karşılaştırma
- ChatGPT, Claude, Gemini ve Copilot çıktıları karşılaştırılmalı
- Farklılıklar bir sinyal olarak görülmeli ve nedeni araştırılmalı
Modeli bilerek “bozmak”
- Kasten çelişkili ya da muğlak sorular sorun
- Hata örüntülerini belirleyin → insan muhakemesiyle telafi edin
“Zor işleri” yapmaya devam etmek
- AI bir yardımcı araçtır; çekirdek işleri doğrudan insan yapmalıdır
Taktikler:
- AI kullanmadan önce geolocation denemesini kendiniz yapın
- AI özetini görmeden önce özeti kendiniz yazın
- AI ile profil oluşturmadan önce profillemeyi kendiniz yapıp sonra karşılaştırın
Sessiz çöküş ve buna karşı koymanın yolu
- Eleştirel düşüncenin çöküşü bir anda gelmez
- Raporlar ne kadar hızlı ve ne kadar temiz görünürse, kriz o kadar yakın olabilir
- Doğruymuş gibi görünen bilgileri doğrulamadan kabul etme alışkanlığı tehlikelidir
Ancak bütün bunlar tersine çevrilebilir
- AI'yi dışlamak gerekmiyor
- Bunun yerine AI ile yüzleşmek, ondan şüphe etmek ve ona itiraz etmek gerekiyor
- Siz bir “araç kullanıcısı” değil, bir “araştırmacısınız”
✅ OSINT'te AI kötü kullanımını önleme kontrol listesi
- ✅ AI çıktısının orijinal kaynağını izlediniz mi?
- ✅ AI sonucunu kabul etmeden önce AI dışı kaynaklara baktınız mı?
- ✅ Karşıt hipotezler veya başka modellerle meydan okudunuz mu?
- ✅ En az iki insan kaynağı üzerinden çapraz doğrulama yaptınız mı?
- ✅ En az bir görevi manuel olarak yerine getirdiniz mi?
- ✅ AI çıktısında örtük varsayımlar olup olmadığını kontrol ettiniz mi?
- ✅ AI'yi gerçeğin kaynağı değil, düşünme ortağı olarak gördünüz mü?
- ✅ Doğrulama sürecini bilinçli olarak yavaşlattınız mı?
- ✅ “Doğrulamadan inanıyor olduğum şey ne?” diye kendinize sordunuz mu?
- ✅ OSINT çıktılarımızda AI kullanıldığını okura açıkça belirttiniz mi?
1 yorum
Hacker News görüşü
• Katılımcılar tembel değildi. Deneyimli uzmanlardı
• Korkutucu olan kısım, birçok kullanıcının GenAI sayesinde eleştirel düşündüğüne inanması
• Açık kaynak istihbaratta büyük sorun derin analiz değil, bilgi seli içinde bakmaya değer olanı bulmak
• Hipotez kurmak yerine kullanıcılar yapay zekadan fikir istiyor
• Yazma ya da analiz yapma sürecindeki fiziksel eylem ve anların önemli olduğunu düşünüyorum
• Yapay zekanın insanları daha aptal hale getirerek insanüstü zekaya ulaşmasının yollarından biri bu olabilir
• Yapay zekanın öğrenme hızını yavaşlattığını hissediyorum
• 20 yıldan uzun süredir analist olarak çalışıyor, OSINT ve yapay zeka kullanıyorum
• OSINT ve analiz, metodolojisi olan uzmanlık gerektiren beceriler
• OSINT’in temellerini anlamak istesem ana sayfayı ziyaret ederdim
• Bu gönderi OSINT ile sınırlı değil; yapay zekanın yeni bir araç olarak benimsendiği her yerde geniş ölçüde uygulanabilir