2 puan yazan GN⁺ 2025-04-05 | 1 yorum | WhatsApp'ta paylaş
  • OSINT (açık kaynak istihbaratı) aslında baştan beri bir “düşünme oyunu”ydu
  • Son dönemde ise giderek AI araçlarına dayanan bir “güven oyunu”na dönüşüyor
  • Belge özetleme, çeviri ve rapor yazımıyla başlayıp AI öncülüğündeki araştırmaya evrilirken eleştirel düşünce azalıyor
  • “Daha akıllı çalışıyoruz” yanılgısı içinde, gerçek düşünme süreci çökmeye başlıyor

AI'nin yayılmasıyla gelen değişim

  • Yazar da ChatGPT, Copilot, Claude, Gemini gibi araçları her gün kullanıyor
  • Sorun, analistlerin zor adımları atlayıp düşünmeyi AI'ye bırakmaya başlaması
  • OSINT'te önemli olan yalnızca hız değil, muhakemedir; muhakemeyi ise model veremez
  • Eleştirel alışkanlıklar korunmazsa, araştırmacı değil otomasyon operatörü haline gelinir

Herkesin okuması gereken araştırma sonucu

  • 2025'in başında Carnegie Mellon ve Microsoft Research ekipleri, 319 bilgi çalışanı üzerinde yapılan bir araştırma yayımladı
  • Sonuç: AI'ye güven arttıkça eleştirel düşünme eğilimi düşüyor
  • Buna karşılık, kendine güveni yüksek kişiler daha fazla soru soruyor ve daha çok doğrulama yapıyor
  • AI'ye duyulan güven, kişinin kendi düşünmesinden vazgeçmesiyle bağlantılı

Gerçek iş akışlarında görülen durum

  • Hipotez kurmak yerine AI'den fikir isteme yönünde bir değişim yaşanıyor
  • Kaynakları doğrulamak yerine, bunu AI'nin zaten yapmış olduğu varsayılıyor
  • Farklı bakış açılarını değerlendirmek yerine AI özetleri düzenlenip geçiliyor
  • Uzmanlar bile bu yönteme alışıp çoğu zaman düşünmeyi bırakabiliyor

OSINT'te AI'nin kötü kullanım örnekleri

Görsel doğrulama hatası

  • Bir protesto fotoğrafı Gemini'ye yüklenip “Bu fotoğraf nerede?” diye sorulduğunda yanıt “Paris” oldu
  • Oysa tabelalar, plakalar ve mimari üslup Belçika'yı açıkça gösteriyor; AI'ye güvenildiği için yanlış sonuca varılıyor

Kişi profili çarpıtması

  • Claude ile bir kişinin çevrimiçi faaliyetleri özetlendiğinde “aktivist, teknoloji çalışanı, zararsız biri” olarak tanımlanıyor
  • Aşırı sağ forumlardaki faaliyet geçmişi atlanıyor → doğrulama yapılmadan etkinlik konuşmacısı olarak seçilme riski doğuyor

Dezenformasyon kampanyası analizinde başarısızlık

  • Telegram mesajları ChatGPT'ye verilerek özet ve desen analizi isteniyor
  • Yalnızca anahtar kelimeler gösteriliyor, ancak Rus bilgi manipülasyonu gruplarının dil kalıpları kaçırılıyor

OSINT analistlerinin karşı karşıya olduğu tehdit

  • Bu örneklerin tümü son derece gerçekçi OSINT hata ihtimalleri
  • Sorun, kötü niyetli ya da tembel analistlerden değil, araçlara fazla güvenilmesinden kaynaklanıyor
  • AI araştırma yeteneğinin yerini alamaz; eleştirel olmayan kullanım OSINT'i tehlikeye atar

Ölmekte olan OSINT ustalığı (Tradecraft)

  • Ustalık, bir “araç listesi” değil; şüphe duyan ve doğrulayan bir düşünme alışkanlığıdır
  • Tuhaf bir his oluştuğunda yeniden bakma, metadata kontrol etme, dil uyuşmazlıklarını sezme gibi içgüdüler
  • AI işi kolaymış gibi gösteriyor ve düşünme sürecini ortadan kaldırıyor
  • Rahatlığın içinde uzmanlık yavaş yavaş kayboluyor

Geçmişin ve bugünün analistlerinin karşılaştırması

Eskiden:

  • Bulanık görüntüler çeşitli araçlarla analiz edilir, EXIF bilgisi kontrol edilir, yer işaretleriyle tersine arama yapılırdı
  • Yabancı dildeki gönderiler elle çevrilir, hashtag'ler takip edilir, hesap etkinlik geçmişi incelenirdi
  • Domain WHOIS analizi yapılır, alt alan adları izlenir, e-posta bağlantıları araştırılırdı

Bugün:

  • Görsel AI'ye veriliyor, yalnızca konum kontrol edilip geçiliyor
  • Gönderi AI'ye özetletiliyor ve doğrudan kullanılıyor
  • “Bu domaini kim işletiyor?” diye AI'ye soruluyor ve verilen yanıt güvenilir kabul ediliyor

Uzmanlık kaybının sonuçları

  • Bağlamsal düşünme, kaynaklar arası çapraz kontrol, hipotez doğrulama ve derinlemesine araştırma becerileri kayboluyor
  • AI ikna edici cümleler ve kendinden emin bir tonla yanılsama yaratıyor
  • Kötü niyetli aktörler, AI'nin zayıflıklarından yararlanarak manipüle edilmiş veriler sızdırıyor

Analistin yeni rolü: AI'nin denetçisi

  • GenAI ortadan kalkmayacak; sorun, ona bir “yardımcı” değil bir “yargı ölçütü” gibi davranıldığında başlıyor
  • Analistlerin artık AI'yi test etmesi, doğrulaması ve ondan şüphe etmesi gerekiyor
  • “Cevabı bulan kişi” değil, “cevabı bozan kişi” olunmalı

Analist zihniyetindeki değişim

  • Eskiden rol, sadece AI'ye soru sorup yanıt almak ise,
    artık rol AI'nin ürettiği yanıtları titizlikle sorgulamak ve doğrulamak olmalı
  • Eskiden AI'nin özetlediğini olduğu gibi kabul etmekle yetiniliyorsa,
    artık o özeti ince ince açıp hangi bilginin eksik kaldığını ve hangi yorumların eklendiğini analiz etmek gerekiyor
  • Eskiden AI'nin sunduğu öneriler doğrudan kullanılıyor ya da takip ediliyorsa,
    artık o önerinin neden o şekilde ortaya çıktığını parçalayıp yeniden kurmak gerekiyor
  • Eskiden AI'nin temiz ve kesin görünen yanıtlarına güvenme eğilimi varsa,
    artık o yanıtın nereden geldiğini ve hangi kaynaklara dayandığını, kirli ve karmaşık olsa da izlemek gerekiyor
  • Eskiden bir kişi ya da olay profili AI'ye yazdırılıyorsa,
    artık o profildeki anlatının gerçek bağlamla uyuşup uyuşmadığını bizzat doğrulamak önem taşıyor
  • Eskiden AI iyi bir taslak hazırladıysa doğrudan teslim ediliyorsa,
    artık o taslağı söküp sorunlarını bulup yeniden birleştirerek gerçekten kendi işine dönüştürmek gerekiyor

Eleştirel düşünceyi yeniden canlandırmanın yolları

Bilinçli olarak “sürtünme” eklemek

  • Fazla hızlı sonuçlar risklidir
  • AI'nin sağladığı bilgiler için de, normalde uygulanan doğrulama sürecinin aynısı işletilmeli

Taktikler:

  • “AI olmasaydı ne yapardım?” → o adımı gerçekten uygulayın
  • AI çıktısının doğru olup olmadığını görmek için kasıtlı olarak karşı örnek arayın
  • Başka bir modele “Tam ters bir yorum yap” talimatı verin

Kaynak kontrol alışkanlığını geri kazanmak

  • GenAI, OSINT tarzı atıf yapmaz
  • Modelin verdiği isimler, bağlantılar ve alıntılar mutlaka geriye doğru izlenmeli

Taktikler:

  • AI sonucu ile gerçek kaynakları yan yana karşılaştırın
  • Özet görseniz bile orijinal metni mutlaka açın

AI'yi bir “düşünme ortağı” olarak ele almak

  • AI ancak junior bir analisttir; gözetim gerektirir

Taktikler:

  • Kendi hipotezinize itiraz etmesini isteyin
  • Araştırma notlarınızı verip eksikleri göstermesini isteyin
  • Farklı bakış açılarını simüle etmek için kullanın

Modeller arası karşılaştırma

  • ChatGPT, Claude, Gemini ve Copilot çıktıları karşılaştırılmalı
  • Farklılıklar bir sinyal olarak görülmeli ve nedeni araştırılmalı

Modeli bilerek “bozmak”

  • Kasten çelişkili ya da muğlak sorular sorun
  • Hata örüntülerini belirleyin → insan muhakemesiyle telafi edin

“Zor işleri” yapmaya devam etmek

  • AI bir yardımcı araçtır; çekirdek işleri doğrudan insan yapmalıdır

Taktikler:

  • AI kullanmadan önce geolocation denemesini kendiniz yapın
  • AI özetini görmeden önce özeti kendiniz yazın
  • AI ile profil oluşturmadan önce profillemeyi kendiniz yapıp sonra karşılaştırın

Sessiz çöküş ve buna karşı koymanın yolu

  • Eleştirel düşüncenin çöküşü bir anda gelmez
  • Raporlar ne kadar hızlı ve ne kadar temiz görünürse, kriz o kadar yakın olabilir
  • Doğruymuş gibi görünen bilgileri doğrulamadan kabul etme alışkanlığı tehlikelidir

Ancak bütün bunlar tersine çevrilebilir

  • AI'yi dışlamak gerekmiyor
  • Bunun yerine AI ile yüzleşmek, ondan şüphe etmek ve ona itiraz etmek gerekiyor
  • Siz bir “araç kullanıcısı” değil, bir “araştırmacısınız”

✅ OSINT'te AI kötü kullanımını önleme kontrol listesi

  • ✅ AI çıktısının orijinal kaynağını izlediniz mi?
  • ✅ AI sonucunu kabul etmeden önce AI dışı kaynaklara baktınız mı?
  • ✅ Karşıt hipotezler veya başka modellerle meydan okudunuz mu?
  • ✅ En az iki insan kaynağı üzerinden çapraz doğrulama yaptınız mı?
  • ✅ En az bir görevi manuel olarak yerine getirdiniz mi?
  • ✅ AI çıktısında örtük varsayımlar olup olmadığını kontrol ettiniz mi?
  • ✅ AI'yi gerçeğin kaynağı değil, düşünme ortağı olarak gördünüz mü?
  • ✅ Doğrulama sürecini bilinçli olarak yavaşlattınız mı?
  • ✅ “Doğrulamadan inanıyor olduğum şey ne?” diye kendinize sordunuz mu?
  • ✅ OSINT çıktılarımızda AI kullanıldığını okura açıkça belirttiniz mi?

1 yorum

 
GN⁺ 2025-04-05
Hacker News görüşü

• Katılımcılar tembel değildi. Deneyimli uzmanlardı

  • Yapay zeka ortaya çıkana kadar onların mükemmel eleştirel düşünürler olduğu varsayımı abartılı
  • Benim deneyimime göre, düşünmeyi LLM’lere outsource eden kişiler, daha önce de düşünmeyi podcast’lere, haber makalelerine, Reddit gönderilerine, Twitter’a, TikTok’a vb. outsource eden kişilerdi
  • LLM’ler onlara tekrarlanabilir görüşler sağladı

• Korkutucu olan kısım, birçok kullanıcının GenAI sayesinde eleştirel düşündüğüne inanması

  • Bu, TikTok videoları sayesinde kendini uzman sanmaktan çok farklı değil
  • Düşünmeyi outsource edip duymak istedikleri görüşleri toplayan insanlar artık istedikleri sonuca daha kolay ulaşabiliyor

• Açık kaynak istihbaratta büyük sorun derin analiz değil, bilgi seli içinde bakmaya değer olanı bulmak

  • CIA perspektifinden bakıldığında, ABD istihbarat topluluğu açık kaynak bilgileri analiz etmek için OSIRIS adlı üretken yapay zeka sistemini kullanıyor
  • CIA’in eski başkanı bunun çoğunlukla özetleme için kullanıldığını söyledi

• Hipotez kurmak yerine kullanıcılar yapay zekadan fikir istiyor

  • Kaynakları doğrulamak yerine yapay zekanın zaten doğruladığını varsayıyorlar
  • Birden fazla bakış açısını değerlendirmek yerine, yapay zeka özetini birleştirip düzenleyerek geçiyorlar
  • Bu varsayımsal bir durum değil, gerçekten yaşanıyor

• Yazma ya da analiz yapma sürecindeki fiziksel eylem ve anların önemli olduğunu düşünüyorum

  • Bulanık bir görüntüyü fotoğraf düzenleme yazılımına aktarıp manipülasyon araçlarını kullanmak, sorunu çözmenin temel bir parçası
  • Yeni bir ürün için üretim hattının süreç akış şemasını hazırlıyorum
  • Fikirler ve sorular sanki bu küçük boşluklarda ortaya çıkıyor

• Yapay zekanın insanları daha aptal hale getirerek insanüstü zekaya ulaşmasının yollarından biri bu olabilir

  • GenAI kullanımı yararlı bir araçtan çok zararlı bir şey gibi görünüyor
  • Fotoğraf yükleyip konumunu sorma senaryosunda yapay zeka yanlış bir konum veriyor

• Yapay zekanın öğrenme hızını yavaşlattığını hissediyorum

  • Rust öğreniyorum; yapay zeka başlamama yardımcı oluyor ama işi yapabilir hale gelmem daha uzun sürüyor
  • Yapay zekayı kapatıp kendi başıma debelenmem gerekiyor gibi görünüyor

• 20 yıldan uzun süredir analist olarak çalışıyor, OSINT ve yapay zeka kullanıyorum

  • Çoğu analist eleştirel düşünme yeteneğine sahip
  • OSINT her zaman yasal süreçlerle kontrol edilmediği için birçok kişi OSINT analisti olabiliyor
  • Yapay zekanın önerilerine boyun eğme baskısı var

• OSINT ve analiz, metodolojisi olan uzmanlık gerektiren beceriler

  • Yapay zekayla birlikte OSINT, daha önce imkansız olan şeyleri mümkün kılıyor
  • Eleştirel düşünce eksikliği, veriyi doğrulayacak insan veya süreçlerin azalmasından kaynaklanıyor olabilir

• OSINT’in temellerini anlamak istesem ana sayfayı ziyaret ederdim

  • Ama basit bir chatgpt sorgusu cevabı daha hızlı verir

• Bu gönderi OSINT ile sınırlı değil; yapay zekanın yeni bir araç olarak benimsendiği her yerde geniş ölçüde uygulanabilir