1 puan yazan GN⁺ 2026-03-05 | 1 yorum | WhatsApp'ta paylaş
  • Hindistan'ın Andhra Pradesh eyaletindeki bir alt mahkeme yargıcının, bir gayrimenkul uyuşmazlığı davasında yapay zekanın ürettiği sahte karar metinlerini alıntıladığı ortaya çıktı
  • Yüksek Mahkeme bunu ‘kurumsal kaygı’ meselesi olarak tanımladı ve basit bir muhakeme hatası değil, ‘görev suistimali (misconduct)’ olarak değerlendirdi
  • Söz konusu yargıç, yapay zeka aracını ilk kez kullandığını ve alıntıların gerçek olduğuna inandığını ifade etti, ancak Yüksek Mahkeme alt derece kararının etkisini durdurdu
  • Hindistan Yüksek Mahkemesi düzeyinin altındaki yüksek mahkeme, o sırada yargıcın iyi niyetini kabul ederek kararı korudu, ancak Yüksek Mahkeme yapay zeka kullanımının usule ilişkin sorunlarını daha önemli gördü
  • Bu olay, yapay zekanın yargı süreçleri üzerindeki etkisini ortaya koyarken, yalnızca Hindistan'da değil ABD ve Birleşik Krallık'ta da benzer vakaların bildirildiğini gösteriyor

Olayın özeti

  • Hindistan Yüksek Mahkemesi, Andhra Pradesh eyaletinin Vijayawada kentindeki bir alt derece hukuk mahkemesi yargıcının, yapay zekanın ürettiği sahte içtihatları alıntılayarak bir gayrimenkul uyuşmazlığında hüküm kurduğu olayı inceliyor
    • Davalı tarafın itirazı üzerine dosya Yüksek Mahkeme'ye taşındı
    • Yüksek Mahkeme bunu “yargılama sürecinin güvenilirliği ve bütünlüğünü doğrudan etkileyen bir mesele” olarak tanımladı
  • Sorunlu olay Ağustos 2025'te yaşandı ve yargıcın geçmişten 4 içtihat alıntıladığı, ancak bunların tamamının yapay zeka tarafından üretilmiş sahte belgeler olduğu tespit edildi

Alt mahkeme ve yüksek mahkemenin değerlendirmesi

  • Davalı, alıntılanan içtihatların sahte olduğunu belirterek yüksek mahkemeye başvurdu
    • Yüksek mahkeme, yargıcın ‘iyi niyetli bir hata’ yaptığını kabul etti ve kararın kendisini yürürlükte bıraktı
    • “Alıntılar mevcut olmasa bile hukuki ilkenin uygulanışı doğruysa kararı bozmak için bir neden yoktur” ifadesine yer verdi
  • Yüksek mahkeme yargıçtan bir rapor sunmasını istedi; yargıç da yapay zeka aracını ilk kez kullandığını ve otomatik üretilen materyale güvendiğini söyledi
    • “Alıntıları yanlış kullanma veya çarpıtma niyetim yoktu; hata, otomatik kaynaklara dayanmanın sonucuydu” diye açıkladı
  • Yüksek mahkeme ayrıca “yapay zekadan ziyade gerçek zekanın kullanılması gerekir” görüşünü ekledi

Yüksek Mahkeme'nin tepkisi

  • Yüksek Mahkeme, alt derece kararını derhal durdurdu (stay) ve yapay zeka kullanımını basit bir hata değil, ‘görev suistimali’ olarak nitelendirdi
    • “Bu olay, kararın içeriğinden çok bizzat yargılama usulü ve muhakeme süreciyle ilgili bir sorun” olduğunu vurguladı
  • Yüksek Mahkeme, başsavcıyı, hukuk müşavirini ve Hindistan Barolar Konseyi'ni (Bar Council of India) bilgilendirdi ve dosyayı ek incelemeye alma kararı verdi

Yapay zeka ile yargı sürecinin çatışması

  • Hindistan Yüksek Mahkemesi son dönemde avukatların dilekçe hazırlarken yapay zeka araçlarını kullanması konusunda da kaygılarını dile getirdi
    • Hukuk odaklı yayın LiveLaw'a göre, Yüksek Mahkeme “bu tür bir davranış hiçbir şekilde haklı gösterilemez” dedi
  • Sadece Hindistan'da değil, ABD ve Birleşik Krallık'ta da yapay zeka kullanımından kaynaklanan karar hataları bildirildi
    • Ekim 2025'te, ABD'de iki federal yargıcın yapay zeka kullanımı nedeniyle hatalı karar metinleri yazdığı ortaya çıktı
    • Haziran 2025'te, Birleşik Krallık Yüksek Mahkemesi avukatlara yapay zeka üretimi içtihatların kullanılmaması yönünde uyarı yayımladı

Hindistan yargısının yapay zekaya yaklaşımı

  • Hindistan Yüksek Mahkemesi 2025'te yargı içinde yapay zeka kullanımına ilişkin bir beyaz kitap (white paper) yayımladı
    • Beyaz kitapta yapay zeka kullanım yönergeleri ve iyi uygulama örnekleri yer alıyor
  • Yüksek Mahkeme, insan denetiminin (human oversight) ve kurumsal güvenlik mekanizmalarının korunmasının önemini vurguluyor
  • Bu olay, Hindistan yargı sisteminin yapay zekanın benimsenmesi ile denetimi arasında denge kurmaya çalıştığını gösteriyor

1 yorum

 
GN⁺ 2026-03-05
Hacker News yorumları
  • AI'ın insanın yerini alacağı söylemi abartılı görünüyor
    Sonuçta sorumluluğu üstlenecek birine hâlâ ihtiyaç var ve bir sorun çıkarsa birinin işten atılması ya da hapse girmesi gerekir
    AI verimliliği artırabilir, ancak insanın tamamen dışarıda kaldığı bir sistemin felaket veya dava ile sonuçlanma ihtimali yüksek
    Bu yüzden şirketler bekledikleri ROI'yi göremiyor
    Gerçekte de “AI sayesinde verimlilik arttı” denilerek yapılan işten çıkarmaların çoğu sadece zayıf performansı gizlemek için bahaneydi

    • Avukat ya da doktor gibi yasal yetkinlik gerektiren meslekler bunun daha da net örnekleri
      AI yalnızca bir araç olarak kullanıldıysa sorumluluk kullanıcıdadır; eğer AI'a ‘başka birinin işi’ muamelesi yapıldıysa bu ehliyetsiz birine devretmek anlamına gelir ve sonuçta yine kullanıcının hatası olur
    • Küçükken sık sık “bilgisayar çöktü” denildiğini duyardım ama aslında olan şey bir insanın kodlama hatası yapmasıydı
      Buna rağmen o kişiden hesap sorulduğunu neredeyse hiç görmedim
    • AI kullanımında da bir hijyen anlayışına ihtiyaç var
      LLM'in ürettiği metinler Unicode içinde ayrı bir blokla işaretlenmeli ki bunun AI üretimi olduğu açıkça belli olsun
      Bunu gizlemek ya da manipüle etmek, bir doktorun ellerini yıkamadan ameliyat yapmasına benziyor
    • Aslında yargıçlar da çoğu zaman hatalı kararlarından dolayı sorumlu tutulmuyor
      “Denetim ve denge” deniyor ama yargı bunun istisnası gibi duruyor
    • Şirketlerin AI'dan ROI alamamasının nedeni, çalışanların AI'ı kişisel hesaplarıyla kullanıp verimlilik artışını kendilerine mal etmeleri de olabilir
      MIT raporuna göre çalışanların çoğu AI'ı şirket hesabı yerine kişisel hesapla kullanıyor
  • “Otomatikleştirilmiş bir kaynağa güvenmekten doğan hata” bahanesi geçerli değil
    Hangi meslek olursa olsun, LLM ile otomasyon yapıldığında sorumluluk uzmana aittir
    Aracı tanımadığını söyleyip aracı suçlamak hukuken de mantıklı değil

    • LLM kullanımı sadece ucuz outsourcing anlayışının en yeni sürümü
      Sertifikalı mühendisin dış kaynak işine sadece imza attığı dönemlerde olduğu gibi, her şeyi daha ucuz ve hızlı yapma çabası güvenlik önlemlerini ortadan kaldıran bir yapıya dönüşüyor
      LLM bu gerilemiş düzenin nedeni değil, sadece onu görünür kıldı
      Ben de AI'ı seviyorum ama sorumlu kullanım şart
    • Kasıt önemlidir
      Hata ile kasıtlı davranış hukuken farklı değerlendirilmelidir
    • Sadece insanları suçlamak çözüm değil
      Böyle olaylar tekrarlanıyorsa aracın kendisi ayarlanmalı
      Kullanıcı her seferinde hata yapmış olsa bile aynı sorun sistematik olarak sürüyorsa, sonunda bu aracın tasarım problemidir
    • LLM'lerin halüsinasyon sorunu zaten yaygın biçimde biliniyor
      Bunu bilmiyor olmak tembellik ya da yetersizliktir
  • Avukatların LLM'in söylediklerini bizzat doğrulamaları gerektiğini ne zaman anlayacaklarını merak ediyorum

    • İnsanların çoğu eninde sonunda doğrulama yapmamaya başlıyor
      Otonom araçlarda olduğu gibi “gerektiğinde devreye gir” modeli, insanın dikkat sınırları yüzünden başarısız olmaya mahkûm
      “İnsan daha dikkatli kontrol etmeli” yaklaşımı pratikte işlemiyor
    • İnsanlar, LLM'in kendinden emin konuşma tarzı yüzünden ona bilinçsizce güvenmeye başlıyor
      En tehlikeli tarafı da bu
    • Aslında LLM, sadece toplumun ne kadar çürüdüğünü gösteren bir ayna gibi
    • Bu tür olayların haberlere çıkması yalnızca bir kısmı; gerçekte herkesin benzer hatalar yapıyor olması çok muhtemel
    • Bu hafta akademik makale alıntılarını takip ettim; %25'i tamamen uydurmaydı, kalanların da yarısı yanlıştı
      Sorun sadece avukatlarla sınırlı değil
  • Yüksek Mahkeme'nin “yapay zekâ yerine gerçek zekâyı kullanın” tavsiyesi dikkat çekici

  • Sonunda sahte alıntılarla dolu daha fazla akademik makale göreceğiz gibi duruyor
    AI bu tür materyallerle eğitildikçe internette gerçek bilgiden çok halüsinasyon ürünü bilgi bulunması riski var

  • ABD ve Birleşik Krallık'ta da benzer bir sorun var
    Avukatlar teknoloji konusunda zayıf kalıyor ve chatbot'un oluşturduğu belgeleri elle düzenlemeye çalıştıkları için hatalar kaçınılmaz oluyor
    İlgili vakalar Doughty Street raporunda da ele alınıyor

  • Hukuk sistemi başlı başına çok fazla gereksiz kalıp metin (boilerplate) üretiyor
    Avukatlar da bunların hepsini okumayıp sadece gereken bölümlere göz atıyor
    AI'ın sorumsuzca kullanılması elbette sorun, ama bu aynı zamanda hukuki belgelerin yapısını sadeleştirmek için bir fırsat olabilir
    Hukuk, kodla aynı şey değil ama aşırı karmaşık yapının iyileştirilmesi için alan var

    • Hukuki dil, muğlaklığı ortadan kaldıracak kadar hassas ifadeler gerektirir
      Sadeleştirme tersine yorum alanını genişletebilir ve daha fazla uyuşmazlığa yol açabilir
      Hukuki jargon (legalese) sonuçta şüpheyi azaltmak için kullanılan bir araçtır
    • Hukuki belgeler, sanki üstüne sürekli katman eklenmiş bir kod tabanı gibi
      Temelden sadeleştirme olmadan sadece süs eklenmiş bir yapı
  • Bu sorun tüm sektörlerde büyüyecek
    Ben fintech alanında buna karşı önlemler araştırıyorum ve Resemble AI yaklaşımı en pratik olanı gibi görünüyor
    Sadece metin değil, AI ses klonlama tespiti ve watermarking de kritik önemde
    Sürekli geriden gelerek tepki vermek zorunda kalınan bu gerçeklikle baş etmek kolay değil

  • “Otomatikleştirilmiş kaynağa güvenmekten kaynaklanan hata” bahanesi,
    “Silah otomatikti, bu yüzden birinin ölmesi benim suçum değil” demeye benziyor

  • Bir sonraki token tahmini ve halüsinasyon basit bir bug değil
    Güvenilirlik ve bütünlük gerektiren alanlarda bu sorunları görmezden gelmek son derece tehlikeli