- Hindistan'ın Andhra Pradesh eyaletindeki bir alt mahkeme yargıcının, bir gayrimenkul uyuşmazlığı davasında yapay zekanın ürettiği sahte karar metinlerini alıntıladığı ortaya çıktı
- Yüksek Mahkeme bunu ‘kurumsal kaygı’ meselesi olarak tanımladı ve basit bir muhakeme hatası değil, ‘görev suistimali (misconduct)’ olarak değerlendirdi
- Söz konusu yargıç, yapay zeka aracını ilk kez kullandığını ve alıntıların gerçek olduğuna inandığını ifade etti, ancak Yüksek Mahkeme alt derece kararının etkisini durdurdu
- Hindistan Yüksek Mahkemesi düzeyinin altındaki yüksek mahkeme, o sırada yargıcın iyi niyetini kabul ederek kararı korudu, ancak Yüksek Mahkeme yapay zeka kullanımının usule ilişkin sorunlarını daha önemli gördü
- Bu olay, yapay zekanın yargı süreçleri üzerindeki etkisini ortaya koyarken, yalnızca Hindistan'da değil ABD ve Birleşik Krallık'ta da benzer vakaların bildirildiğini gösteriyor
Olayın özeti
- Hindistan Yüksek Mahkemesi, Andhra Pradesh eyaletinin Vijayawada kentindeki bir alt derece hukuk mahkemesi yargıcının, yapay zekanın ürettiği sahte içtihatları alıntılayarak bir gayrimenkul uyuşmazlığında hüküm kurduğu olayı inceliyor
- Davalı tarafın itirazı üzerine dosya Yüksek Mahkeme'ye taşındı
- Yüksek Mahkeme bunu “yargılama sürecinin güvenilirliği ve bütünlüğünü doğrudan etkileyen bir mesele” olarak tanımladı
- Sorunlu olay Ağustos 2025'te yaşandı ve yargıcın geçmişten 4 içtihat alıntıladığı, ancak bunların tamamının yapay zeka tarafından üretilmiş sahte belgeler olduğu tespit edildi
Alt mahkeme ve yüksek mahkemenin değerlendirmesi
- Davalı, alıntılanan içtihatların sahte olduğunu belirterek yüksek mahkemeye başvurdu
- Yüksek mahkeme, yargıcın ‘iyi niyetli bir hata’ yaptığını kabul etti ve kararın kendisini yürürlükte bıraktı
- “Alıntılar mevcut olmasa bile hukuki ilkenin uygulanışı doğruysa kararı bozmak için bir neden yoktur” ifadesine yer verdi
- Yüksek mahkeme yargıçtan bir rapor sunmasını istedi; yargıç da yapay zeka aracını ilk kez kullandığını ve otomatik üretilen materyale güvendiğini söyledi
- “Alıntıları yanlış kullanma veya çarpıtma niyetim yoktu; hata, otomatik kaynaklara dayanmanın sonucuydu” diye açıkladı
- Yüksek mahkeme ayrıca “yapay zekadan ziyade gerçek zekanın kullanılması gerekir” görüşünü ekledi
Yüksek Mahkeme'nin tepkisi
- Yüksek Mahkeme, alt derece kararını derhal durdurdu (stay) ve yapay zeka kullanımını basit bir hata değil, ‘görev suistimali’ olarak nitelendirdi
- “Bu olay, kararın içeriğinden çok bizzat yargılama usulü ve muhakeme süreciyle ilgili bir sorun” olduğunu vurguladı
- Yüksek Mahkeme, başsavcıyı, hukuk müşavirini ve Hindistan Barolar Konseyi'ni (Bar Council of India) bilgilendirdi ve dosyayı ek incelemeye alma kararı verdi
Yapay zeka ile yargı sürecinin çatışması
- Hindistan Yüksek Mahkemesi son dönemde avukatların dilekçe hazırlarken yapay zeka araçlarını kullanması konusunda da kaygılarını dile getirdi
- Hukuk odaklı yayın LiveLaw'a göre, Yüksek Mahkeme “bu tür bir davranış hiçbir şekilde haklı gösterilemez” dedi
- Sadece Hindistan'da değil, ABD ve Birleşik Krallık'ta da yapay zeka kullanımından kaynaklanan karar hataları bildirildi
- Ekim 2025'te, ABD'de iki federal yargıcın yapay zeka kullanımı nedeniyle hatalı karar metinleri yazdığı ortaya çıktı
- Haziran 2025'te, Birleşik Krallık Yüksek Mahkemesi avukatlara yapay zeka üretimi içtihatların kullanılmaması yönünde uyarı yayımladı
Hindistan yargısının yapay zekaya yaklaşımı
- Hindistan Yüksek Mahkemesi 2025'te yargı içinde yapay zeka kullanımına ilişkin bir beyaz kitap (white paper) yayımladı
- Beyaz kitapta yapay zeka kullanım yönergeleri ve iyi uygulama örnekleri yer alıyor
- Yüksek Mahkeme, insan denetiminin (human oversight) ve kurumsal güvenlik mekanizmalarının korunmasının önemini vurguluyor
- Bu olay, Hindistan yargı sisteminin yapay zekanın benimsenmesi ile denetimi arasında denge kurmaya çalıştığını gösteriyor
1 yorum
Hacker News yorumları
AI'ın insanın yerini alacağı söylemi abartılı görünüyor
Sonuçta sorumluluğu üstlenecek birine hâlâ ihtiyaç var ve bir sorun çıkarsa birinin işten atılması ya da hapse girmesi gerekir
AI verimliliği artırabilir, ancak insanın tamamen dışarıda kaldığı bir sistemin felaket veya dava ile sonuçlanma ihtimali yüksek
Bu yüzden şirketler bekledikleri ROI'yi göremiyor
Gerçekte de “AI sayesinde verimlilik arttı” denilerek yapılan işten çıkarmaların çoğu sadece zayıf performansı gizlemek için bahaneydi
AI yalnızca bir araç olarak kullanıldıysa sorumluluk kullanıcıdadır; eğer AI'a ‘başka birinin işi’ muamelesi yapıldıysa bu ehliyetsiz birine devretmek anlamına gelir ve sonuçta yine kullanıcının hatası olur
Buna rağmen o kişiden hesap sorulduğunu neredeyse hiç görmedim
LLM'in ürettiği metinler Unicode içinde ayrı bir blokla işaretlenmeli ki bunun AI üretimi olduğu açıkça belli olsun
Bunu gizlemek ya da manipüle etmek, bir doktorun ellerini yıkamadan ameliyat yapmasına benziyor
“Denetim ve denge” deniyor ama yargı bunun istisnası gibi duruyor
MIT raporuna göre çalışanların çoğu AI'ı şirket hesabı yerine kişisel hesapla kullanıyor
“Otomatikleştirilmiş bir kaynağa güvenmekten doğan hata” bahanesi geçerli değil
Hangi meslek olursa olsun, LLM ile otomasyon yapıldığında sorumluluk uzmana aittir
Aracı tanımadığını söyleyip aracı suçlamak hukuken de mantıklı değil
Sertifikalı mühendisin dış kaynak işine sadece imza attığı dönemlerde olduğu gibi, her şeyi daha ucuz ve hızlı yapma çabası güvenlik önlemlerini ortadan kaldıran bir yapıya dönüşüyor
LLM bu gerilemiş düzenin nedeni değil, sadece onu görünür kıldı
Ben de AI'ı seviyorum ama sorumlu kullanım şart
Hata ile kasıtlı davranış hukuken farklı değerlendirilmelidir
Böyle olaylar tekrarlanıyorsa aracın kendisi ayarlanmalı
Kullanıcı her seferinde hata yapmış olsa bile aynı sorun sistematik olarak sürüyorsa, sonunda bu aracın tasarım problemidir
Bunu bilmiyor olmak tembellik ya da yetersizliktir
Avukatların LLM'in söylediklerini bizzat doğrulamaları gerektiğini ne zaman anlayacaklarını merak ediyorum
Otonom araçlarda olduğu gibi “gerektiğinde devreye gir” modeli, insanın dikkat sınırları yüzünden başarısız olmaya mahkûm
“İnsan daha dikkatli kontrol etmeli” yaklaşımı pratikte işlemiyor
En tehlikeli tarafı da bu
Sorun sadece avukatlarla sınırlı değil
Yüksek Mahkeme'nin “yapay zekâ yerine gerçek zekâyı kullanın” tavsiyesi dikkat çekici
Sonunda sahte alıntılarla dolu daha fazla akademik makale göreceğiz gibi duruyor
AI bu tür materyallerle eğitildikçe internette gerçek bilgiden çok halüsinasyon ürünü bilgi bulunması riski var
ABD ve Birleşik Krallık'ta da benzer bir sorun var
Avukatlar teknoloji konusunda zayıf kalıyor ve chatbot'un oluşturduğu belgeleri elle düzenlemeye çalıştıkları için hatalar kaçınılmaz oluyor
İlgili vakalar Doughty Street raporunda da ele alınıyor
Hukuk sistemi başlı başına çok fazla gereksiz kalıp metin (boilerplate) üretiyor
Avukatlar da bunların hepsini okumayıp sadece gereken bölümlere göz atıyor
AI'ın sorumsuzca kullanılması elbette sorun, ama bu aynı zamanda hukuki belgelerin yapısını sadeleştirmek için bir fırsat olabilir
Hukuk, kodla aynı şey değil ama aşırı karmaşık yapının iyileştirilmesi için alan var
Sadeleştirme tersine yorum alanını genişletebilir ve daha fazla uyuşmazlığa yol açabilir
Hukuki jargon (legalese) sonuçta şüpheyi azaltmak için kullanılan bir araçtır
Temelden sadeleştirme olmadan sadece süs eklenmiş bir yapı
Bu sorun tüm sektörlerde büyüyecek
Ben fintech alanında buna karşı önlemler araştırıyorum ve Resemble AI yaklaşımı en pratik olanı gibi görünüyor
Sadece metin değil, AI ses klonlama tespiti ve watermarking de kritik önemde
Sürekli geriden gelerek tepki vermek zorunda kalınan bu gerçeklikle baş etmek kolay değil
“Otomatikleştirilmiş kaynağa güvenmekten kaynaklanan hata” bahanesi,
“Silah otomatikti, bu yüzden birinin ölmesi benim suçum değil” demeye benziyor
Bir sonraki token tahmini ve halüsinasyon basit bir bug değil
Güvenilirlik ve bütünlük gerektiren alanlarda bu sorunları görmezden gelmek son derece tehlikeli