İngiltere ve Galler Yüksek Mahkemesi, hukuki araştırmalarında yapay zeka (YZ) araçlarına, özellikle ChatGPT gibi üretken sistemlere güvenmenin riskleri konusunda avukatları uyardı.
Yargıç Victoria Sharp, bu tür araçların sağladığı sahte bilgilere dayanarak mahkemeye sunum yapan avukatların ciddi cezalara maruz kalabileceğini ifade etti.
YÜKSEK MAHKEMEDEN ÖNEMLİ UYARI: “YAPAY ZEKA GÜVENİLİR DEĞİL”
Yargıç Sharp, söz konusu kararında, üretken yapay zeka araçlarının “güvenilir hukuki araştırmalar yapma kapasitesine sahip olmadığını” net bir şekilde dile getirdi.
Bu araçlar görünüşte mantıklı ve tutarlı yanıtlar üretebilse de, tamamen hatalı bilgiler oluşturabileceğine dikkat çekti.
Yargıç, avukatların bu tür araçları araştırmalarında kullanma imkanına sahip olduğunu, ancak “meslekî pratiklerinde kullanmadan önce, yetkili kaynaklarla bu bilgilerin doğruluğunu kontrol etme” gerekliliğini vurguladı.
UYARININ ARKASINDAKİ SAHTE DAVA ÖRNEKLERİ
Bu karar, avukatların mahkeme süreçlerinde yapay zeka tarafından üretilen sahte dava ve belgelerle ilgili olarak iki yeni davanın ortaya çıkmasının ardından aldı. İlgili davalardan birinde, bir avukatın sunduğu 45 alıntıdan 18’inin var olmadığı tespit edildi.
Katar Ulusal Bankası ile ilgili 120 milyon dolarlık başka bir davada ise bir avukatın var olmayan 18 davaya atıfta bulunduğu belirlendi. Müvekkil, yapay zeka tarafından oluşturulan yanlış veriler nedeniyle mahkemeyi yanılttığı için özür dilemek zorunda kaldı.
HUKUKİ SONUÇLARI CİDDİ OLABİLİR
Yargıç Sharp, sahte materyalin gerçeğiymiş gibi sunulmasının mahkemeye saygısızlık olarak değerlendirilebileceğini ve “en kötü durumlarda” adaletin seyrini değiştirebileceğini belirtmekteydi.
Bu tür bir davranış, mesleki yükümlülüklerine uymayan avukatlar için ağır para cezaları ve hatta hapis cezasıyla sonuçlanabilir.



