Yeni bir araştırma, ChatGPT ve Google Gemini gibi tanınmış yapay zeka sohbet robotlarının önemli güvenlik açıklarına sahip olduğunu ve tehlikeli ya da yasadışı içerikler üretebilmek için kolayca manipüle edilebildiklerini ortaya koydu.
Araştırmacılar, bu tür içerikleri engellemeyi amaçlayan güvenlik filtrelerinin beklenen düzeyde etkili olmadığını belirlediler.
Bu durum, yapay zekanın kötüye kullanımının yanı sıra kullanıcı güvenliği konularında kaygıları artırırken, bulgular geçtiğimiz hafta hakemli bir makale ile kamuoyuna duyuruldu.
ChatGPT, Gemini ve Claude gibi sohbet robotlarını yönlendiren sistemler, geniş bir internet veri havuzuyla eğitilmektedir.
Şirketler bu eğitim materyallerinden zararlı içerikleri ayıklamaya çalışsalar da, bu modellerin bilgisayar korsanlığı ve bomba yapımı gibi yasa dışı konular hakkında bilgi edinebileceği vurgulanıyor.
RİSK ENDİŞE VERİCİ
Araştırmacılar, yapay zeka destekli sohbet robotlarının zararlı ve yasadışı içerikler üretme olasılığını “endişe verici” olarak nitelendiriyor.
Araştırmacılar, birçok popüler sohbet robotunun normalde yanıt vermeyeceği soruları yanıtlamaya zorlayan genel bir ‘jailbreak’ yöntemi geliştirdiklerini ve bu yöntem sayesinde yapay zeka modellerinin hemen her sorguya tutarlı bir şekilde yanıt üretebildiklerini ifade etti.
Önde gelen Büyük Dil Modeli (LLM) sağlayıcılarına bu konuda uyarıda bulunduklarını belirten araştırmacılar, “etkileyici olmayan” bir geri dönüş aldıklarını dile getiriyorlar. Bu nedenle teknoloji firmalarının eğitim verilerini daha titiz bir şekilde gözden geçirmeleri ve güçlü güvenlik duvarları eklemeleri tavsiye ediliyor.
Uzmanlar, yapay zeka modellerinin sıkı güvenlik testlerine tabi tutulması ve sürekli olarak yeni tehdit senaryoları üzerinde çalışmalar yapılması gerektiğinin altını çiziyor.