USD38,92
%0.13
EURO44,15
%0.15
BIST9.471,94
%0.78
Petrol63,85
%-1.63
GR. ALTIN4.145,52
%0.06
BTC4.314.976,07
%2.09
İstanbul
Ankara
İzmir
Adana
Adıyaman
Afyonkarahisar
Ağrı
Aksaray
Amasya
Antalya
Ardahan
Artvin
Aydın
Balıkesir
Bartın
Batman
Bayburt
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Düzce
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkâri
Hatay
Iğdır
Isparta
Kahramanmaraş
Karabük
Karaman
Kars
Kastamonu
Kayseri
Kırıkkale
Kırklareli
Kırşehir
Kilis
Kocaeli
Konya
Kütahya
Malatya
Manisa
Mardin
Mersin
Muğla
Muş
Nevşehir
Niğde
Ordu
Osmaniye
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Şırnak
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yalova
Yozgat
Zonguldak
  1. Haberler
  2. Teknoloji
  3. Yapay Zeka Sohbet Robotları Tehlike Saçıyor!

Yapay Zeka Sohbet Robotları Tehlike Saçıyor!

featured
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Yeni bir araştırma, ChatGPT ve Google Gemini gibi tanınmış yapay zeka sohbet robotlarının önemli güvenlik açıklarına sahip olduğunu ve tehlikeli ya da yasadışı içerikler üretebilmek için kolayca manipüle edilebildiklerini ortaya koydu.

Araştırmacılar, bu tür içerikleri engellemeyi amaçlayan güvenlik filtrelerinin beklenen düzeyde etkili olmadığını belirlediler.

Bu durum, yapay zekanın kötüye kullanımının yanı sıra kullanıcı güvenliği konularında kaygıları artırırken, bulgular geçtiğimiz hafta hakemli bir makale ile kamuoyuna duyuruldu.

ChatGPT, Gemini ve Claude gibi sohbet robotlarını yönlendiren sistemler, geniş bir internet veri havuzuyla eğitilmektedir.

Şirketler bu eğitim materyallerinden zararlı içerikleri ayıklamaya çalışsalar da, bu modellerin bilgisayar korsanlığı ve bomba yapımı gibi yasa dışı konular hakkında bilgi edinebileceği vurgulanıyor.

RİSK ENDİŞE VERİCİ

Araştırmacılar, yapay zeka destekli sohbet robotlarının zararlı ve yasadışı içerikler üretme olasılığını “endişe verici” olarak nitelendiriyor.

Araştırmacılar, birçok popüler sohbet robotunun normalde yanıt vermeyeceği soruları yanıtlamaya zorlayan genel bir ‘jailbreak’ yöntemi geliştirdiklerini ve bu yöntem sayesinde yapay zeka modellerinin hemen her sorguya tutarlı bir şekilde yanıt üretebildiklerini ifade etti.

Önde gelen Büyük Dil Modeli (LLM) sağlayıcılarına bu konuda uyarıda bulunduklarını belirten araştırmacılar, “etkileyici olmayan” bir geri dönüş aldıklarını dile getiriyorlar. Bu nedenle teknoloji firmalarının eğitim verilerini daha titiz bir şekilde gözden geçirmeleri ve güçlü güvenlik duvarları eklemeleri tavsiye ediliyor.

Uzmanlar, yapay zeka modellerinin sıkı güvenlik testlerine tabi tutulması ve sürekli olarak yeni tehdit senaryoları üzerinde çalışmalar yapılması gerektiğinin altını çiziyor.

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
Yapay Zeka Sohbet Robotları Tehlike Saçıyor!
Yorum Yap

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Girdap Haber ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!