Uzmanlar, DeepSeek’in güvenlik önlemlerini aşma direncini ölçmek için 50 farklı test uyguladı. Ancak model, en temel “jailbreak” yöntemleriyle bile kandırılabildi. Yapay zekâ, bir film karakteri olduğu senaryosuna inandırıldığında bomba yapımıyla ilgili detaylar verdi, ayrıca SQL sorguları oluşturması istendiğinde yasa dışı madde üretimine dair kodlar ürettiği tespit edildi.
Daha da endişe verici olan ise, kelimelerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.
YAPAY ZEKA GÜVENLİĞİ YENİDEN TARTIŞMAYA AÇILDI
DeepSeek’in kötüye kullanım potansiyeli, yapay zekâ güvenliği konusundaki kaygıları yeniden gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin ciddi tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik önlemleriyle donatılması gerektiğini vurguladı.
More Stories
Trump’tan TikTok açıklaması: Microsoft satın almak için devreye girdi
TÜBA-TEKNOFEST Doktora Bilim Ödülü başvuruları başladı
76 milyon yıllık “cinayet” çözüldü