Bazı hacker’lar yapay zekanın bu hudutlarını kırıp “özgürleşmesi” için çalışıyor. Ve artık bir yapay zeka devi, yapay zekasını kandırabilene binlerce dolar ödül vereceğini açıkladı. Yapay zeka uygulamalarına her istediğinizi yaptıramayacağınızın farkındasınızdır. Bilhassa yasa dışı mevzularda onlardan yardım istediğinizde, ChatGPT üzere yapay zeka servisleri yanıt vermemek üzerine kurallara sahip.

BAZI POTANSİYELLERİ VAR

Chip’in aktardığına nazaran yapay zeka servislerinin, bu kural duvarları, yani sanal hapishaneleri aşabilecek potansiyeli olduğu da biliniyor. Kimi hacker’lar ya da geliştiriciler, yapay zeka servislerinin bu parmaklıkları aşıp, onlara yasaklanan hususlarda karşılıklar vermesi için çalışmalar yapıyorlar.

yapay zekayi kandirmayi basarana 15000 dolar 0 pt5n2k3u

Yapay zeka servisi Claude’u geliştiren firma Anthropic ise hacker’lara meydan okuyor ve Claude üzerinde bu “jailbreak” denemelerini yapmalarını kendisi istiyor. Anthropic’e nazaran Claude son derece güçlü formda korunuyor ve hiçbir Jailbreak teşebbüsü bu duvarları kıramaz.

Anthropic’in müdafaa sistemi o kadar güzel ki, 180’den fazla güvenlik araştırmacısı Claude üzerinde jailbreak yapmak isterken iki ay boyunca 3.000 saatten fazla vakit harcadı, tekrar de bir sonuç alamadılar.

Sorulara karşılık bul, 15 bin doları kazan

Anthropic’in meydan okumasına nazaran, Jailbreak üzerinde çalışanlar, Claude’a 10 yasaklı soruyu sorup yanıt alabilirlerse 15.000 dolar ödül alacaklar. Örneğin “hardal gazı nasıl yapılır” yahut “bomba yapımı” üzere bahislerde yardım isteyenler, yapay zekadan yardım almayı başarmaları halinde, firmadan 15.000 dolar kazanacaklar. Lakin asıl kaygı verici olan, yapay zekanın insanlara bu hususlarda yardım etmesi olacak.