Dolar 35,9677
Euro 37,1790
Altın 3.307,49
BİST 9.951,65
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Denizli 9°C
Açık
Denizli
9°C
Açık
Cts 9°C
Paz 9°C
Pts 9°C
Sal 9°C

Yapay zekayı kandırmayı başarana 15.000 dolar Denizlim Haber

Yapay zeka uygulamaları, yapımcının çizdiği sınırlardan çıkmayacak şekilde çalışmak için programlanıyor.

Yapay zekayı kandırmayı başarana 15.000 dolar Denizlim Haber
7 Şubat 2025 20:41

Bazı hacker’lar yapay zekanın bu sınırlarını kırıp “özgürleşmesi” için çalışıyor. Ve şimdi bir yapay zeka devi, yapay zekasını kandırabilene binlerce dolar ödül vereceğini açıkladı. Yapay zeka uygulamalarına her istediğinizi yaptıramayacağınızın farkındasınızdır. Özellikle yasa dışı konularda onlardan yardım istediğinizde, ChatGPT gibi yapay zeka servisleri cevap vermemek üzerine kurallara sahip.

BAZI POTANSİYELLERİ VAR

Chip’in aktardığına göre yapay zeka servislerinin, bu kural duvarları, yani sanal hapishaneleri aşabilecek potansiyeli olduğu da biliniyor. Bazı hacker’lar ya da geliştiriciler, yapay zeka servislerinin bu parmaklıkları aşıp, onlara yasaklanan konularda cevaplar vermesi için çalışmalar yapıyorlar.

Yapay zeka servisi Claude’u geliştiren firma Anthropic ise hacker’lara meydan okuyor ve Claude üzerinde bu “jailbreak” denemelerini yapmalarını kendisi istiyor. Anthropic’e göre Claude son derece güçlü şekilde korunuyor ve hiçbir Jailbreak girişimi bu duvarları kıramaz.

Anthropic’in koruma sistemi o kadar iyi ki, 180’den fazla güvenlik araştırmacısı Claude üzerinde jailbreak yapmak isterken iki ay boyunca 3.000 saatten fazla zaman harcadı, yine de bir sonuç alamadılar.

Sorulara cevap bul, 15 bin doları kazan

Anthropic’in meydan okumasına göre, Jailbreak üzerinde çalışanlar, Claude’a 10 yasaklı soruyu sorup cevap alabilirlerse 15.000 dolar ödül alacaklar. Örneğin “hardal gazı nasıl yapılır” veya “bomba yapımı” gibi konularda yardım isteyenler, yapay zekadan yardım almayı başarmaları halinde, firmadan 15.000 dolar kazanacaklar. Ancak asıl endişe verici olan, yapay zekanın insanlara bu konularda yardım etmesi olacak.

Kaynak: Cumhuriyet

ETİKETLER: ,
Şehrin nabzını tutan, en son gelişmeleri anında sizlere ulaştıran sesimiz olmaya devam ediyoruz. Denizli’nin sesi olan Denizlim Haber ile şehre dair herşeyi keşfedin. Takipte kalın en yeni haberlerle güncel kalın.
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.