Dünya, ChatGPT’nin becerileriyle büyülenirken, bu yapay zekâ sohbet botunun sınırları da dikkat çekiyor. Geliştirici OpenAI, güvenlik amacıyla uyguladığı kısıtlamalar nedeniyle ChatGPT her isteği yerine getiremiyor. Ancak “Pliny the Prompter” adlı bir hacker, ChatGPT’nin kilitlerini kırdığını iddia ederek “GODMODE GPT” adını verdiği değiştirilmiş bir sürümünü duyurdu. Hacker, bu versiyonla ChatGPT’nin kısıtlamalardan arındırıldığını ve artık “özgür” olduğunu belirtti. 🔓 Bu özel GPT’nin, ChatGPT’yi olması gerektiği gibi, tüm sınırlamalardan bağımsız deneyimlemeyi mümkün kıldığını vurguladı. İlginçtir ki, değiştirilmiş modelin uyuşturucu yapımını anlattığı ve ev eşyalarıyla napalm bombası yapımını gösterdiği örnekler mevcut. 💣 Ancak OpenAI’ın güvenlik önlemlerini aşan GODMODE GPT’nin ömrü uzun sürmedi. Şirket, politika ihlali nedeniyle hız intervened ve GPT’yi kaldırdı. Bu olay, ChatGPT’nin güvenlik açıklarına karşı savunmasız olduğunu ve kötü niyetli kullanımlara açık hale gelebileceğini gösteriyor. OpenAI’ın modelini korumak için daha fazla önlem alması gerekiyor. Aksi takdirde, istenmeyen sonuçlarla karşılaşabiliriz. 🤔
ChatGPT’nin Kırılan Kilitleri: GODMODE GPT ve Yapay Zeka Güvenliği
Okunuyor ChatGPT’nin Kırılan Kilitleri: GODMODE GPT ve Yapay Zeka Güvenliği
Hata!
Yorumunuz Çok Kısa, Yorum yapabilmek için en az En az 10 karakter gerekli