Monday, July 22nd, 2024

Yapay Zeka Modellerinin Güvenliğinden Ödün Veren 'Godmode ChatGPT' Konusunda OpenAI

Open AI, kullanıcılara AI modellerinin güvenliğini tehlikeye atacak tehlikeli görevleri öğretebilen ChatGPT'nin jailbreakli bir sürümünü yasakladı. Bu, “Promper Plínio” olarak bilinen bir Hacker'ın X'te (Eski adıyla Twitter) “Godmode” GPT adlı hileli ChatGPT'yi başlatmasından sonraydı; hacker, “GPT-40 UNCHAINED! Bu çok özel özel GPT, çoğu koruyucu engeli aşan, özgürleştirilmiş, kullanıma hazır bir ChatGPT sağlayan yerleşik bir jailbreak istemine sahiptir, böylece herkes yapay zekayı yasanın olması gerektiği gibi deneyimleyebilir: ücretsiz. Lütfen sorumlu bir şekilde kullanın ve keyfini çıkarın!

İstemlerin ekran görüntülerini paylaşan bilgisayar korsanı, OpenAI'nin koruma korumalarını atlatabildiğini iddia etti. Paylaşılan ekran görüntülerinden birinde botun metamfetaminin nasıl hazırlanacağına dair tavsiyeler sunduğu, bir diğerinde ise ev eşyaları kullanılarak Nepalce yapımının adım adım anlatıldığı görüldü. Godmode'un ayrıca macOS bilgisayarlarına ve kablolu araçlara nasıl virüs bulaştırılacağına dair talimatlar verdiği de görüldü.

OpenAI, jailbreak'e karşı harekete geçtiklerini belirterek hızlı bir şekilde yanıt verdi: OpenAI Perşembe günü Futurism'e “GPT'nin politikalarımızın ihlali nedeniyle harekete geçtiğinin farkındayız” dedi. Bu hızlı eylem, OpenAI'nin yapay zeka modellerinin bütünlüğünü ve güvenliğini koruma konusundaki kararlılığını yansıtıyor.