Teknoloji

SKANDAL! Grok Imagine'ın Taylor Swift Nude'larından Sonra Çocuk Görüntüleri de Oluşturduğu Ortaya Çıktı!

Grok Imagine, “spicy” modu ile Taylor Swift’in deepfake çıplak videolarını üretti. Hem de kullanıcı çıplaklık istemeden. Yaş sınırı ise formaliteden ibaret.

Elon Musk’ın yapay zekâ şirketi xAI’ın geliştirdiği Grok Imagine uygulaması, yeni bir deepfake skandalıyla gündemde. The Verge'den Jess Weatherbed’in 5 Ağustos tarihli özel haberine göre, uygulamanın “spicy” modu sayesinde kullanıcılar Taylor Swift’in “çıplak videolarını” yalnızca birkaç adımda oluşturabiliyor, üstelik bunu talep etmeden.

Weatherbed, uygulamayı test ederken “Taylor Swift Coachella’da kutlama yapıyor” şeklinde masum bir metin girdikten sonra, Swift’e benzeyen onlarca görselle karşılaştı. Ardından, bu görsellerden birini “spicy” moduyla videoya çevirdiğinde, uygulama Swift’in kıyafetlerini yırtarak soyunduğu ve kalabalık önünde iç çamaşırlarıyla dans ettiği bir video oluşturdu. Videoda kullanılan Swift görüntüsü, tamamen yapay zekâ tarafından üretilmiş olsa da, ünlü ismin kimliği kolaylıkla tanınabiliyor.

“Ben doğrudan çıplaklık talep etmeden bu video üretildiyse, herkes bunu yapabilir.”

Jess Weatherbed, The Verge

Skandal burada bitmiyor. Uygulama, kullanıcıdan yalnızca doğum yılını yazarak yaş doğrulaması alıyor ve bu onay sadece bir kez isteniyor. İngiltere gibi yaş doğrulamanın zorunlu olduğu ülkelerde dahi uygulama hiçbir belge ya da doğrulama sistemi sunmuyor. Yani 13 yaşındaki bir çocuk, sadece yaşını “2000” yazarak Taylor Swift’in deepfake nude videosunu izleyebiliyor.

Loading...

Sistem, Çocuk Görsellerini Bile Üretebiliyor

Weatherbed’in testlerine göre Grok, fotogerçekçi çocuk görselleri oluşturabiliyor. “Spicy” modu aktifken bu görüntüler doğrudan müstehcen olmasa da, sistemin teknik olarak buna kapı aralaması başlı başına mide bulandırıcı bir skandal. Üstelik burada “uygunsuz” kavramı neye göre belirlendi? Kime göre uygun, kime göre değil?

Yapay zeka tarafından oluşturulan bu görüntülerin herhangi bir biçimde normalleştirilmesi kabul edilemez. Elon Musk’ın yapay zekâsı en başından çocuk görseli üretmemeli. Tartışmaya bile açık değil.

Grok Imagine Yasaları Çiğniyor!

ABD’de geçtiğimiz aylarda yürürlüğe giren Take It Down Act, reşit olmayan bireylerin dijital istismarına karşı net kurallar koyarken, ünlülerin rızası olmadan çıplak deepfake içeriklerin üretilmesi de birçok ülkede suç kapsamına giriyor. Ancak Grok Imagine, hem bu düzenlemelere hem de kendi kullanım politikalarına adeta meydan okuyor.

xAI’ın kullanım şartları, “kişilerin benzerliklerinin pornografik şekilde tasvir edilmesini” yasaklasa da, bu yasak sadece kâğıt üstünde kalıyor gibi görünüyor. Çünkü uygulama, Taylor Swift gibi küresel ünlülerin açıkça tanınabildiği, müstehcen sahneler içeren videoları üretmekte hiçbir engelle karşılaşmıyor.
Uygulamanın popülerliği ise endişe verici boyutlarda. Elon Musk’a göre, Grok Imagine yalnızca birkaç gün içinde 34 milyondan fazla görsel üretti. Kullanıcılar ise bu görselleri birkaç tıkla videoya çevirerek “spicy” içeriğe ulaşabiliyor.