Fotoğrafları çıplak gösterdiği iddia edilen DeepNude kapatıldı

Fotoğrafları çıplak gösterdiği iddia edilen DeepNude kapatıldı
Güncelleme:

Yapay zeka teknolojileri kullanarak herhangi birinin fotoğrafını çıplak hale getiren DeepNude uygulaması kapatıldı. "Dünya, henüz buna hazır değil" açıklaması yapan uygulamanın geliştiricileri, "Eğlence için yapmıştık ama bu şekilde para kazanmak istemiyoruz" dedi.

Herhangi birine ait olan fotoğrafları yapay zeka kullanarak çıplak gösterdiğini iddia eden DeepNude uygulaması faaliyetlerine son verdi. Geçen hafta Vice’ta yayınlanan bir haberle gündeme gelen skandal uygulama, Twitter hesabı üzerinden yaptığı açıklamada, "Dünya, henüz DeepNude'e hazır değil" denildi.

Habertürk'ten Necdet Çalışkan'ın haberine göre, insan beyninin bilgi işleme tekniğinden esinlenerek geliştirilen yapay sinir ağları teknolojisini kullanan DeepNude programı, uygulamaya yüklenen fotoğraftaki kişileri çıplak gösterdiğini ileri sürüyordu. 

DEEPNUDE NEDİR?

Yazılımla ilgili olarak Vice’ta yayınlanan haberin ardından tüm dünyada geniş yankı uyandıran uygulama, hem kişisel mahremiyeti hiçe sayması hem de ahlaki olarak yoğun bir şekilde eleştirilmişti.

Uygulamanın sadece kadın fotoğraflarında çalışması ise tartışmanın boyutunu daha da alevlendirmişti.

Kişisel mahremiyet savunucuları, "Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı" açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, 'Fake' (sahte) ibaresiyle gösteriliyordu.

'BU ŞEKİLDE PARA KAZANMAK İSTEMİYORUZ'

Ancak bu eleştirilere karşın, 50 dolarlık bir ücret karşılığında satışa sunulan uygulama, haberin yayınlanmasının hemen ardından yoğun bir ilgiyle karşılaşmış ve programın indirilme sitesi kilitlenmişti.