Uzman Psikolog Irına Irmak Bahar

Uzman Psikolog Irına Irmak Bahar


Yanı başımızdaki tehlike: Deepfake!

04 Ağustos 2023 - 12:56

Teknoloji hayatımızı kolaylaştırdığı gibi, yanlış ellerde hayatımızı bir anda zindana çevirecek bir silaha da dönüşebiliyor. Bilgi çağının yeni silahının adıysa deepfake…

Bilişim suçları ile mücadelede son dönemde sıklıkla rastlanan konulardan biri de deepfake videoları oldu.  Deepfake deep (derin) ve fake (sahte) kelimelerinin bir araya gelmesinden oluşur. Teknolojinin gelişmesiyle birlikte gerçeklik algısını derinden etkileyen deepfake, herhangi bir kişiyi aslında bulunmadığı video ya da fotoğraflara eklemeye denir.

Kişi hakkında olumsuz itibar oluşturmak amacıyla çeşitli dijital yöntemler kullanılarak hazırlanan videolar birçok kişiyi mağdur ediyor.  Herhangi bir videoda ya da görselde yer alan bir kişinin yapay sinir ağları kullanılarak uygunsuz bir videoya eklenmesi mümkün. Sahte haberler, intikam videoları veya herhangi bir kişinin itibarsızlaştırılması için hazırlanan videolar çeşitli platformlarda paylaşılıyor. Videoda bahsi geçen kişi hiç ilgisinin olmadığı yasal bir sorunla ya da toplumsal bir infiale ile karşı karşıya kalıyor. Sosyal ağlar birer birer deepfake videolarını yasaklasa da bu durumun önüne geçilmesi için daha kapsamlı çalışmalar gerekiyor.



Daha önce gerek köşemizde gerek televizyon programlarında da dile getirdiğimiz ‘manevi taciz’ ve ‘çocuk istismarı’ suç ve vakalarında zeminimiz her zaman aile üyelerinin ya da akran çevresinin sosyal medya platformlarını şeffaf kullanmalarından dolayı doğan zararlar ve sebeplerinden bahsetmiştik. Her ne kadar iyi niyetli dahi olsa da, nerede kimlerin ne amaçla ellerine geçeceğinden emin olmadığımız, önce bizlerin daha sonra sahip olduklarımız ve en değerli varlıklarımız çocuklarımızın tüm bilgilerin eksiksiz şekilde bu mecralarda yayınlanması çocuk kaçırılmalarına, çocuk istismarlarına ve intikam suçlarının işlenmesini kolay hale getirir. Teknolojinin bu denli ilerlemesi ne yazık ki kötü niyetli kişiler için, işleyecekleri suçları tahmin etmemizi zorlaştıracak ve birçoğumuzun canı yanacak.

Uzun zamandır üzerine çalışılan video ve fotoğraf montaj ve sanal gerçeklik suç çeşidini değiştirmekte ve geri dönüşü olmayan zararlara sebep olacağı kuşkusuz.

Uygulama izinlerine dikkat!

Her an elimizin altında olan akıllı telefonların ve okumadan iznin verdiğimiz tüm bilgiler, banka hesap şifrelerimiz, fotoğraf arşivimiz ve nicesi sanal dünyada arşivlenmektedir. Basit bir oyun oynarken dahi oyunu oynayabilmek için onayladığımız ‘hüküm ve koşullar’ okuyabilmiş olsaydık eğer telefon kullanmanın ne kadar ciddi bir mesele olduğunu anlayabilirdik.

Sanal arşivde yerimizi aldığımız bizlerin ve çocuklarımızın en özel anları dahi, haritada yerini dahi gösteremeyeceğimiz ülkede +24 bir web sitesinde cinsel içerikli satışa sunulabilir. Yüzümüzün kayıtlı olduğu veri tabanına sızan hackerlar, sahip olduğumuz birçok şeyi ele geçirebilir. Öyle ki deepfake görselleri uygun sesle, profesyonelce video haline getirebilmekte.

Kısaca sadece çıkar elde etmek isteyenler değil, kin güden birçok kişi içinde intikam yolunu açabilir.



DEEPFAKE NASIL ANLAŞILIR?
•    Gözler, sahteliği ayırt etme sürecindeki en belirgin ipucu olabilir. Videodaki kişinin normal olmayan göz hareketleri ve hiç göz kırpmaması sahte olduğunun işaretidir. Ayrıca göz bebeklerinin boyutundaki bozukluklar ve yansımalar videonun sahteliğini ele verebilir.
•    Sahteliği ayırt etmek için fotoğraf ya da videodaki kişilerin yüzlerini detaylı olarak inceleyebilirsiniz. Cildin çok pürüzsüz ya da aşırı kırışık olması, benlerin gerçekçi durmaması ve yüzdeki orantısızlıklar sahteliğin işareti olabilir.
•    Gerçek kişilerin gözlüklerinde parlak açısı kişi hareket ettiğinde değişir. Deepfake teknolojisi, aydınlatma ve yansımanın doğallığına erişemeyebilir.
•    Jest ve mimikler canlıların düşüncelerini hareket yoluyla ifade etme şeklidir. Deepfake teknolojisi aracılığıyla üretilen video içeriklerinde kişilerin sözleriyle jest ve mimikleri uyumlu olmayabilir.
•    Deepfake teknolojisi genel olarak yüze odaklandığından kişilerin vücutlarındaki orantısızlık sahte olduğuna işaret eder.
•    İçeriklerdeki kişiler hareket ettiklerinde önceki hâline göre farklılık oluşuyorsa deepfake ile üretilmiş olabilir.
•    Gerçek yaşamdaki gibi doğal bir tona sahip olmayan ten rengi ve gölgeler içeriğin sahte olduğunu anlamanıza yardımcıdır.
•    Deepfake teknolojisiyle üretilen içeriklerdeki kişilere ait saçlar; donuk ve uyumsuz görülebilir. Hareket ederken saç tellerinin normal olmaması sahteliğe işarettir.
•    Deepfake teknolojisinde kullanılan algoritmalar, her ağız tipindeki dişler üzerinde yeterince etkili olmayabilir. Dolayısıyla dişlerin çeneye uyumsuzluğu sahteliğin belirtisidir.

YORUMLAR

  • 0 Yorum