her insanın başına gelebilir… Korkutan teknoloji! Kapalılık ayarlarınızı gözden geçirin

bencede

New member
Geçtiğimiz günlerde bir üniversite öğrencisinin hayatı kendisini tehdit eden tanımadığı bir vatandaş tarafınca kabusa döndü. Takıntılı kişi genç kızın fotoğraflarını ‘Deepfake’ sistemiyle çeşitli fotoğraf ve görüntülerde kullanarak çeşitli mevt tehditlerinde bulundu.

Genç kız toplumsal medyadan yardım talebini duyururken ‘Deepfake’ teknolojisinin berbata kullanmasının ne kadar dehşetli olacağı da akıllara geldi.

DEEPFAKE’Lİ BİRİNCİ SÜREÇ DEĞİL

2019 yılında Almanya’da yapay zeka tabanlı yazılımla dolandırıcılık işlenmiş bilgilere bakılırsa ‘Deepfake’ ses taklidi ile gerçekleştirilen kabahatlerde yüzde 50 artış olduğu kaydedilmişti.

2021’de ise Birleşik Arap Emirlikleri’nde bir daha tıpkı sistemle ses taklidi yapılarak bir bankadan 325 milyon liralık transfere onay verildi.

‘Deepfake korkmamız gereken bir teknoloji mi? Olumsuz durumlarla karşılaşıldığında kullanıcılar neler yapabilir?’ sorularının cevabını uzmanlar Hurriyet.com.tr için deklare etti.


‘YENİ SİBER KABAHATLERİN KAPILARINI ARALADI’

ESET Türkiye Eser ve Pazarlama Müdürü Can Erginkurban yaptığı açıklamada, “Deepfake, gerçek bir insanın görünümünü ve sesini kopyalamak için sıfırdan ya da mevcut bir görüntü kullanılarak tasarlanan, uydurma içerik oluşturma hedefli, yapay zekaya dayalı insan manzarası sentezleme tekniği. Bu üzere görüntülerin gerçekçiliği inanılmaz seviyede olabiliyor. Deepfake, daha kolay ve daha süratli yaratabilen bir teknoloji haline geldi. Yeni bir cins siber kabahatin da kapılarını araladı. Biroldukca kişi tarafınca nispeten zararsız ve hatta eğlenceli olarak görülse de bu çılgınlık ziyanlı bir hal alarak siber cürümlerin ortasında yer almaya başladı. Sadece tanınmış şahısları değil rastgele birini içeren düzmece görüntüler üretilmeye başlandı” dedi.

ÜRPERTEN ARAŞTIRMA

Erginkurban araştırmaların boyutlarını da ortaya sererken, “Uygulamaların giyinik biçimdeki bir insanı saniyeler içerisinde üstsüz hale getiren DeepNude uygulamalarına da şahit olundu. Bu uygulama her neyse ki artık çevrimdışı hale getirildi. Bilhassa yetişkin sinemaları dalında, bu görüntülerin üretiminin kârlı bir iş haline geldiğine dair deliller da mevcut. BBC, “Bu görüntülerin yüzde 96’sı, benzerleri gerek ayrıntıları dahilinde gerek müsaadeleri olmadan cinsel içerikli görüntülerde oynatılan bayan ünlülere ait” açıklamasında bulundu” sözünde bulundu.

ABD’DE CEZASI VAR

Erginkurban ABD’de de işin yasal bir noktaya taşındığını da belirterek, “bir süre evvel California’da yürürlüğe giren bir yasa ile yasa koyucular gözlerini kararttı ve kişinin müsaadesi olmadan çıplaklık içeren deepfake manzaralarını yaratmayı, cezası 150.000 Amerikan dolarına varan yasa dışı bir hareket haline getirdi. Lakin, kimi insanların görüntü üretmelerini önlemeye yasalar yetmiyor” dedi.


TEHDİTLERE KARŞI YAPILMASI GEREKENLER

Erginkurban kelamlarına şu biçimde devam etti: “ilk vakit içinderda, insanlara deepfake içeriklerin var olduklarını göstermeli, onlara bu içeriklerin nasıl çalıştıkları ve hangi hasarlara yol açabilecekleri konusunda eğitmeliyiz. Hepimizin gördüğümüz en gerçekçi görüntülere bile büsbütün geçersiz olabilirmiş üzere davranmayı öğrenmemiz gerekiyor. İkinci olarak, deepfake içerikleri daha uygun algılayacak teknolojiler geliştirilmesi gerekiyor. Makine tahsilinin şahsen bunları yaratma sürecinin tam merkezinde yer almasına rağmen, yalnızca insan gözlerine güvenmeden bunları algılayabilen bir panzehir nazaranvi bakılırsacek bir formülün olması gerekiyor.”

‘SUÇLULARIN CEZALANDIRILMASI GEREKİYOR’

Erginkurban ayrıyeten, “Sosyal medya platformlarının, deepfake içeriklerin tesiri niçiniyle hayli büyük bir potansiyel tehdit olduğunu fark etmeleri gerekiyor. Çünkü toplumsal medyada şaşırtan bir görüntü paylaştığınızda sonuçlar epey süratli yayılıyor ve bunun toplum üzerinde ziyan verici bir tesiri oluyor. Bu tip bir durum kullanıcıların başına geldiğinde şikayet edebilecekleri ve süratle tahlil alabilecekleri yasal müracaat kanallarının açık olması, caydırıcı cezalarla ile hatalıların cezalandırılması gerekiyor” dedi.




‘CİDDİ KAYGILARI birlikteİNDE GETİRİYOR’

Siberasist Genel Müdürü Serap Günal yaptığı açıklamada, “Teknolojik gelişmelerin büyük bir ivme kazanması yardımıyla gerçekliği simüle etmek giderek kolaylaşıyor. Kurgusal fotoğraflardan yahut görüntülerden oluşan ve pek inandırıcı olan deepfake teknolojisi, günümüzde isminden daima bahsettiriyor. Bir görüntüdeki kişinin benzerliğini öbür biriyle değiştirilebilmesine imkan tanıyan bu teknoloji, önemli kaygıları de birlikteinde getiriyor. Berbat niyetli aktörler, derin öğrenme ismi verilen bir yapay zeka biçimi kullanılarak düzmece imajlar oluşturuyor ve kurbanlarını ekseriyetle ünlü şahıslar ve siyasetçilerden seçiyor. Fakat bu ferdi kullanıcıların da başına gelmeyeceği manasına gelmiyor” dedi.

BUNLARA DİKKAT EDİLMELİ

‘Son günlerde yaşanan birtakım durumlarda bize bu durumun ne kadar önemli boyutlara oluşabileceğini de gösterdi’ diyen Günal, “Sahte bir imajın ayırt edilebilmesinin çok güç olması dolandırıcılara gerekli tüm ortamı da hazırlıyor. Bir kişinin prestijini çarçabuk sarsabilen deepfake teknolojisinin internet ortamı için önemli tehditler oluşturduğu da aşikar. Değiştirilen bir imgenin doğruluğunu tespit etmek hayli sıkıntı olabiliyor fakat kimi vakit uydurma görüntü arkasında bir iz bırakabilir. Bu niçinle, düşük ses kalitesine, bulanık notalara, dudak senkronizasyonuna ve öbür olağandışı tutarsızlıklara dikkat edilmesi gerekiyor” sözünde bulundu.

‘GİZLİLİK AYARLARINIZI GÖZDEN GEÇİRİN’

Günal açıklamasının devamında şunları söylemiş oldu: “Günümüz dijital dünyasında internet bir siber savaş alanı haline gelmişken, dolandırıcıların son silahı da deepfake teknolojisi. Gerçekliğin büsbütün manipüle edildiği bu ortamda şahıslar, daha evvel hiç olmadığı bir yerde gösteriliyor ve bu görseller onları sıkıntı durumda bırakıyor. Toplumsal medyada her an manzara paylaşmak cazip gelebilir fakat her paylaşılan fotoğraf ve görüntü, siber saldırganların elinde kıymetli bir koz oluşturuyor. Bu niçinle, toplumsal medya platformlarındaki dijital ayak izlerine dikkat edilmeli ve şahsi ayrıntıların toplumsal medyada paylaşılma konusunda daha hassas davranılmalı. Bilhassa hangi dataların kiminle paylaşıldığını netleştirmek için saklılık ayarların gözden geçirilmesi, deepfake teknolojisinin bir mağduru olmamak ismine değerli adımlardan birini oluşturuyor.”

BİRÇOK ÜNLÜ DE MAĞDUR OLMUŞTU

DeepFake bu vakte kadar birfazlaca ünlüyü mağdur etti hatta etmeye devam ediyor. DeepFake ile mağdur olan ünlüler içinde Emma Watson, Natalie Portman, Ivana Trump, Kate Middleton, Adriana Grande, Natalie Dormer üzere tanınan isimler yer alıyor.
 
Üst