Gürkan Özsoy Blog
Tamamen Kişisel
Kandırılmayın: Derin sahtekarlıkları nasıl fark edersiniz?
Tüm deepfake’ler kötü değildir. Yapay zeka (AI) yazılımı kullanılarak oluşturulan veya değiştirilen fotoğraf, video ve ses gibi dijital eserler olan deepfake’ler genellikle gerçek gibi görünür ve ses çıkarır. Deepfake içerikler, izleyicileri kandırmak, sahte haberleri yaymak, dezenformasyon tohumları ekmek ve internet genelinde aldatmacaları sürdürmek için kullanılmıştır. Deepfake’lerin arkasındaki teknolojinin iyilik için de kullanılabileceği daha az anlaşılmıştır. Örneğin, kaybedilen sevilen birinin sesini yeniden üretmek ya da potansiyel teröristleri uzaklaştırmak için sahte haritalar ya da iletişimler yerleştirmek için kullanılabilir. Aynı zamanda, örneğin, bir kişinin tuhaf sakallarla ya da komik bir şapka takarak nasıl görüneceğini simüle ederek eğlendirebilir.
Northwestern Mühendislik’te Bilgisayar Bilimleri Profesörü ve Northwestern Buffett Küresel İlişkiler Enstitüsü’nde öğretim üyesi olan Walter P. Murphy Subrahmanian, “Deepfakes’in pek çok olumlu uygulaması var, ancak bunlar olumsuz uygulamalar kadar basına yansımadı” dedi. Yine de, asıl fark edilmesi gereken olumsuz ya da tehlikeli uygulamalardır.
- Deepfake Nedir?: Yapay zeka ile üretilen sahte video, ses ve fotoğraflardır. Gerçek gibi görünebilir, aldatıcı olabilir.
- Olumlu Kullanım: Kayıp birinin sesini yeniden yaratmak, tehditleri önlemek, eğlence amaçlı içerik üretmek.
- Tehlikeleri: Sahte haber yaymak, önyargıları güçlendirmek, sahte seslerle dolandırıcılık yapmak.
- Subrahmanian’ın Önerileri:
- GODDS: Deepfake tespiti için geliştirilen bir platform.
- Kimlik Doğrulama: Sadece sevdiklerinizin bileceği sorular sorun.
- Yapay Zeka Hataları: Fazladan uzuv veya ışık hatalarını fark edin.
- Bilgi Çeşitliliği: Filtre balonlarından kaçınmak için farklı kaynaklara bakın.
- Sosyal Medya: Platformlar sahte içeriklerle mücadele ediyor, ancak ifade özgürlüğü endişeleri var. PolitiFact gibi sitelerden doğrulama yapın.
Yapay zeka ve güvenlik konularının kesişimine odaklanan Subrahmanian, verileri analiz etmek, verilerden davranışsal modeller öğrenmek, eylemleri tahmin etmek ve sonuçları etkilemek için makine öğrenimi tabanlı modeller geliştirmektedir. 2024 yılının ortalarında, deepfake’leri tespit etmek için yeni bir platform olan ve şu anda sınırlı sayıda doğrulanmış gazetecinin kullanımına açık olan Global Online Deepfake Detection System’i (GODDS) başlattı.
GODDS’ye erişimi olmayanlar için Northwestern Now, Subrahmanian’dan deepfake’ler tarafından kandırılmaktan kaçınmanıza yardımcı olacak beş tavsiye topladı.
İnternet erişimi olan herkes sahte ürün yaratabilir. Bu da internet erişimi olan herkesin deepfake’lerin hedefi haline gelebileceği anlamına geliyor.
Northwestern Güvenlik ve Yapay Zeka Laboratuvarı’nın kurucu direktörü Subrahmanian, “Bir şeyin deepfake olup olmadığını tespit etmeye çalışmak yerine, temel sorgulama doğru sonuca ulaşmaya yardımcı olabilir” dedi.
İyi ya da kötü, deepfake teknolojisi ve yapay zeka hızla gelişmeye devam ediyor. Subrahmanian, nihayetinde yazılım programlarının deepfake’leri insanlardan daha iyi tespit edebileceğini öngörüyor.
Şimdilik, deepfake teknolojisinde insanların tespit edebileceği bazı eksiklikler var. Yapay zeka hala insan vücudunun temelleri ile mücadele ediyor, bazen fazladan bir rakam ekliyor veya parçaları doğal olmayan veya imkansız şekillerde büküyor. Işık fiziği de yapay zeka jeneratörlerinin tökezlemesine neden olabiliyor.
“Beklediğimizle tutarlı veya uyumlu görünen bir yansıma görmüyorsanız, dikkatli olmalısınız” dedi.
Fikirlerimize ve önyargılarımıza o kadar derinlemesine kök salmışızdır ki bunları gerçek olarak kabul etmeye başlarız. Aslında, insanlar genellikle kendi fikirlerini doğrulayan kaynaklar ararlar ve dolandırıcılar kendi hedeflerine ulaşmak için önceden sahip olunan inançları güçlendiren ve onaylayan derin sahtekarlıklar yaratırlar.
Subrahmanian, algılanan bir gerçek inançlarıyla örtüştüğü için insanların beyinlerinin mantıksal kısmını devre dışı bıraktıklarında, sahtekarlıklara kanma olasılıklarının daha yüksek olduğu konusunda uyarıyor.
“Filtre balonu denen bir şey görüyoruz, insanlar haberleri sadece zaten düşündükleri şeyleri yansıtan ve sahip oldukları önyargıları güçlendiren kanallardan okuyorlar” dedi. “Bazı insanların önyargılarını doğrulayan sosyal medya bilgilerini tüketme olasılığı daha yüksektir. İnsanlar daha çeşitli bilgi kaynakları bulmaya çalışmadıkça bu filtre balonu olgusunun daha da şiddetleneceğinden şüpheleniyorum.”
Dolandırıcılar tarafından, adayın sesini robocall’larda kışkırtıcı bir şey söylerken taklit ederek insanları belirli siyasi adaylara oy vermemeleri için kandırmaya çalışmak için kullanılan ses taklitlerinin örnekleri zaten ortaya çıktı. Ancak bu hile çok daha kişisel bir hal alabilir. Ses taklitleri insanları paralarını dolandırmak için de kullanılabilir. Sesi yakın bir arkadaş ya da akraba gibi çıkan biri arar ve bir sıkıntıdan kurtulmak için acilen paraya ihtiyacı olduğunu söylerse, bu bir deepfake olabilir. Subrahmanian, bu oyuna düşmemek için sevdiklerinizle kimlik doğrulama yöntemleri oluşturmanızı öneriyor. Bu, onlara ilk evcil hayvanlarının ya da ilk arabalarının adı gibi güvenlik soruları sormak anlamına gelmiyor. Bunun yerine, sadece o kişinin bilebileceği, yakın zamanda öğle yemeğine nereye gittikleri veya bir zamanlar futbol oynadıkları park gibi belirli sorular sorun. Hatta sadece akrabaların bildiği şifreli bir kelime bile olabilir. Subrahmanian, “Gerçek bir kişinin cevabı bilme olasılığının çok daha yüksek olduğu ve üretken yapay zeka kullanarak dolandırıcılık yapmak isteyen bir kişinin bilemeyeceği herhangi bir soru uydurabilirsiniz” dedi.
Sosyal medya insanların birbirleriyle iletişim kurma şeklini değiştirdi. Sadece birkaç tuşa basarak güncellemeleri paylaşabiliyor ve iletişim halinde kalabiliyorlar, ancak akışları sahte video ve görüntülerle de dolabiliyor.
Subrahmanian, bazı sosyal medya platformlarının deepfake’leri ortadan kaldırmak için olağanüstü çaba sarf ettiğini söyledi. Ne yazık ki, deepfake’leri bastırmak potansiyel olarak ifade özgürlüğünü bastırma eylemi olabilir. Subrahmanian, bir dijital eserin deepfake olup olmadığı konusunda daha fazla bilgi edinmek için PolitiFact gibi web sitelerinin kontrol edilmesini öneriyor.