SON DAKİKA
Hava Durumu

Yapay Zeka ile Deepfake tehdidi büyüyor

Yapay Zeka ile geliştirilen Deepfake tehlikesine karşı Dijital Okuryazarlık eğitimi şart

Haber Giriş Tarihi: 06.01.2025 11:02
Haber Güncellenme Tarihi: 06.01.2025 11:07
Kaynak: Ekometre
Yapay Zeka ile Deepfake tehdidi büyüyor

Eğitim, sağlık, teknoloji veya savunma sanayisi gibi birçok sektörün büyümesine önemli derecede katkı sağlayan, hızlılık ve pratiklik sağlayan yapay zeka, kullanımı yaygınlaştıkça bazı olumsuzlukları da beraberinde getiriyor. Özellikle 40-75 yaş aralığında bulunan kesimi dolandırmak amacıyla deepfake içeriklerinin yaygın olarak kullanıldığını söyleyen Dijital Pazarlama Okulu Kurucusu Yasin Kaplan, sahte ile gerçeği ayırmanın yollarını anlattı. Kaplan, “Dijital pazarlama araçlarının da kullanılarak sponsorluklu içerikler veya kişiselleştirilmiş mesajlar ile dolandırıcılık yöntemleri daha da geniş kitleye yayılıyor. Teknoloji kullanımında etik ve güvenlik bilincini artırmak toplumsal bir sorumluluktur. Dijital okur yazarlık eğitimlerinin zorunlu hale getirilerek bu konudaki farkındalığın artırılması hayati önem taşımaktadır” açıklamasında bulundu.
Son yıllarda hızla gelişen yapay zeka teknolojisi, birçok sektörde önemli yenilikler ve verimlilik sağlıyor. Eğitim, sağlık ve finans gibi alanlarda işleri kolaylaştıran bu teknoloji, aynı zamanda dijital dünyada önemli değişimlere öncülük ediyor. Ancak her yeni teknolojide olduğu gibi yapay zeka da bazı olumsuzlukları beraberinde getirerek birçok kişinin mağdur olmasına neden oluyor.
Özellikle insan davranışlarını analiz edebilen ve bu veriler üzerinden tahmin yürütebilen algoritmalar ile kişiselleştirilmiş dolandırıcılık yöntemleri kullanıldığını belirten Dijital Pazarlama Okulu Kurucusu Yasin Kaplan, ses, görüntü ve animasyon teknolojileri ile oluşturan deepfake içeriklerin sosyal medya ve dijital platformlarda ciddi bir tehdit oluşturduğunu söyledi. 
Sahteyi Gerçekten Ayırmanın Yolları
Kaplan, deepfake içerikleri anlamanın püf noktalarını anlattı: “Sahte bir videoyu tespit edebilmek için bazı kritik detaylara dikkat edilmelidir. Örneğin, göz kırpma sıklığındaki anormallikler, doğal olmayan göz hareketleri, beden dili ve konuşma arasında görülen uyumsuzluklar, ağız çevresindeki bulanıklıklar, ses tonundaki mekaniklik ya da dalgalanmalar gibi işaretler sahte bir videoyu ele verebilir. Ayrıca, ışık ve gölge detaylarındaki uyumsuzluklar da dikkat edilmesi gereken önemli göstergelerdir. Bu tür farkındalıklarla sahte içeriklerin etkisini azaltabiliriz. Bu tür dolandırıcılıklar yıllardır karşılaştığımız eski yöntemlerdir, ancak yapay zeka sayesinde daha kolay, ucuz ve ikna edici hale geliyorlar. Yapay zekadaki hatalar çok detaylı incelendiğinde farkedilir. Aşırı kusursuz ve pürüzsüz görseller ve içerikler gördüğümüzde de yapay zeka olduğunu anlamamız gerekir. Aynı zamanda bu tarz içerikler gördüğümüzde hayatın doğal akışını unutmamak gerek. İçerik ile karşılaştığımızda doğrudan kişiyi aramalıyız. Sosyal medya platformlarında karşınıza çıkan içeriklerde dikkat edilmesi gereken bir diğer nokta ise yönlendirme yapılan bağlantılardır. Reklam veya içerik olarak görünen videolar, genellikle finansal veya kişisel bilgilerinizi ele geçirmeyi amaçlar. Bu nedenle yönlendirme yapılan sayfanın alan adı kontrol edilmelidir. Alan adının resmi bir siteye ait olup olmadığına dikkat edilmelidir. Finansal veya kişisel bilgilerin istendiği durumlarda, bu bilgilerin paylaşılmaması konusunda özen gösterilmelidir.” 
Yapay zeka ile dolandırıcılık yöntemlerinin de bir üst seviyeye taşındığını anlatan Kaplan, “Dijital okur yazarlık eğitimi ile bu konudaki farkındalığın artırılması gerekiyor. Yapay zeka araçlarını tanımadan ve nasıl çalıştığını anlamadan, bireylerin bu tür dolandırıcılıklara karşı savunmasız kalmaları kaçınılmaz. Genç neslin yanı sıra özellikle 40-75 yaş arası hedef grubun zorunlu olarak eğitim alması gerekiyor” diyerek sözlerini tamamladı.

Kaynak: Ekometre

Yorum Ekle
Gönderilen yorumların küfür, hakaret ve suç unsuru içermemesi gerektiğini okurlarımıza önemle hatırlatırız!
Yorumlar
logo
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.