Ana içeriğe atla

Yapay Zeka Sayenizde “Dijital Klonunuzu” Üretebilir

a

Yeditepe Üniversitesi İletişim Fakültesi'nde yapay zeka alanında çalışmalarını yürüten Öğr. Gör. Tolga Seçilmiş, derin sahte (deep-fake) teknolojilerinin ulaştığı boyutun, sadece bireysel mahremiyeti değil küresel güvenliği tehdit eder hâle geldiğini vurguladı. Seçilmiş, “Önümüzdeki beş yıl içinde bir kişinin görüntüsünü, sesini ve dil kalıplarını birebir taklit eden dijital kopyaların günlük hayata dâhil olacağını öngörüyoruz. Bu durum finansal dolandırıcılıktan siyasi manipülasyona kadar geniş bir alanda ciddi riskler barındırıyor” dedi.

Öğr. Gör. Tolga Seçilmiş çevrim içi ortamlardaki güvenlik açıklarının derinleştiğine dikkat çekerek “Artık bir görüntülü toplantıda karşınızdaki kişinin gerçek bir insan mı yoksa yapay zekâ ürünü mü olduğunu anlamak dahi zorlaşacak” uyarısında bulundu. 2019’da Almanya’da gerçekleşen ve yalnızca bir ses kaydıyla milyonlarca avronun dolandırıldığı vakayı hatırlatan Seçilmiş, “Benzer dolandırıcılık girişimlerinin yalnızca ses değil, görüntü ve beden dilini de kapsayacak şekilde çeşitlenmesi bekleniyor” ifadesini kullandı.

“Önlemler henüz yetersiz”
Seçilmiş, Avrupa Birliği’nin Yapay Zekâ Yasası (AI Act) ve Dijital Hizmetler Yasası (DSA) dâhil çeşitli düzenlemelerle sentetik içeriklerin etik ve şeffaf yayınlanmasını sağlamaya çalıştığını, ancak küresel ölçekte bağlayıcı standartların henüz oluşmadığını belirtti. Türkiye’de yürürlükteki Dezenformasyon Yasası'nın yapay zekâ tabanlı sahte içeriklere yönelik özel hükümler içermediğine işaret ederek “Devlet, özel sektör, akademi ve sivil toplumun katılacağı çok paydaşlı bir eylem planı zorunlu” değerlendirmesini yaptı.

Gelişen teknolojiyi geri döndürmenin mümkün olmadığını ancak dijital okuryazarlık, kimlik doğrulama çözümleri ve regülasyonların birlikte işletilmesiyle risklerin minimize edilebileceğini kaydeden Seçilmiş, “Zehir ile şifayı ayıran dozudur; yapay zekâ için de esas olan denetimli ve etik kullanım” sözleriyle çağrısını yineledi.