Anadolu Üniversitesi Toplumsal Medya ve Dijital Güvenlik Eğitim, Uygulama ve Araştırma Merkezi (SODİGEM) Uzmanı Dr. Öğr. Üyesi Serap Uğur, fotoğraflardan gerçekçi insan görüntüleri üretme yeteneğine sahip, yapay zeka takviyeli “OmniHuman-1” isimli uygulamaya ait, “Bu model tek kare fotoğrafla çok gerçekçi görüntü üretebildiği için toplumsal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak geçersiz görüntüler üretilebilir ki bu da bireylerin mahremiyetinin ihlali demekti.” tabirlerini kullandı.

Dr. Öğr. Üyesi Uğur, yaptığı yazılı açıklamada, “OmniHuman-1″le üretilen görüntülerin etik yansımalarını ve kesimlere tesirini kıymetlendirdi.

yapay zeka uygulamasiyla uretilen videolara uyari 0 ztJQrEly

“OmniHuman-1″in insan animasyonu alanında değerli yenilikler sunduğuna değinen Uğur, bu uygulamanın hareket datalarını eğitim sürecine dahil ederek, yüz ve beden hareketlerini daha doğal ve gerçekçi bir formda canlandırdığını vurguladı.

Uygulamanın getirdiği yeniliklerin yanı sıra riskler de taşıdığına değinen Uğur, şunları kaydetti:

“OmniHuman-1’in yüz ve beden hareketlerini daha doğal gösterebiliyor ve bir kare fotoğraftan tam beden görünümüne kadar farklı açılardan insan görüntüleri ve animasyonları oluşturabiliyor. Üstelik bu model, sadece konuşma hareketlerini değil müzik söyleme ve insan-nesne etkileşimleri üzere ayrıntıları da işleyebiliyor. Bu da çeşitli senaryolarda daha gerçekçi ve yüksek kaliteli sonuçlar sunmasını sağlıyor. OmniHuman-1’in gerçekçi insan görüntüleri üretme yeteneği, makus niyetli şahıslar tarafından aldatıcı yahut geçersiz içerik oluşturmak için kullanılabilir. Tek bir manzara ve ses kaydı ile gerçekçi görüntüler oluşturma kapasitesi, bireylerin müsaadesi olmadan onların dijital temsillerinin yaratılmasına hasebiyle zımnilik ihlallerine yol açmasına neden olabilir. Ayrıyeten bu cins teknolojilerin kullanımı, bilhassa geçersiz görüntülerin oluşturulması ve yayılması konusunda etik tartışmalara yol açabilir.”

“Deep Fake tespit programlarının geliştirilmesi gerekiyor”

Uğur, OmniHuman-1’in insan animasyonu teknolojisinde değerli ilerlemeler sağlasa da bu çeşit yapay zeka modellerinin kullanımında etik ve güvenlik mevzularına dikkat edilmesinin büyük kıymet taşıdığını vurguladı.

yapay zeka uygulamasiyla uretilen videolara uyari 1 cV2VPuN1

“Uygulama aracılığıyla da şahısların yüzleri ve sesleri, yapay zeka ile müsaadesiz bir biçimde çoğaltılabiliyor ve berbat niyetli hedeflerle kullanılma riski taşıyor.” sözlerini kullanan Uğur, şöyle devam etti:

“OmniHuman-1′ isimli yapay zeka takviyeli uygulamayla tek kare fotoğrafla çok gerçekçi görüntü üretebildiği için toplumsal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak geçersiz görüntüler üretilebilir ki bu da bireylerin mahremiyetini ihlali demektir. Ayrıyeten bireylerin kimliklerinin taklit edilmesi yoluyla dolandırıcılığa ve geçersiz haberlerin yayılmasına da yol açabilir. Bundan korunmak için ise bireylerin bilgilerinin korunmasına yönelik Avrupa’daki Genel Data Müdafaa Tüzüğü (GDPR) üzere kapsamlı data müdafaa kanunları üzere yasal düzenlemeler, dijital kimlik doğrulama sistemlerinin geliştirilmesi üzere tedbirler gerekiyor. Bununla birlikte etik ihlallerin önüne geçilmesi ve toplumun bilinçlendirilmesi için eğitimler düzenlenmesi, hükümetler ve platformların yapay zeka tarafından üretilmiş içeriklere bir ‘etiketleme’ mecburiliği getirmesi, Deep Fake tespit programlarının geliştirilmesi de uygulanabilecek tedbirler ortasında yer alıyor.”

“Dezenformasyon riski artış gösterebilir”

yapay zeka uygulamasiyla uretilen videolara uyari 2 CCPQ3AV4

OmniHuman-1 üzere yapay zeka tabanlı insan animasyonu sistemlerinin getirdiği yenilikler ve risklerden etkilenebilecek bölümler ortasında medya ve haber dalının yer aldığına değinen Uğur, şunları bildirdi:

“Model, yapay zeka haber sunucuları ile 7/24 kesintisiz üstelik birebir anda farklı lisanlarda haber sunumundan, arşiv görsellerinin hareketlendirilerek canlandırılmasına kadar geniş bir uygulama alanına sahip. Bununla birlikte World Economic Forum tarafından yayınlanan 2024 Global Riskler Raporu’nda da iki yıllık süreç için birinci sırada yer alan dezenformasyon riski bu modelle artış gösterebilir. Vefat eden oyuncuların yine sinemalarda yer alabilmesini sağlayabilecek, iş süreçlerinde birçok farklı evrede tasarruf sağlayacak üzere görünen model, birebir vakitte gerçek aktörler yerine modelle oluşturulan karakterlerin, dublörlerin hatta seslendirmenlerin kullanımını da sağlayabilir. Fakat bu durum dalda farklı iş kulvarlarında insan kaynağının mesleksel kaybına da yol açabilir.”

Uğur, modelin eğitim alanında tarihten fiziğe geniş bir yelpazede öğrenenin öğrenme gereksinimlerine nazaran oluşturulacak sanal öğretmenlerin kullanımının da misal kolaylıkları olduğu üzere riskleri de beraberinde getireceğinin altını çizdi.