‘Bizim geliştirdiğimiz yapay zekayı bile kandırdılar’

Yapay zeka teknolojisinin gelişimiyle birlikte deepfake görüntülerin artışı, gerçek ile düzmecenin ayrımını zorlaştırıyor.

‘Bizim geliştirdiğimiz yapay zekayı bile kandırdılar’
REKLAM ALANI
Yayınlama: 06.04.2025
0
A+
A-

Yapay zeka teknolojisinin süratle gelişmesiyle birlikte, bilhassa “deepfake” görüntülerin yaygınlaşması, gerçeği düzmeceden ayırt etmeyi zorlaştırıyor.

Bu teknoloji, başlangıçta ünlüleri taklit etmek yahut siyasetçileri kötülemek maksadıyla kullanılırken, artık günlük ömrün bir modülü haline geldi. ABD’deki Los Angeles yangınları sırasında üretilen görüntüler, toplumsal medyada geniş bir kitleye ulaşarak paylaşım rekorları kırarken, düzmece imajlarla sokak hareketlerinde kitleler manipüle edilebiliyor. Ayrıyeten, sanal influencer’ların gerçeğini aratmayan sokak röportajları, yüz binlerce izlenme oranına ulaşabiliyor.

TPAO ve Baykar firmaları üzerinden yapılan yatırım davetleri yahut ünlü ekonomistlerin manzaralarıyla oluşturulan görüntüler sayesinde toplumsal medyada her gün pay tavsiyelerine rastlamak mümkün.Deepfake dolandırıcılığı, bilhassa cürüm örgütleri tarafından kullanılarak organize bir yapıya bürünüyor.

Türkiye Gazetesinden Ömer Temür’ün haberine nazaran; Bunun son kurbanı ise Ankaralı bir yazılım şirketi oldu. Şirket, yapay zeka takviyeli uydurma bir müşteri tarafından dolandırıldı; Zoom üzerinden yapılan imajlı görüşmelerde şirket tescil dokümanları paylaşıldı, mukaveleler imzalandı ve proje teslim edildi. Lakin kodlar gittikten sonra 5 milyon liralık hizmet bedeli ödenmedi. Dolandırılan firmanın yöneticisi, “Bizim geliştirdiğimiz yapay zekayı bile kandırdılar” halinde konuştu.

Deepfake yalnızca dolandırıcılık maksatlı değil, birebir vakitte hatalıların karmaşık telefon dolandırıcılıkları için sesli deepfake’leri kullanmasıyla daha da tehlikeli hale geliyor. Geçtiğimiz sonbaharda bir şirket, kabahati keşfedilmeden evvel tam dört ay boyunca maaş alan bir Kuzey Koreli siber hatalı tarafından bu biçimde hacklendi. Ayrıyeten, deepfake ile aşk dolandırıcılığı da süratle artıyor; ABD’li ünlü oyuncu Brad Pitt üzere davranan bir dolandırıcı, bir Fransız bayanı 18 ay boyunca kandırarak 830.000 avro transfer ettirdi. Benzeri biçimde, Hong Kong’da dolandırıcılar kandırdığı erkeklerden 46 milyon dolar alarak kayıplara karıştı.

Yapay Zeka Hukuku

Araştırmalara nazaran, 2024 yılında şirketler her beş dakikada bir deepfake saldırısına maruz kalacak. 2023 yılında 562,8 milyon dolar olan global deepfake pazar büyüklüğünün 2032 yılına kadar 6 milyar doları aşması bekleniyor. Ülkeler ise deepfake tehdidine karşı yeni önlemler almaya başladı. AB ülkelerinde zeka yasası ile “deepfake” ismi verilen yapay yahut değiştirilmiş görsellerin, ses yahut görüntü içeriklerinin açıkça belirtilmesi mecburî hale gelirken, ABD’de 20 eyalet yapay zeka ile yapılmış aldatıcı paylaşımları kabahat kapsamına aldı. Türkiye’de de yapay zeka hukuku için çalışmalar sürüyor. Önümüzdeki aylarda yasalaşması beklenen düzenleme ile sahteciliğin önüne geçilmesi ve ferdî bilgiler ile mahremiyetin korunması hedefleniyor.

Deepfake Nasıl Tehdit Edebilir?

  • Yüz hareketleri: Doğal olmayan göz kırpma desenleri yahut doğal olmayan formda statik görünen gözler arayın. Olaylara reaksiyon olarak ince gecikmeler yahut uyumsuz tabirler de bir ipucu olabilir.
  • Aydınlatma ve gölgeler: Mevzunun yüzündeki aydınlatmanın etraftaki ortamla uyumlu olup olmadığını denetim edin. Tutarsızlıklar (değişen ışık yahut sistemsiz gölgeler ve yansımalar gibi) manipülasyon olduğunu gösterebilir.
  • Ses-görüntü senkronizasyonu: Ağız hareketlerinin sesle doğal olarak hizalandığından emin olun. Dudak senkronizasyonu kapalı görünüyorsa yahut seste hafif bozulmalar varsa, bu bir düzenleme işareti olabilir.
  • Görsel eserler: Yüzün saçla yahut art planla birleştiği kenarları inceleyin. Olağan dışı bulanıklık, çarpık kenarlar, pikselleşme yahut gölgelenme efektleri görüntünün değiştirildiğini gösterebilir.
  • Deepfake tespit araçlarını ve yazılımlarını kullanın: Deepfake’leri tespit etmek için tasarlanmış özel araçlardan ve AI takviyeli yazılımlardan yararlanın. Bu araçlar dijital içerikleri anormallikler açısından tahlil edebilir ve gerçekliğini doğrulamaya yardımcı olabilir.

Kaynak: Memurlar

REKLAM ALANI
Gündem'den Olan Tüm haberleri buradan Takip Edebilirsiniz.
Bir Yorum Yazın

Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.