free hit counter
Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor! | Webmaster Forum - WMTR.Net
  • [ WMTR.Net ] Sizler için hazırlayıp geliştirdiğimiz forum hizmetlerinden sadece bazılarına, Buraya tıklayarak göz atabilirsiniz.
  • [ WMTR.Net ] Özel mesaj ile destek talep etmeyiniz! Bu tip isteklerin hepsi yanıtsız kalacaktır. Destek talebi için ilgili foruma konu açmanız yeterlidir.
  • [ WMTR.Net ] Kategori talepleriniz için şuradaki bağlantıyı kullanıp talep açabilirsiniz.

Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!

Pi

Yönetici
Moderatör
Katılım
25 Ocak 2022
Mesajlar
18,541
Çözümler
1
Aldığı Beğeni
70

Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!​

Yapay zekâ diğer birçok teknolojik devrimlerde olduğu gibi faydalarıyla birlikte zararlarını da hayatımıza sokacak. Görünüşe göre şimdilik buna hazırlıklı değil. Son gelen bilgiler yapay zekâ ile üretilen gerçekçi ses taklitlerinin dolandırıcılıkta kullanılmaya başlandığını bildiriyor.
Washington Post’un aktardığına göre birkaç çift, kendilerini çeşitli nedenlerle yardım dolayısıyla arayan çocuklarına para gönderdi, her duyarlı ailenin yapacağı gibi. Ancak farkında olmadıkları bir sorun vardı; Konuştukları kişi çocukları değil, bir yapay zekaydı.

Yapay zeka tarafından oluşturulmuş ses ile dolandırıcılıkElbette ses tabanlı dolandırıcılık yeni bir şey değil. ABD Federal Ticaret Komisyonu verileri, geçen yıl insanların arkadaş veya aile gibi davranan suçlular tarafından dolandırıldığına dair 36.000 raporun 5.100'den fazlasının telefonda gerçekleştiğini ortaya koyuyor. Bir kişinin sesini taklit etmek önceden saatlerce süren ses keşifleri ile mümkün oluyordu. Ortaya çıkan ürünlerin kusurları ise dikkatli kişiler tarafından fark edilebiliyordu. Ancak şimdi yapay zeka ile oluşturulmuş ses taklitleri için sadece birkaç dakika yeterli. Aktarılanlara göre bir çift, çocuklarının sesini taklit eden dolandırıcılara 15.449 dolar gönderdi ve tek kurban kendileri değil.​

Örneğin Microsoft'un Vall-E aracı sadece 3 saniyelik ses klipleri ile oldukça gerçekçi ve tutarlı ses taklitlerini mümkün kılıyor. Üstelik bu küçük ses klipinden farklı tonları (sinirli, heyecanlı vb.) bile üretebiliyor. Benzer bir araç olan ElevenLabs ise çok daha gerçekçi sesler üretebiliyor. Hemen üstteki Twitter videosundan aracın başarısını görebilirsiniz.

Gelinen noktada bu tip dolandırıcılar veya kötü kullanım için kapsamlı önlemlerin alınması şart gibi duruyor. Sadece dolandırıcılık olarak da görmemek gerek. Bu tip üretilmiş seslerle birleştirilmiş deepfake videolar özellikle karmaşanın olduğu anlarda ciddi sonuçlara neden olabilir. Bankaların ses tabanlı güvenlik özellikleri aşılabilir. Dolayısıyla sosyal medya platformları kendilerine yüklenen videolarda veya görsellerde yapay zekayı tespit eden araçlara yer verebilir. Halihazırda ChatGPT gibi metin üreten yapay zekâları tespit eden DetectGPT gibi modeller geliştiriliyor.
 

Bu konuyu görüntüleyenler

Personalize

Geri
Üst