Categories: Teknoloji

Kaspersky uzmanları ses odaklı sahtekarlıkların nasıl tespit edileceğini paylaştı: “Duyduklarınıza inanmayın!"

Kaspersky uzmanları, deepfake yöntemiyle hazırlanmış sesleri ayırt etme konusundaki bilgilerini paylaştı. “Derin öğrenme” ve “sahte” kelimelerinin birleşiminden oluşan yapay zeka odaklı deepfake sahtecilik yöntemleri son birkaç yıldır hızlı bir şekilde yaygınlaşıyor. Bu teknikte makine öğrenimi teknikleri görüntü, video ve ses içeriğinin ilgi çekici sahte örneklerini oluşturmak için kullanılıyor. Bir sesin sahte mi yoksa gerçek bir insana mı ait olduğunu belirlemek için konuşmanın tınısına, tarzına ve tonlamasına dikkat etmek gerekiyor. Örneğin deepfake yöntemi ile oluşturulmuş sahte bir ses, doğal olmayan bir monotonluğa sahip olacaktır. Dikkat edilmesi gereken bir diğer özellik de sesin kalitesidir. Bu nedenle bir sesli mesajı veya aramayı dinlerken, anlamsız kelimelere ve garip seslere şüpheyle yaklaşılmalıdır.

Deepfake teknolojisi kendi başına zararsız olsa da, dolandırıcıların elinde aldatma, karalama ve dezenformasyon için fırsatlar sunan tehlikeli bir araç haline gelebiliyor. Neyse ki bugüne dek ses sahteleri içeren herhangi bir kitlesel dolandırıcılık vakası yaşanmadı. Ancak ses odaklı deepfake örneklerini içeren birkaç yüksek profilli dolandırıcılık vakası yaşandı. Dolandırıcılar 2019’da bu teknolojiyi İngiltere merkezli bir enerji firmasını dolandırmak için kullandı. Yapılan bir telefon görüşmesinde dolandırıcı, firmanın Alman ana şirketinin genel müdürü gibi davranarak belirli bir tedarikçi şirketin hesabına acilen 220 bin Euro transfer edilmesini talep etti. Bir yıl sonra, 2020’de, dolandırıcılar bir Japon şirketinden 35 milyon dolara varan parayı çalmak için deepfake kullandı.

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, şunları söyledi: “Şu anda yüksek kaliteli deepfake teknolojisi yaygın kullanıma açık değil. Ancak gelecekte bu teknoloji serbestçe kullanılabilir hale gelebilir ve bu da söz konusu dolandırıcılık örneklerinin sayısının artmasına yol açabilir. Büyük olasılıkla saldırganlar gerçek zamanlı sesler üretmeye çalışacaklardır. Böylece örneğin birinin akrabasının kimliğine bürünebilir ve para koparabilir. Böyle bir senaryo şimdilik gerçekçi değil. Yüksek kaliteli deepfake örnekleri oluşturmak çok fazla kaynak gerektiriyor. Ancak düşük kaliteli bir ses sahtesi yapmak daha az kaynak gerektirir ve dolandırıcılar bu yola başvurabilir. Yukarıda bahsettiğimiz ipuçları, böyle bir sahtekarlığı tespit etmenize yardımcı olabilir.”

Kaspersky uzmanları kendinizi deepfake’lerden korunmak için şunları öneriyor:

  • Şüpheli aramalara dikkat edin. Düşük ses kalitesi, doğal olmayan ve monoton ses, anlaşılmaz konuşma şekli ve yabancı gürültüyü bir uyarı olarak alın.
  • Duygularınıza göre karar vermeyin. Bilgilerinizi kimseyle paylaşmayın ve karşınızdaki ses ikna edici olsa bile para transferi yapmayın. Böyle bir durumda aramayı sonlandırmak ve alınan bilgileri birkaç ayrı kaynak üzerinden iki kez kontrol etmek daha iyidir.
  • Cihazlarınızda Kaspersky Premium gibi güvenilir güvenlik çözümleri kullanın. Bu cihazlarınızın kullanımını daha da güvenli hale getirecektir.

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Recent Posts

Reklamların Çocuk Beslenmesine Etkisi

Sevgili okurlar,   Çocukluk dönemi, yalnızca büyümenin değil; alışkanlıkların, tat tercihlerinin ve beslenme davranışının temellerinin…

2 gün ago

GenZ Talks: “Change the Game” – Geleceği Tasarlayanlar Sahne Alıyor!

Oyunun kuralları yeniden yazılıyor ve bu dönüşümün kalbi 24 Şubat’ta İstanbul Üniversitesi Cemil Bilsel Konferans…

4 gün ago

Dijital Markalaşma 1.0 Eğitimi İstanbul Üniversitesi’nde Gerçekleşti!

İstanbul Üniversitesi Siyasal Bilgiler Fakültesi İşletme Kulübü organizasyonuyla hazırlanan ve Branding Türkiye Kurucusu Mürsel Ferhat…

5 gün ago

IT Forum CxO 2026 İçin Geri Sayım!

Türkiye’nin en etkili teknoloji zirvelerinden biri olan IT Forum CxO, 8. yılında kapılarını açmaya hazırlanıyor!…

6 gün ago

Kayaköy Kiralık Villa Seçenekleri ile Sessiz ve Özel Bir Tatil

Tatil planı yaparken kalabalıktan uzak, doğayla iç içe ve sakin bir ortam arayanlar için Muğla…

1 hafta ago

Tek Modele Güvenmek Riskli: Perplexity’nin “Model Council” Yaklaşımı ve Çoklu AI Stratejisi

Perplexity, aynı soruyu Claude, GPT-5.2 ve Gemini'ye eş zamanlı sorarak birleşik yanıt üreten Model Council'ı…

1 hafta ago