Dipfeyk (ing. portmanteau of "deep learning" and "fake") — süni intellekt neyron şəbəkələrindən istifadə edərək yaradılan foto, audio və video materialların, səsin sintezi üçün texnologiya.[1][2]

Deepfake
Deepfake süni intellekt neyron şəbəkələrindən istifadə edərək yaradılan foto
Deepfake süni intellekt neyron şəbəkələrindən istifadə edərək yaradılan foto
Sayt deepfakesweb.com
Vikianbarın loqosu Vikianbarda əlaqəli mediafayllar

Audio dipfeyk

redaktə
 
Audio deepfake yaratmaq üçün təqlid əsaslı səs yaratma diaqramı

Mətndən nitq alqoritmdən və insanın real nitqinin audio yazılarının kompüterdə istifadə etməklə həmin şəxsin səsini "saxta" etmək mümkündür. Audio deepfake belə yaradılır. Bu texnologiyadan istifadə etməklə filmləri lokallaşdırarkən aktyorların səsini uyğunlaşdırmaq, nitq qabiliyyətini itirmiş insanlar üçün təbii nitq yaratmaq, valideynlərin səsində uşaqlar üçün audio kitablar oxumaq, nitqi müəyyən vurğuya uyğunlaşdırmaq, real video avatarlar, səsli köməkçilər yaratmaq mümkündür. Bu texnologiya ilə şəxsləri aldatmaq, gözdən salmaq və ya yanlış məlumat vermək üçün də istifadə edilə bilər.

Maliyyə fırıldaqçılığı

redaktə

Cinayətkarlar qurbanları öz tələlərinə salmaq üçün məşhurları təqlid etmək üçün yaradılmış şəkillərdən istifadə edərək sosial mühəndislik texnikalarından istifadə edirlər. Məsələn, İlon Maskın şübhəli kriptovalyuta investisiya sxemindən yüksək gəlirlər vəd edən dipfeyk videosu sürətlə yayılaraq istifadəçilərin pul itirməsinə səbəb oldu. Fırıldaqçılar bu kimi saxta videolar yaratmaq üçün məşhurların şəkillərindən istifadə edir, köhnə videoları birləşdirir və sosial media platformalarında canlı yayımlar açır və onlara göndərilən kriptovalyuta ödənişlərini ikiqat artıracağını vəd edir.

Biznes riskləri

redaktə
Rusiya prezidenti Vladimir Putinin dipfeyk videosu. Videoda o, amerikalıları seçkilərə müdaxilə və artan siyasi parçalanma barədə xəbərdar edir.

Çox vaxt dipfeyk ilə şirkət rəhbərlərini şantaj və sənaye casusluğu kimi cinayətlər üçün bizneslərini hədəfə almaqda istifadə olunur. Məsələn, kibercinayətkarlar səsli dipfeyk istifadə edərək BƏƏ-də bank menecerini aldadaraq 35 milyon dollar oğurlamağı bacarıblar. İnandırıcı dipfeyk yaratmaq üçün onun rəhbərinin səsinin kiçik bir qeydindən istifadə olunub. Dipfeyk ilə kriptovalyuta platforması Binance-ı aldatmağa cəhd edilib.

İstinadlar

redaktə
  1. "Deepfake (saxta foto, video və audio məlumatlar) nədir?". 2023-08-13 tarixində arxivləşdirilib. İstifadə tarixi: 2023-08-13.
  2. "Deepfake Nədir?". 2023-08-19 tarixində arxivləşdirilib. İstifadə tarixi: 2023-08-19.