Türkiyənin qəzaya uğrayan təyyarəsində həlak olan ...
14:25 12.11.2025
0
0
0
NAXÇIVAN :
12 Noyabr 2025, Çərşənbə
Necə fərqləndirək?
Gündən-günə inkişaf edən dünyamıza yeni səs gətirən texnologiya – süni intellekt artıq sosial həyatımızın ayrılmaz parçasına çevrilib. Bu texnologiya yeni yaradılmasına baxmayaraq, insanlar arasında böyük marağa səbəb olub. Bir tərəfdən texnologiyanın belə inkişafı sevindirici hal kimi dəyərləndirilsə də, təəssüf ki, bunu bizim əleyhimizə istifadə edənlər də az deyil. Süni intellektlə, onun inkişafı ilə bağlı yaranaraq həyatımıza daxil olan terminlərdən biri “deepfake”lərdir. “Deepfake” nədir? Bunu informasiya texnologiyaları üzrə mütəxəssis İsmayıl Şirzadovdan öyrənirik. Mütəxəssis deyir ki, “deepfake” “deeplearning” sözündən götürülüb sonradan “fake” sözü ilə birləşdirilib. “Deepfake”dən videolar, fotolar, yaxud müəyyən süni səslərin yaradılması, hətta var olan səsin dəyişdirilməsi və sair üçün istifadə edilir. Yəni bu texnologiya müəyyən bir süni insan obrazı yaratmağa xidmət edir. İlk dəfə 2017-ci ildən etibarən “Reddit” platformasında bir şəxsin insanları “deepfake” formasında düzəldib paylaşması ilə məşhurlaşıb.
“Deepfake”in günümüzdə həm müsbət, həm də mənfi nələrsə üçün istifadə olunduğunu söyləyən müsahibim bildirir ki, “deepfake” müəyyən istiqamətlərdə və ya sahələrdə çox istifadə olunur. Hansı ki bunlardan biri elə media sahəsidir. Artıq bir çox xarici mənbələrə baxsaq, görərik ki, “deepfake” ilə düzəldilmiş müəyyən obrazlar vardır ki, onlar xəbər aparıcılığı edir, yaxud hər hansı bir mövzu haqqında çıxış edir. Hətta kino və reklam sahələrində də “deepfake”dən istifadə olunur.
Müsahibim qeyd edir ki, “deepfake”lərin təhlükələrinin olduğu da danılmaz faktdır. Belə ki, hər hansı bir insanın oxşarını “deepfake” ilə hazırlayıb müəyyən bir sözü o deyibmiş kimi yayımlamaq olar. Hətta səsi və üz mimikalarını belə oxşatmaq olur. Bu isə həmin şəxs üçün müəyyən problemlər yarada bilər. “Deepfake” ilə yalan məlumatlar yaymaq, müəyyən şəxsin nüfuzunu ləkələmək, fırıldaqçılıq, manipulyasiya yaxud dezinformasiya yaymaq, kiminsə şəxsi həyatına müdaxilə etmək mümkündür.
Günümüzdə real videolarla “deepfake”ləri ayırmağın çox çətin olduğunu vurğulayan həmsöhbətim deyir ki, bəzi detallara diqqət yetirməklə bunları fərqləndirmək mümkündür. Misal üçün, gözlərin hərəkəti, yaxud müəyyən mimikalara uyğun baxış istiqaməti ilə bunu ayırd etmək olar. Həmçinin dodaq hərəkətləri ilə səsləndirmənin uyğunluğuna, müəyyən işıq və kölgə yansımalarına fikir verməliyik. Müəyyən süni intellekt alqoritmləri vasitəsilə də həmin videonun “deepfake”, yaxud real olduğunu müəyyən qədər ayırd edə bilərik. Lakin bu da hazırda inkişaf etdirildiyindən tam yetərli deyil.
Sonda İsmayıl Şirzadov bildirir ki, bunlara qarşı qorunma vacibdir və hər deyilənə inanmaq düzgün deyil. Bunlarla mübarizə aparmaq üçün qadağan etmək, əngəlləmək, limitləmək yerinə, biz daha çox texnologiyanı öz xeyrimizə çevirməliyik.
Həmçinin qorunmaq üçün sosial şəbəkələrdəki aktivliyimizə fikir verməli, şəxsi məlumatlarımızı süni intellektlə paylaşmamalıyıq. Daha çox rəsmi mənbələrə istinad etməliyik.
Yaxın günlərdə Prezident cənab İlham Əliyevin Azərbaycanın media nümayəndələrinə ünvanlandığı müraciətdə də qeyd etdiyi kimi, “deepfake”lərin geniş vüsət aldığı müasir dövrdə biz söz və məlumat azadlığından sui-istifadənin qarşısını almalı, nüfuzumuza xələl gətirə biləcək belə videolarla mübarizədə əlimizdən gələni etməliyik.
Türkanə ƏSƏDOVA
Digər xəbərlər