امروز ما در مورد دیپ فیک صحبت خواهیم کرد، که در حال حاضر گسترده شده است و یک پدیده کاملا رایج است. به لطف این فناوری، دستکاری اطلاعات به سطح جدیدی رسیده است.
آیا ملکه الیزابت را در حال رقصیدن روی میز در هنگام پخش پیام سال نو دیدید؟ یا به سخنرانی کیم جونگ اون در مورد دموکراسی گوش دادید، یا سالوادور دالی را که در مورد مرگش صحبت کرد (چرا به آن اعتقاد ندارد) تحسین کرد؟
همه این ویدیوهای شگفت انگیز یک چیز مشترک دارند - جعلی هستند. دیپ فیک تکنیکی برای ایجاد و انتشار اطلاعات نادرست در قالب فیلم، صدا و عکس است. پیدا کردن چنین مطالبی آسانتر می شود، بنابراین ما برای شما دستورالعملی در مورد ایجاد، تشخیص و جستجوی ویدیوهای دیپ فیک در اینترنت آماده کرده ایم.
همچنین بخوانید: بلاک چین های فردا: آینده صنعت ارزهای دیجیتال به زبان ساده
Deepfake (Deepfake) در واقع یک عکس، ویدئو یا مطالب صوتی است که واقعی، جعلی، یعنی جعلی نیست. Deepfake (ترکیبی از دو کلمه - یادگیری عمیق "آموزش عمیق" و جعلی "جعلی") از هوش مصنوعی (AI) برای یادگیری عمیق استفاده می کند تا شباهت یک فرد با فرد دیگر را در فیلم ها و سایر مواد رسانه های دیجیتال ایجاد کند. این توسط الگوریتمهایی بر اساس صدا، صدا، ویدئو یا نمونههای عکس واقعی که به هم دوخته شدهاند ایجاد میشود. این الگوریتم اطلاعات انتخاب شده را از مکان های مختلف می گیرد و سپس آن ها را در یک ماده ترکیب می کند. در نتیجه چیزی جدید (نادرست) ایجاد می شود که بر اساس ترکیبی از داده های واقعی مختلف است.
اما این همه ماجرا نیست. Deepfake همچنین می تواند یک عکس را از ابتدا "نقاشی" کند، برای مثال با ایجاد چهره شخصیت هایی که هرگز وجود نداشته اند.
هدف از چنین اقداماتی چیست؟ از جمله، Deepfake برای انتشار اطلاعات نادرست در اینترنت (مثلاً در مورد شخصیتها یا رویدادهای سیاسی)، سرقت (مثلاً جعل دستورات صوتی) و ایجاد پورنوگرافی (فیلمهایی با افراد مشهور - پورن عمیق جعلی) استفاده میشود. همچنین می توان از آن برای اهداف آموزشی و سرگرمی استفاده کرد.
همچنین بخوانید: درباره کامپیوترهای کوانتومی به زبان ساده
به طور کلی، دو راه برای ایجاد مطالب دیپ فیک وجود دارد. روش اول از دو الگوریتم استفاده می کند. اول، اولی (رمزگذار) به دنبال ویژگی های مشترک دو تصویر (آنهایی که باید در یک تصویر ترکیب شوند) می گردد، سپس دومی (رمزگشا) می تواند آنها را به تصویر تازه ایجاد شده منتقل کند. به عنوان مثال، اگر بخواهیم ویدیویی بسازیم که در آن بازیگری مانند ما حرکت کند، رمزگذار حرکت را از ویدیویی که در آن در حال رقصیدن هستیم می گیرد و رمزگشا از قبل چهره ما را با چهره بازیگر جایگزین می کند و او را وادار می کند که حرکات ما را بازتولید کند. . نکته کلیدی در اینجا اقدامات انتخاب شده است که در تصویر جدید کپی می شود (به عنوان مثال، حرکات، حرکات، حالات چهره).
راه دوم از طریق شبکه های متخاصم مولد (GANs) است که در آن دو الگوریتم با هم کار می کنند. اولین مولد نامیده می شود زیرا با استفاده از اطلاعات کلی، تصاویری (مثلاً تصویر یک شخص) ایجاد می کند که ویژگی های متمایز آن را ترکیب می کند (شخص دارای بدن، صورت، چشم است). الگوریتم دوم یک تمایز است که ارزیابی می کند که آیا تصاویری که توسط مولد به آن داده می شود یا خیر.
با گذشت زمان، هر دو الگوریتم پیشرفته تر می شوند، بنابراین یاد می گیرند و خود را بهبود می بخشند. اگر مولد به گونه ای آموزش داده شود که متمایز کننده یک عکس جعلی را تشخیص ندهد (آن را واقعی تلقی کند)، فرآیند کامل می شود.
حجم زیادی از نرم افزارهای تقلبی را می توان در GitHub، یک جامعه منبع باز برای اسکریپت ها، برنامه ها و کدها یافت. برخی از این برنامه ها صرفاً برای مقاصد سرگرمی استفاده می شوند، بنابراین ایجاد دیپ فیک ممنوع نیست، با این حال، بسیاری از آنها می توانند برای اهداف مجرمانه نیز استفاده شوند.
بسیاری از کارشناسان بر این باورند که در آینده با توسعه فناوریها، دیپ فیکها بسیار پیچیدهتر میشوند و ممکن است تهدیدات جدیتری را برای جامعه ایجاد کنند که مرتبط با دخالت در انتخابات، ایجاد تنشهای سیاسی و فعالیتهای مجرمانه است.
همچنین بخوانید:
برای اولین بار، چنین اطلاعات جعلی در سال 2017 ظاهر شد. سپس کاربر یک نام مستعار است deepfake چندین فیلم مستهجن را در Reddit منتشر کرد که در آن افراد مشهور نقش داشتند، از جمله اسکارلت جوهانسون، گال گدوت و تیلور سویفت. از آن زمان، این صنعت به سرعت در حال توسعه است، زیرا تقریباً هر کسی می تواند فیلم های دیپ فیک فیلمبرداری کند.
در سالهای اخیر، فناوری دیپ فیک به حدی توسعه یافته است که اکنون تشخیص اینکه آیا این یک ویدیو ساختگی است یا یک ضبط واقعی از افراد واقعی، به طور فزایندهای دشوار است. به عنوان مثال می توان ویدیویی با پیام الیزابت دوم یا سخنرانی باراک اوباما باشد که به سرعت در سایت های مختلف منتشر شد. ویدئویی با بیانیه رئیس جمهور سابق آمریکا به تهدیدات جهانی می پردازد که می تواند ناشی از اطلاعات نادرست و اخبار جعلی منتشر شده در اینترنت باشد. در مطالب منتشر شده توسط کانال BuzzFeedVideos، جردن پیل کارگردان و بازیگر آمریکایی صدای چهل و چهارمین رئیس جمهور آمریکا شد. با این حال، در حال حاضر هوش مصنوعی در حال حاضر قادر به تولید صدایی بر اساس ضبطهای آرشیوی شخصی است که قرار است در یک فیلم جعلی ظاهر شود.
چنین فناوری های پیشرفته ای می توانند در آینده به ابزار خطرناکی در دست مجرمان سایبری و کلاهبرداران اینترنتی تبدیل شوند. انتشار فیلم های جعلی از سخنرانی های سیاستمداران مهم می تواند آسیب واقعی در سطح بین المللی ایجاد کند. چنین فیلم هایی که مبتنی بر فناوری دیپ فیک هستند، می توانند باعث درگیری ها و رسوایی های دیپلماتیک شوند و در نتیجه بر افکار عمومی و رفتار مردم تأثیر بگذارند.
تهدید بالقوه دیگر محتوای بزرگسالان است که همیشه بیشترین ترافیک را در فضای مجازی ایجاد کرده است. جای تعجب نیست که فناوری دیپ فیک به سرعت به اینترنت راه پیدا کند. بر اساس گزارشی که توسط شرکت امنیت سایبری هلندی Deeptrace منتشر شده است، 96 درصد از ویدیوهای ساختگی که با استفاده از فناوری دیپفیک ایجاد میشوند، در این موضوعات محتوایی دارند. اغلب برای تولید چنین موادی از تصاویر ستاره های سینما، ورزشکاران و حتی سیاستمداران و نمایندگان دولت استفاده می شود.
همچنین بخوانید: چرا یک ماموریت فضایی نمی تواند در هر لحظه پرواز کند: پنجره پرتاب چیست؟
اگر کسی می تواند ویدیوهای دیپ فیک بسازد، آیا می توان آنها را در خانه هم ساخت؟ قطعا بله، اما کیفیت آنها، البته، بی نقص نخواهد بود. ایجاد چنین ویدئوهایی به منابع محاسباتی بزرگ و کارت های ویدئویی قدرتمند نیاز دارد. آنهایی که معمولاً در رایانه های خانگی داریم کافی نیستند و فرآیند توسعه خود می تواند هفته ها طول بکشد. کیفیت فیلم ها نیز بسیار مورد نظر باقی می ماند - خطاهای قابل مشاهده وجود خواهد داشت، حرکات دهان ممکن است با صدا مطابقت نداشته باشد، مکان های قابل مشاهده ای وجود دارد که محتوای "قدیمی" با "جدید" همپوشانی دارد.
با این حال، اگر بخواهیم کمی عکس را "لمس" کنیم یا یک ویدیوی عمیق جعلی کوتاه بسازیم، برنامه برای این کار را می توان مستقیماً در تلفن هوشمند بارگیری کرد. برنامه بسیار آسان برای استفاده در چند دقیقه نقص های ظاهری را از بین می برد، شما را به شخصیت مشهور منتخب تبدیل می کند یا به سگ شما اجازه می دهد با صدای انسان صحبت کند.
همچنین بخوانید:
تشخیص ویدیوهای دیپ فیک حرفه ای سخت تر و سخت تر می شود. در ابتدا الگوریتمها با رفتارهای اولیه (مانند پلک زدن) مشکل داشتند و بلافاصله مشخص شد که فیلم جعلی است. اکنون این خطا برطرف شده است. شخصیت های جعلی پلک می زنند، به طور طبیعی حرکت می کنند و روان صحبت می کنند. با این حال، گاهی اوقات آنها هنوز با حرکت طبیعی چشم مشکل دارند.
بنابراین، چگونه می توان یک دیپ فیک را تشخیص داد؟ مواردی که هنگام تماشای ویدیو باید به آن توجه کنید:
هنگام مشاهده مطالب از نقطه نظر دیپ فیک، ارزش تکیه بر احساسات خود را نیز دارد. گاهی اوقات ما این تصور را داریم که چیزی "اشتباه" است. این اتفاق، از جمله، زمانی رخ میدهد که احساسات شخصی که روی صفحه نمایش داده میشود با آنچه که حالت چهره یا لحن صدا به ما نشان میدهد، مطابقت نداشته باشد. این همچنین نشان می دهد که این ویدیو ممکن است جعلی باشد.
همچنین جالب:
برای جلوگیری از یک کلاهبرداری عمیق جعلی، کارشناسان توصیه می کنند مراحل زیر را دنبال کنید:
مطالب جعلی را می توان در هر کجا که بتواند به مخاطبان زیادی، یعنی مخاطبان بالقوه دیپ فیک، پیدا کند. Facebook, Instagram، TikTok و سایر سایت های رسانه های اجتماعی پر از این نوع موارد هستند.
اینها نه تنها فیلم های شگفت انگیز، بلکه عکس ها و ضبط های صوتی "تصفیه شده" هستند. برخی از پروفایل های معتبر مشهور گاهی اوقات کاملاً با چیزهای دیپ فیک پر شده اند!
این تنها جایی نیست که می توانید یک دیپ فیک پیدا کنید. یک برنامه کاربردی برای گوشی های هوشمند نیز بر اساس این فناوری ساخته شده است که به شما امکان می دهد سبیل و ریش یا جلوه های ویژه دیگر را به عکس اضافه کنید (مثلاً پیری چندین دهه). بنابراین ممکن است معلوم شود که آخرین عکسی که از دوستانتان دریافت کرده اید، کمی «کم کشیده» است.
همچنین جالب:
استفاده از دیپ فیک می تواند مثبت و منفی باشد. فیلم های دیپ فیک می توانند بازیگوش یا سرگرم کننده باشند. در اینجا باید به ویدیوی رقص ملکه الیزابت روی میز در هنگام پیام سال نو اشاره کنیم. این همچنین هدف اکثر اصلاحات عکس است که ما با برنامه دیپ فیک در تلفن های هوشمند خود انجام می دهیم. باید خنده دار و سرگرم کننده باشد.
مواد Deepfake همچنین می توانند نقش آموزشی را ایفا کنند، به عنوان مثال، هنرمندان، خوانندگان یا نوازندگان از قبل مرده را "احیا می کنند". برخی از موزه ها، به ویژه، موزه سالوادور دالی در فلوریدا، از این فناوری استفاده می کنند، جایی که بازدیدکنندگان با آثار خود توسط خود هنرمند "ارائه" می شوند، که می توانید با او صحبت کنید و حتی عکس بگیرید.
فناوری Deepfake در تولیدکنندههای صدا استفاده میشود - دستگاههایی که برای افرادی طراحی شدهاند که توانایی صحبت کردن را از دست دادهاند. به لطف آنها، چنین افرادی هنوز هم می توانند با صدای خودشان با ما صحبت کنند. صدای وال کیلمر که به دلیل سرطان حنجره از دست داده بود، در فیلم Top Gun: Maverick الگوبرداری شد.
متأسفانه نمونه های زیادی از کاربردهای منفی دیپ فیک نیز داریم. سیاست نمونهای است که در آن این نوع اطلاعات نادرست میتواند پیامدهای گسترده و جهانی داشته باشد، مانند بیاعتبار کردن شخصیتهای عمومی، تأثیرگذاری بر بازار سهام، اقتصاد یا نتایج انتخابات، یا حتی انجام جنگ در یک جنگ. یک سوابق به خوبی آماده شده، دستکاری افکار عمومی را آسان تر می کند. توسعه تدریجی فناوری ها تشخیص مواد واقعی از تقلبی را دشوارتر می کند. بنابراین، این گامی به سوی سقوط اعتماد اجتماعی و هرج و مرج اطلاعاتی است.
همانطور که قبلاً اشاره کردیم، ویدیوهای دیپ فیک در صنعت پورن بسیار گسترده هستند. اغلب، تغییرات شامل جایگزینی چهره بازیگر/بازیگر پورن با چهره افراد مشهور یا ستاره های سینما، البته بدون رضایت آنهاست.
همچنین بخوانید: ماموریت های فضایی سرنشین دار: چرا بازگشت به زمین هنوز یک مشکل است؟
دیپ فیک فقط برای بازیگران و سیاستمداران مشکل ساز نیست. هر کسی ممکن است تحت تأثیر محتوای جعلی قرار گیرد. یکی از عناصر باجگیری و اخاذی میتواند ویدیوی ساختگی باشد که در آن مرتکب جرم میشویم یا در موقعیتی مبهم قرار میگیریم - یا شما پرداخت میکنید یا ما فاش میکنیم. اگر در تجارت کار می کنید، باید درک کنید که خطر استفاده از دیپ فیک برای بی اعتبار کردن شرکت در بین طرف های دیگر وجود دارد.
افزایش میزان مطالب دستکاری می تواند بر اعتماد اجتماعی و اعتماد به اطلاعات ارائه شده نیز تأثیر بگذارد. چگونه می توان چیزی را باور کرد در حالی که فیلمی که در دادگاه مدرکی است می تواند دروغ باشد و اخبار در مورد اتفاقات ناموجود گزارش می دهد؟
فناوری که به شما امکان میدهد یک تصویر مخرب، ضبط صوتی یا فیلمی که شخصیتهای آن شباهت زیادی به افراد دیگر داشته باشد، سطح جدیدی از تهدید مجرمان سایبری است. به خصوص با توجه به این واقعیت که در شبکه های اجتماعی آنها می توانند منابع تقریبا نامحدودی از منابع را برای ایجاد دیپ فیک بکشند.
نرم افزار یادگیری ماشین می تواند جستجو کند Facebook یا Instagramبه عنوان مثال، و گرفتن عکس ها یا فیلم های جالب از "بازیگران" بالقوه. بر این اساس، می توان یک صدا، تصویر و ویدیوی بسیار واضح از شخص ایجاد کرد، اما با یک جذابیت جعلی ایجاد شده خاص که به عنوان مثال، به عنوان قربانی یک آدم ربایی یا تصادف شبیه سازی می کند که در یک مشکل جدی قرار گرفته است. در مرحله بعدی، یک درخواست جعلی برای کمک، به عنوان مثال مالی، خطاب به بستگان "قربانی" ایجاد می شود.
همچنین بخوانید: تلسکوپ فضایی جیمز وب: 10 هدف برای رصد
جریان اطلاعات نادرست آنقدر زیاد است که بسیاری از شبکه های اجتماعی تصمیم به مبارزه با دیپ فیک گرفته اند. Facebook і Twitter سعی کنید ویدیوهای جعلی را شناسایی کرده و به طور خودکار آنها را حذف کنید. شرکت های بزرگ (از جمله Microsoft یا آمازون) روی نرم افزاری سرمایه گذاری می کنند که محتوای جعلی را شناسایی می کند. دانشمندان همچنین در حال کار بر روی راه حلی برای این مشکل هستند.
با این حال، در شرایطی که یک اپلیکیشن گوشی هوشمند برای ساخت یک فیلم جعلی کافی است، مبارزه با دیپ فیک مانند مبارزه با آسیاب های بادی است. همچنین هیچ هنجار قانونی وجود ندارد که عواقب دستکاری اطلاعات یا استفاده از تصویر شخص دیگری را در این راه تعیین کند.
دیپ فیک روز به روز محبوب تر می شود و تشخیص آن از حقیقت به طور فزاینده ای دشوار می شود. این به دلیل بهبود فناوری هایی است که می توانند حرکات و ژست های انسان را بهتر تقلید کنند. Deepfakes را می توان برای اهداف خوب استفاده کرد، مانند ایجاد مطالب آموزشی یا کمک به افرادی که صدای خود را پس از جراحی حنجره از دست داده اند، اما همچنین ابزاری برای هکرها، باج گیران و ترول های اینترنتی است.
بنابراین، اگر دوباره با یک ویدیوی شگفت انگیز در اینترنت مواجه شدید، ابتدا بررسی کنید که آیا گاهی اوقات اصلاح شده یا جعلی است. شاید چیزی که شما به آن نگاه می کنید هرگز در واقعیت نبود!
همچنین بخوانید:
با این حال، فراموش نکنید که در اوکراین جنگی در جریان است. اگر می خواهید به اوکراین در مبارزه با اشغالگران روسی کمک کنید، بهترین راه این است که از طریق کمک به نیروهای مسلح اوکراین کمک مالی کنید. Savelife یا از طریق صفحه رسمی NBU.
پاسخ دهید