دیپ فیک و جلوگیری از آن با ویژگی بایومتریک

ویژگیهای دیپ فیک

با نگاهی به احراز هویت بیومتریک و ارتباط آن با اینترنت و حضور آنلاین، جعل هویت موضوع مهمی است که باید به آن اشاره کرد. شاید بسیاری از مردم حتی امروز هم درک روشنی از خطرات بالقوه در دنیای پیشرفته تکنولوژیک امروزی ندارند. به همین دلیل ضروری است که یکی از اصطلاحات مرتبط با تقلب را روشن و توضیح دهیم، یعنی دیپ فیک (Deepfake). این پدیده، نمونه‌ای از تهدید احتمالی برای هویت دیجیتال مردم است. با ما همراه باشید تا به بررسی دیپ فیک‌ها بپردازیم.

 دیپ فیک چیست؟

دیپ‌فیک‌ها در واقع ویدئوها، عکس‌ها و در موارد معدودی حتی صداهای جعلی هستند که توسط هوش مصنوعی تولید می‌شوند که در آن چهره، اعمال یا صدای افراد به روشی خاص تنظیم می‌شود. بنابراین، اغلب مرز بین واقعیت و جعلی بودن این فایل‌ها محو می‌شود و فضای زیادی برای هر نوع دستکاری و تقلب باقی می‌گذارد. به خصوص با هدف فریب و بدنام کردن قربانیان، دیپ فیک‌ها به سلاح‌های سایبری خطرناک تبدیل می‌شوند. قربانیان دیپ فیک نه تنها افراد مشهور یا سیاستمداران هستند، بلکه به طور فزاینده‌ای افراد عادی جامعه را نیز شامل می‌شوند.

با توجه به پیشرفت مداوم فناوری و نرم‌افزار، ایجاد چنین دیپ‌فیک‌هایی با گستردگی انتشار آن‌ها دور از دسترس است. نه تنها کیفیت فیلم‌ها یا عکس‌های جعلی با گذشت زمان بهتر و واقعی‌تر می‌شود، بلکه سهولت ایجاد دیپ‌فیک تنها با تصاویر محدود در دسترس است.

معنای دیپ فیک و منشأ آن

اصطلاح «دیپ‌فیک» از ادغام واژه‌های «یادگیری عمیق» و «جعلی» (Deep Learning و Fake) حاصل شده که استفاده از روش‌های یادگیری ماشینی برای ایجاد تقلبی تقریباً مستقل را برجسته می‌کند. به دلیل محتوای سازنده بالقوه آنها، اخیراً تلاش‌هایی برای تغییر در صنعت و سیاست صورت گرفته است. هدف، محدود کردن استفاده از چنین نرم افزارهای جعلی و همچنین مجازات هر نوع ایجاد غیرمجاز “تغییر چهره” یا “عروسکی کردن بدن” است. نه تنها نگرانی برای حفاظت از داده‌ها، تنظیم کننده‌ها را به ایجاد قوانین جدید سوق می‌دهد، بلکه تهدیدی برای فرآیندهای قانونی و دموکراتیک خارج از دنیای آنلاین است. در واقع، استفاده از چنین دیپ فیک‌هایی را می‌توان در زمینه‌های مختلف زندگی یافت: سیاست، هنر و به‌ویژه پورنوگرافی، که در آن کاربران سعی می‌کنند با استفاده از چهره، صدا یا بدن خود برای دستیابی به اعمال مجرمانه، افراد خاصی را نادرست و بد معرفی کنند.

دیپ فیک سلبریتی ها و نحوه ایجاد دیپ فیک به طور کلی

اولین دیپ فیک‌ها در سال ۲۰۱۷ به صورت آنلاین در پلتفرم ردیت ظاهر شدند، زمانی که کاربری، تصاویر جعلی را ایجاد کرد که چهره افراد مشهور را روی بازیگران ویدیوهای مستهجن نشان می داد. این دیپ‌فیک‌ها همراه با کدهای کامپیوتری به اشتراک‌گذاشته‌شده برای تولید چنین فیلم‌ها یا تصاویر دستکاری شده، وایرال شدند. این کار منجر به انفجار محتوای جعلی در سراسر رسانه‌های اجتماعی شد که در درجه اول افراد مشهور هدف اولیه بودند. یکی از معروف‌ترین دیپ‌فیک‌های موجود، ویدئویی به نام «تلفیق اوباما» است که در آن باراک اوباما، رقیب ریاست‌جمهوری خود، دونالد ترامپ را «یک مزخرف تمام عیار» می‌خواند.

فناوری مدرن به سازنده ویدیو این امکان را داد تا فیلم صوتی موجود را اصلاح کند و از ابزارهای همگام‌سازی لب با صدا برای ایجاد توهم واقعی بودن آن استفاده کند. در این مورد، عوامل متعددی به موفقیت چنین محتوای دستکاری شده کمک می کنند، که محبوبیت آن در حال افزایش است. به خصوص باورپذیری عکس‌های تقلبی یک امر مهم است. تصاویر و ویدئوها به عنوان شواهد فوتوژنیک و در نتیجه «واقعی» تلقی می‌شوند، بنابراین تنها افراد کمی اعتبار آن را زیر سوال می‌برند.

فناوری دیپ فیک و نحوه تشخیص دیپ فیک ها

افزایش دسترسی به نرم افزارها و برنامه هایی که خدماتی برای ایجاد دیپ فیک ارائه می دهند، یکی دیگر از جنبه های کمک کننده است. محبوب ترین برنامه‌های کاربردی برای ایجاد دیپ فیک FakeApp، ReFace یا DeepFaceLab هستند. معمولاً فرآیند ایجاد دیپ‌فیک در همه برنامه‌ها یکسان عمل می‌کند و اولین مرحله آپلود دو تصویر یا ویدیو است که دو چهره متفاوت را نشان می‌دهند. سپس این نرم‌افزار ویژگی‌های صورت موجود را تجزیه و تحلیل می‌کند و نحوه انتقال آن‌ها به عکس‌ها یا ویدیوهای دیگر را با کمک هوش مصنوعی بررسی می‌کند.

تشخیص دیپ فیک

با تمامی مواردی که تا اینجا گفته شد، برای مردم بسیار مهم است که اعتبار یک منبع آنلاین را زیر سوال ببرند، چه از طریق تحقیق گسترده در مورد موضوع باشد چه از طریق شناسایی محتوای دستکاری شده خودشان. با وجود اینکه نرم‌افزار ایجاد دیپ‌فیک دائماً بهتر و واقعی‌تر می‌شود، هنوز چند راه برای تشخیص واقعی یا جعلی بودن ویدیوها یا تصاویر وجود دارد. نحوه تشخیص دیپ فیک به روش‌های زیر امکان‌پذیر است:

۱.     تغییر حالت صورت

از آنجایی که اکثر دیپ‌فیک‌ها تقریباً همیشه با تغییر حالت چهره همراه هستند، می‌توان آن‌ها را راحت‌تر تشخیص داد و متوجه دستکاری شد. اغلب ویژگی‌ها و حالات صورت و همچنین خطوط اطراف صورت با نگاه دقیق به تصویر با هم مطابقت ندارند. علاوه بر این، پوست و علائم پیری یک نفر که دیپ فیک او انجام شده، با تصویر واقعی او همخوانی ندارند. سایر ویژگی‌های دستکاری در تغییر حالت صورت شامل حرکت غیرطبیعی چشم یا پلک زدن مکرر، دندان‌های غیرطبیعی یا فقدان احساساتی است که با پیام منتقل شده مطابقت ندارد.

۲.     حالت بدن

از طرف دیگر، وقتی صحبت از «عروسکی بودن بدن» می شود، نگاه کردن به ژست های بدن و وضعیت افراد در ویدیو ضروری است. بسیاری از اوقات، حرکات مو و لب غیر عادی است، بنابراین اقدامات کلی در ویدیو نشان می‌دهد که دستکاری صورت گرفته است. سرنخ‌های بیشتر از وجود دیپ فیک می‌تواند تار شدن و ناهماهنگی لبه‌های بدن همراه با صدای نامناسب باشد.

۳.     اثر انگشت دیجیتال سازنده

در حالی که نشانگرهای سطحی اغلب عامل تعیین کننده جعلی بودن فایل‌ها هستند، جزئیات مربوط به اثر انگشت دیجیتالی سازنده نیز می‌تواند اطلاعات زیادی را در مورد منشاء و اصالت یک ویدیو نشان دهد. بنابراین، با کمک تأیید مبتنی بر بلاک چین، یک سازنده ویدیو می‌تواند صحت محتوای منتشر شده را اثبات کند.

به طور کلی، می توان گفت که تشخیص دیپ فیک یک موضوع بسیار سخت و پیچیده‌ای است که در آن افراد بدون دانش دقیق در مورد این موضوع تنها در موارد بسیار نادری می‌توانند آنها را با چشم انسانی و غیرمسلح تشخیص دهند. در نتیجه، راه‌های جایگزین‌ باید در جایی که احراز هویت بیومتریک می‌تواند نقطه شروع مفیدی باشد، اعمال شود.

دیپ فیک

 

تشخیص دیپ فیک از طریق یادگیری عمیق

دیپ فیک‌های حرفه‌ای به گونه‌ای هستند که نه چشم انسان و نه سیستم های بیومتریک نمی‌توانند آن‌ها را به راحتی تشخیص دهند. تحقیقاتی زیادی در حال انجام است تا بتوان دیپ فیک را به صورت شناسایی کرد. به عنوان بخشی از این تحقیق، BioID با یک کنسرسیوم شامل چندین دانشگاه و همچنین شرکت Bundesdruckerei آلمان درگیر است. با این پروژه، BMBF آلمان (وزارت آموزش و تحقیقات فدرال) از تحقیقات برای اقدامات متقابل برای دستکاری و سوء استفاده از ویدیو پشتیبانی می‌کند. هدف توسعه روش‌های تشخیص عمیق و تعیین اصالت مطالب عکس و ویدئو است. روش‌های مشتق شده باید سطوح اعتمادی را ایجاد کنند که امکان استفاده از تصمیمات در دادگاه را فراهم کند.

در حالی که رویکردهای سنتی با استفاده از ویژگی های دست ساز توسعه و تحلیل خواهند شد، امیدوارکننده‌ترین تکنیک‌ها شامل یادگیری عمیق یا دیپ لرنینگ (deep learning) است. با توجه به دیپ فیک‌هایی که از هوش مصنوعی نشات می‌گیرد، به نظر می‌رسد که تشخیص آنها هم باید روی همان روش‌ها هوش مصنوعی تکیه کند.

پیشگیری از تقلب با احراز هویت بیومتریک

از آنجایی که دنیا هر روز به سوی دیجیتالی شدن می‌رود و با توجه به این که شیوع بیماری کرونا اکثر کارها را به سمت آنلاین شدن پیش برده است، احراز هویت باید از طریق فرآیندهای قابل اعتماد انجام شود. تأیید هویت بدون نظارت جای خود را به تقلب و جعل می‌دهد، و بنابراین نیاز به ترکیب ضد تقلب پیچیده دارد. برای هر دو، راستی‌آزمایی ویدیویی حضوری مبتنی بر نماینده، و همچنین تأیید هویت کاملاً خودکار، دیپ‌فیک به یک چالش رو به رشد تبدیل می‌شود. بنابراین این سوال مطرح می شود که در برابر دیپ فیک به قصد کلاهبرداری یا سرقت هویت چه کاری می توان انجام داد.

اثبات هویت مبتنی بر بیومتریک با تشخیص زنده بودن می‌تواند رویکردی مناسب برای دفاع از چنین حملاتی باشد. به همین دلیل است که امروز احراز هویت بیومتریک به طور فزاینده‌ای توسط سازمان‌ها و کسب و کارهایی پذیرفته می‌شود که برای امنیت داده‌های مشتریان خود تلاش می‌کنند. شرکت‌هایی مانند BioID مکانیسم‌های امنیتی بیومتریک را از طریق نرم‌افزار شناسایی تلاش‌های تقلب هویت ارائه می‌کنند. ضمن اطمینان از برنامه های ایمن که از دوربین های مجازی و جریان های ویدئویی اصلاح شده به عنوان ورودی جلوگیری می کنند، عکس‌ها و فیلم های دستکاری شده مانند دیپ فیک‌ها را می‌توان با استفاده از تشخیص زنده بودن و تشخیص چهره کاملاً تشخیص داد و از آن جلوگیری کرد.

تشخیص زنده بودن برای جلوگیری از جعل هویت

حملات نمایش

تشخیص زنده بودن چهره یک روش ضد جعل برای بیومتریک صورت است. از نظر علمی، این روش تشخیص حمله نمایش  (Presentation Attack یا PAD) نامیده می‌شود. عملکرد اصلی مکانیزم PAD تعیین این است که آیا یک ویژگی بیومتریک (به عنوان مثال، یک تصویر) از یک فرد زنده گرفته شده است یا خیر. یوآیدی اولین سرویس احراز هویت دیجیتال در ایران است که فرایند احراز هویت کاربران را با الگوریتم های هوش مصنوعی و یادگیری ماشین نظیر تشخیص چهره و تشخیص زنده بودن چهره کاربر انجام می دهد. فرایند احراز هویت غیرحضوری با یوآیدی به صورت آنی و با دقت بالای ۹۸ درصد انجام می پذیرد. برای دریافت مشاوره رایگان جهت احراز هویت کاربران خود و شناخت مشتری خود با یوآیدی تماس بگیرید. دیپ‌فیک‌های ارائه‌شده در سطح حسگر (مثلاً روی نمایشگر) را می‌توان از طریق روش‌های یوآیدی بررسی و رد کرد.

حملات در سطح برنامه

به عنوان مثال، برای مبارزه با حملات در سطح برنامه از طریق ورود جریان‌های تغییر داده شده‌ی دوربین، می‌توان از مکانیسم‌های پاسخ به چالش برای رد کردن و شناسایی فیلم‌های از پیش ضبط‌شده یا همان دیپ‌فیک استفاده کرد. در آینده، حتی برای افراد غیرحرفه‌ای نیز این امکان وجود خواهد داشت که اصلاح ویژگی‌ها را در زمان واقعی انجام دهند، و یک چهره دیپ‌فیک و تقلبی را روی یک چهره متحرک زنده نمایش دهند. بنابراین اهمیت اپلیکیشن‌های امن که از حملات از طریق دوربین‌های مجازی جلوگیری می‌کنند، بیش از پیش افزایش خواهد یافت.

خوشبختانه، روش‌های تشخیص زنده بودن یوآیدی از حملات ارائه از طریق دیپ‌فیک‌ها با همان سطح اطمینانی که هر ویدیو، آواتار متحرک و مواردی از این دست دارد، جلوگیری می‌کند.

راهکار یوآیدی در ترکیب با یک برنامه ایمن که از هرگونه دسترسی به دوربین مجازی جلوگیری می‌کند و رایج ترین دوربین های مجازی را در لیست سیاه قرار می‌دهد، می‌توان از آسیب رساندن به هویت افراد مجرم جلوگیری کرد.

پیامدهای مثبت دیپ فیک

همان‌طور که گفته شد، دیپ‌فیک‌ها اگر از روی کینه یا انتقام باشند، می‌توانند بسیار مخرب باشند. اما، فناوری‌ها و الگوریتم‌های مورد استفاده نه تنها مضر هستند، بلکه می‌توانند برای تغییرات مثبت نیز مورد استفاده قرار گیرند. جلوه های بصری، آواتارهای دیجیتال یا فیلترهای اسنپ چت تنها چند نمونه از موارد استفاده مثبت برای دیپ فیک هستند. برای جامعه، مزایای دیپ فیک بیشتر از این موارد است. به عنوان مثال در آموزش، دیپ فیک‌ها می توانند برای ایجاد یک محیط یادگیری خلاقانه‌تر و جذاب‌تر استفاده شوند. دیپ فیک چهره‌های مشهوری مانند جان اف کندی در گذشته برای تدریس تاریخ در مدارس استفاده شده‌اند. حوزه دیگری که دیپ فیک مورد توجه است، هنر و صنعت فیلمسازی است. در این صنعت، از دیپ فیک‌ها برای ایجاد چهره‌ها و صحنه‌های ساختگی استفاده می‌شود تا داستان‌های تخیلی را بیان کنند که تجربه‌هایی شبیه به آواتار ایجاد می‌کنند. دیوید بکهام از دیپ فیک برای ارائه یک پیام مرتبط جهانی استفاده کرد تا این پیام به همه جهانیان برسد. در واقع از صدای دیوید بکهام برای صحبت در مورد بیماری مالاریا استفاده شد تا او به چندین زبان مختلف پیام خود را برساند.

در مجموع، دیپ‌فیک‌ها ابعاد مختلفی دارد و در حالی که می‌توانند تأثیر مثبتی داشته باشند، پیامدهای منفی آن برای افراد، سیاست و جامعه بیش از حد است. از آنجایی که زنان معمولاً قربانی این مشکل می‌شوند، دیپ فیک نیز یک بعد جنسیتی مهم است. بنابراین حمایت از زنان و شهرت آنها باید دغدغه اصلی سیاستمداران برای تصویب قوانین جدید باشد. با این حال، مسیر قانونی برای قربانیان دشوار است، زیرا عاملان اغلب ناشناس عمل می‌کنند، بنابراین ردیابی دیپ فیک‌ها تا مبدا تقریباً بی معنی است. به همین دلیل، مقابله با مشکل در مسیر آن و تلاش برای جلوگیری از توزیع در وهله اول ضروری است. پلتفرم‌هایی مانند اینستاگرام، جایی که این گسترش محتوای جعلی در آن صورت می‌گیرد، می‌تواند به این اقدام کمک کند.

حمایت از بیومتریک و الگوریتم های احراز هویت در مبارزه با تهدیدات آنلاین بسیار مهم است. به این وسیله، اقداماتی در برابر حملات افترای عمیق و سایر حملات مخرب آنلاین آشکار می شود و اعتماد به دنیای دیجیتال باز می گردد.

برای امتیاز دادن کلیک کنید!
[تعداد نظر: ۰ میانگین: ۰]

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

نوشته های مرتبط