با نگاهی به احراز هویت بیومتریک و ارتباط آن با اینترنت و حضور آنلاین، جعل هویت موضوع مهمی است که باید به آن اشاره کرد. شاید بسیاری از مردم حتی امروز هم درک روشنی از خطرات بالقوه در دنیای پیشرفته تکنولوژیک امروزی ندارند. به همین دلیل ضروری است که یکی از اصطلاحات مرتبط با تقلب را روشن و توضیح دهیم، یعنی دیپ فیک (Deepfake). این پدیده، نمونهای از تهدید احتمالی برای هویت دیجیتال مردم است. با ما همراه باشید تا به بررسی دیپ فیکها بپردازیم.
دیپ فیک چیست؟
دیپفیکها در واقع ویدئوها، عکسها و در موارد معدودی حتی صداهای جعلی هستند که توسط هوش مصنوعی تولید میشوند که در آن چهره، اعمال یا صدای افراد به روشی خاص تنظیم میشود. بنابراین، اغلب مرز بین واقعیت و جعلی بودن این فایلها محو میشود و فضای زیادی برای هر نوع دستکاری و تقلب باقی میگذارد. به خصوص با هدف فریب و بدنام کردن قربانیان، دیپ فیکها به سلاحهای سایبری خطرناک تبدیل میشوند. قربانیان دیپ فیک نه تنها افراد مشهور یا سیاستمداران هستند، بلکه به طور فزایندهای افراد عادی جامعه را نیز شامل میشوند.
با توجه به پیشرفت مداوم فناوری و نرمافزار، ایجاد چنین دیپفیکهایی با گستردگی انتشار آنها دور از دسترس است. نه تنها کیفیت فیلمها یا عکسهای جعلی با گذشت زمان بهتر و واقعیتر میشود، بلکه سهولت ایجاد دیپفیک تنها با تصاویر محدود در دسترس است.
معنای دیپ فیک و منشأ آن
اصطلاح «دیپفیک» از ادغام واژههای «یادگیری عمیق» و «جعلی» (Deep Learning و Fake) حاصل شده که استفاده از روشهای یادگیری ماشینی برای ایجاد تقلبی تقریباً مستقل را برجسته میکند. به دلیل محتوای سازنده بالقوه آنها، اخیراً تلاشهایی برای تغییر در صنعت و سیاست صورت گرفته است. هدف، محدود کردن استفاده از چنین نرم افزارهای جعلی و همچنین مجازات هر نوع ایجاد غیرمجاز “تغییر چهره” یا “عروسکی کردن بدن” است. نه تنها نگرانی برای حفاظت از دادهها، تنظیم کنندهها را به ایجاد قوانین جدید سوق میدهد، بلکه تهدیدی برای فرآیندهای قانونی و دموکراتیک خارج از دنیای آنلاین است. در واقع، استفاده از چنین دیپ فیکهایی را میتوان در زمینههای مختلف زندگی یافت: سیاست، هنر و بهویژه پورنوگرافی، که در آن کاربران سعی میکنند با استفاده از چهره، صدا یا بدن خود برای دستیابی به اعمال مجرمانه، افراد خاصی را نادرست و بد معرفی کنند.
دیپ فیک سلبریتی ها و نحوه ایجاد دیپ فیک به طور کلی
اولین دیپ فیکها در سال ۲۰۱۷ به صورت آنلاین در پلتفرم ردیت ظاهر شدند، زمانی که کاربری، تصاویر جعلی را ایجاد کرد که چهره افراد مشهور را روی بازیگران ویدیوهای مستهجن نشان می داد. این دیپفیکها همراه با کدهای کامپیوتری به اشتراکگذاشتهشده برای تولید چنین فیلمها یا تصاویر دستکاری شده، وایرال شدند. این کار منجر به انفجار محتوای جعلی در سراسر رسانههای اجتماعی شد که در درجه اول افراد مشهور هدف اولیه بودند. یکی از معروفترین دیپفیکهای موجود، ویدئویی به نام «تلفیق اوباما» است که در آن باراک اوباما، رقیب ریاستجمهوری خود، دونالد ترامپ را «یک مزخرف تمام عیار» میخواند.
فناوری مدرن به سازنده ویدیو این امکان را داد تا فیلم صوتی موجود را اصلاح کند و از ابزارهای همگامسازی لب با صدا برای ایجاد توهم واقعی بودن آن استفاده کند. در این مورد، عوامل متعددی به موفقیت چنین محتوای دستکاری شده کمک می کنند، که محبوبیت آن در حال افزایش است. به خصوص باورپذیری عکسهای تقلبی یک امر مهم است. تصاویر و ویدئوها به عنوان شواهد فوتوژنیک و در نتیجه «واقعی» تلقی میشوند، بنابراین تنها افراد کمی اعتبار آن را زیر سوال میبرند.
فناوری دیپ فیک و نحوه تشخیص دیپ فیک ها
افزایش دسترسی به نرم افزارها و برنامه هایی که خدماتی برای ایجاد دیپ فیک ارائه می دهند، یکی دیگر از جنبه های کمک کننده است. محبوب ترین برنامههای کاربردی برای ایجاد دیپ فیک FakeApp، ReFace یا DeepFaceLab هستند. معمولاً فرآیند ایجاد دیپفیک در همه برنامهها یکسان عمل میکند و اولین مرحله آپلود دو تصویر یا ویدیو است که دو چهره متفاوت را نشان میدهند. سپس این نرمافزار ویژگیهای صورت موجود را تجزیه و تحلیل میکند و نحوه انتقال آنها به عکسها یا ویدیوهای دیگر را با کمک هوش مصنوعی بررسی میکند.
تشخیص دیپ فیک
با تمامی مواردی که تا اینجا گفته شد، برای مردم بسیار مهم است که اعتبار یک منبع آنلاین را زیر سوال ببرند، چه از طریق تحقیق گسترده در مورد موضوع باشد چه از طریق شناسایی محتوای دستکاری شده خودشان. با وجود اینکه نرمافزار ایجاد دیپفیک دائماً بهتر و واقعیتر میشود، هنوز چند راه برای تشخیص واقعی یا جعلی بودن ویدیوها یا تصاویر وجود دارد. نحوه تشخیص دیپ فیک به روشهای زیر امکانپذیر است:
۱. تغییر حالت صورت
از آنجایی که اکثر دیپفیکها تقریباً همیشه با تغییر حالت چهره همراه هستند، میتوان آنها را راحتتر تشخیص داد و متوجه دستکاری شد. اغلب ویژگیها و حالات صورت و همچنین خطوط اطراف صورت با نگاه دقیق به تصویر با هم مطابقت ندارند. علاوه بر این، پوست و علائم پیری یک نفر که دیپ فیک او انجام شده، با تصویر واقعی او همخوانی ندارند. سایر ویژگیهای دستکاری در تغییر حالت صورت شامل حرکت غیرطبیعی چشم یا پلک زدن مکرر، دندانهای غیرطبیعی یا فقدان احساساتی است که با پیام منتقل شده مطابقت ندارد.
۲. حالت بدن
از طرف دیگر، وقتی صحبت از «عروسکی بودن بدن» می شود، نگاه کردن به ژست های بدن و وضعیت افراد در ویدیو ضروری است. بسیاری از اوقات، حرکات مو و لب غیر عادی است، بنابراین اقدامات کلی در ویدیو نشان میدهد که دستکاری صورت گرفته است. سرنخهای بیشتر از وجود دیپ فیک میتواند تار شدن و ناهماهنگی لبههای بدن همراه با صدای نامناسب باشد.
۳. اثر انگشت دیجیتال سازنده
در حالی که نشانگرهای سطحی اغلب عامل تعیین کننده جعلی بودن فایلها هستند، جزئیات مربوط به اثر انگشت دیجیتالی سازنده نیز میتواند اطلاعات زیادی را در مورد منشاء و اصالت یک ویدیو نشان دهد. بنابراین، با کمک تأیید مبتنی بر بلاک چین، یک سازنده ویدیو میتواند صحت محتوای منتشر شده را اثبات کند.
به طور کلی، می توان گفت که تشخیص دیپ فیک یک موضوع بسیار سخت و پیچیدهای است که در آن افراد بدون دانش دقیق در مورد این موضوع تنها در موارد بسیار نادری میتوانند آنها را با چشم انسانی و غیرمسلح تشخیص دهند. در نتیجه، راههای جایگزین باید در جایی که احراز هویت بیومتریک میتواند نقطه شروع مفیدی باشد، اعمال شود.
تشخیص دیپ فیک از طریق یادگیری عمیق
دیپ فیکهای حرفهای به گونهای هستند که نه چشم انسان و نه سیستم های بیومتریک نمیتوانند آنها را به راحتی تشخیص دهند. تحقیقاتی زیادی در حال انجام است تا بتوان دیپ فیک را به صورت شناسایی کرد. به عنوان بخشی از این تحقیق، BioID با یک کنسرسیوم شامل چندین دانشگاه و همچنین شرکت Bundesdruckerei آلمان درگیر است. با این پروژه، BMBF آلمان (وزارت آموزش و تحقیقات فدرال) از تحقیقات برای اقدامات متقابل برای دستکاری و سوء استفاده از ویدیو پشتیبانی میکند. هدف توسعه روشهای تشخیص عمیق و تعیین اصالت مطالب عکس و ویدئو است. روشهای مشتق شده باید سطوح اعتمادی را ایجاد کنند که امکان استفاده از تصمیمات در دادگاه را فراهم کند.
در حالی که رویکردهای سنتی با استفاده از ویژگی های دست ساز توسعه و تحلیل خواهند شد، امیدوارکنندهترین تکنیکها شامل یادگیری عمیق یا دیپ لرنینگ (deep learning) است. با توجه به دیپ فیکهایی که از هوش مصنوعی نشات میگیرد، به نظر میرسد که تشخیص آنها هم باید روی همان روشها هوش مصنوعی تکیه کند.
پیشگیری از تقلب با احراز هویت بیومتریک
از آنجایی که دنیا هر روز به سوی دیجیتالی شدن میرود و با توجه به این که شیوع بیماری کرونا اکثر کارها را به سمت آنلاین شدن پیش برده است، احراز هویت باید از طریق فرآیندهای قابل اعتماد انجام شود. تأیید هویت بدون نظارت جای خود را به تقلب و جعل میدهد، و بنابراین نیاز به ترکیب ضد تقلب پیچیده دارد. برای هر دو، راستیآزمایی ویدیویی حضوری مبتنی بر نماینده، و همچنین تأیید هویت کاملاً خودکار، دیپفیک به یک چالش رو به رشد تبدیل میشود. بنابراین این سوال مطرح می شود که در برابر دیپ فیک به قصد کلاهبرداری یا سرقت هویت چه کاری می توان انجام داد.
اثبات هویت مبتنی بر بیومتریک با تشخیص زنده بودن میتواند رویکردی مناسب برای دفاع از چنین حملاتی باشد. به همین دلیل است که امروز احراز هویت بیومتریک به طور فزایندهای توسط سازمانها و کسب و کارهایی پذیرفته میشود که برای امنیت دادههای مشتریان خود تلاش میکنند. شرکتهایی مانند BioID مکانیسمهای امنیتی بیومتریک را از طریق نرمافزار شناسایی تلاشهای تقلب هویت ارائه میکنند. ضمن اطمینان از برنامه های ایمن که از دوربین های مجازی و جریان های ویدئویی اصلاح شده به عنوان ورودی جلوگیری می کنند، عکسها و فیلم های دستکاری شده مانند دیپ فیکها را میتوان با استفاده از تشخیص زنده بودن و تشخیص چهره کاملاً تشخیص داد و از آن جلوگیری کرد.
تشخیص زنده بودن برای جلوگیری از جعل هویت
حملات نمایش
تشخیص زنده بودن چهره یک روش ضد جعل برای بیومتریک صورت است. از نظر علمی، این روش تشخیص حمله نمایش (Presentation Attack یا PAD) نامیده میشود. عملکرد اصلی مکانیزم PAD تعیین این است که آیا یک ویژگی بیومتریک (به عنوان مثال، یک تصویر) از یک فرد زنده گرفته شده است یا خیر. یوآیدی اولین سرویس احراز هویت دیجیتال در ایران است که فرایند احراز هویت کاربران را با الگوریتم های هوش مصنوعی و یادگیری ماشین نظیر تشخیص چهره و تشخیص زنده بودن چهره کاربر انجام می دهد. فرایند احراز هویت غیرحضوری با یوآیدی به صورت آنی و با دقت بالای ۹۸ درصد انجام می پذیرد. برای دریافت مشاوره رایگان جهت احراز هویت کاربران خود و شناخت مشتری خود با یوآیدی تماس بگیرید. دیپفیکهای ارائهشده در سطح حسگر (مثلاً روی نمایشگر) را میتوان از طریق روشهای یوآیدی بررسی و رد کرد.
حملات در سطح برنامه
به عنوان مثال، برای مبارزه با حملات در سطح برنامه از طریق ورود جریانهای تغییر داده شدهی دوربین، میتوان از مکانیسمهای پاسخ به چالش برای رد کردن و شناسایی فیلمهای از پیش ضبطشده یا همان دیپفیک استفاده کرد. در آینده، حتی برای افراد غیرحرفهای نیز این امکان وجود خواهد داشت که اصلاح ویژگیها را در زمان واقعی انجام دهند، و یک چهره دیپفیک و تقلبی را روی یک چهره متحرک زنده نمایش دهند. بنابراین اهمیت اپلیکیشنهای امن که از حملات از طریق دوربینهای مجازی جلوگیری میکنند، بیش از پیش افزایش خواهد یافت.
خوشبختانه، روشهای تشخیص زنده بودن یوآیدی از حملات ارائه از طریق دیپفیکها با همان سطح اطمینانی که هر ویدیو، آواتار متحرک و مواردی از این دست دارد، جلوگیری میکند.
راهکار یوآیدی در ترکیب با یک برنامه ایمن که از هرگونه دسترسی به دوربین مجازی جلوگیری میکند و رایج ترین دوربین های مجازی را در لیست سیاه قرار میدهد، میتوان از آسیب رساندن به هویت افراد مجرم جلوگیری کرد.
پیامدهای مثبت دیپ فیک
همانطور که گفته شد، دیپفیکها اگر از روی کینه یا انتقام باشند، میتوانند بسیار مخرب باشند. اما، فناوریها و الگوریتمهای مورد استفاده نه تنها مضر هستند، بلکه میتوانند برای تغییرات مثبت نیز مورد استفاده قرار گیرند. جلوه های بصری، آواتارهای دیجیتال یا فیلترهای اسنپ چت تنها چند نمونه از موارد استفاده مثبت برای دیپ فیک هستند. برای جامعه، مزایای دیپ فیک بیشتر از این موارد است. به عنوان مثال در آموزش، دیپ فیکها می توانند برای ایجاد یک محیط یادگیری خلاقانهتر و جذابتر استفاده شوند. دیپ فیک چهرههای مشهوری مانند جان اف کندی در گذشته برای تدریس تاریخ در مدارس استفاده شدهاند. حوزه دیگری که دیپ فیک مورد توجه است، هنر و صنعت فیلمسازی است. در این صنعت، از دیپ فیکها برای ایجاد چهرهها و صحنههای ساختگی استفاده میشود تا داستانهای تخیلی را بیان کنند که تجربههایی شبیه به آواتار ایجاد میکنند. دیوید بکهام از دیپ فیک برای ارائه یک پیام مرتبط جهانی استفاده کرد تا این پیام به همه جهانیان برسد. در واقع از صدای دیوید بکهام برای صحبت در مورد بیماری مالاریا استفاده شد تا او به چندین زبان مختلف پیام خود را برساند.
در مجموع، دیپفیکها ابعاد مختلفی دارد و در حالی که میتوانند تأثیر مثبتی داشته باشند، پیامدهای منفی آن برای افراد، سیاست و جامعه بیش از حد است. از آنجایی که زنان معمولاً قربانی این مشکل میشوند، دیپ فیک نیز یک بعد جنسیتی مهم است. بنابراین حمایت از زنان و شهرت آنها باید دغدغه اصلی سیاستمداران برای تصویب قوانین جدید باشد. با این حال، مسیر قانونی برای قربانیان دشوار است، زیرا عاملان اغلب ناشناس عمل میکنند، بنابراین ردیابی دیپ فیکها تا مبدا تقریباً بی معنی است. به همین دلیل، مقابله با مشکل در مسیر آن و تلاش برای جلوگیری از توزیع در وهله اول ضروری است. پلتفرمهایی مانند اینستاگرام، جایی که این گسترش محتوای جعلی در آن صورت میگیرد، میتواند به این اقدام کمک کند.
حمایت از بیومتریک و الگوریتم های احراز هویت در مبارزه با تهدیدات آنلاین بسیار مهم است. به این وسیله، اقداماتی در برابر حملات افترای عمیق و سایر حملات مخرب آنلاین آشکار می شود و اعتماد به دنیای دیجیتال باز می گردد.