اطلاعات شخصی چیزی با ارزش و حوزهای کلیدی در امنیت ملی است. اهمیت یافتن روزافزون اطلاعات در آغاز قرن بیستم و بیست و یکم به حفاظت از آن ضرورت بخشید و با دیجیتالی شدن اطلاعات و جهانی شدن آن، این حفاظت جنبههای جدیدی به خود گرفت. در این دوران مدرنِ تحت سلطهی اینترنت، که منبع اصلی اطلاعات برای بسیاری از آدمها شده است، تشخیص اطلاعات واقعی از «اخبار جعلی» دشوار است. با این حال، دیجیتالیسازی از به وجود آمدن اطلاعات نادرست پیشگیری نکرده است. ویدیوهایی جعلی به نام « جعلهای عمیق » وجود دارند که با استفاده از هوش مصنوعی تهیه شده و در آنها میتوان چهرهی فرد خاصی را قرار داد. این اصطلاح همچنین میتواند به سایر محصولات دیجیتالی تولید شده با استفاده از الگوریتمهای هوش مصنوعی اشاره داشته باشد. در پایان سال ۲۰۱۷، اولین فیلمهای جعلی ظهور پیدا کردند، اما ما از تاریخ خاص خلقت «جعل عمیق» اطلاع نداریم. در حالی که در ابتدا سرگرمکننده به نظر میآمدند و شناسایی آنها آسان مینمود، اما با گذشت زمان تبدیل به یک مشکل شدند. این «جعلهای عمیق» هم به مسائل سیاسی و هم به کلاهبرداریهای مالی مرتبط بودند، که میتوانند تاثیر زیادی بر جامعه و هویت ما بگذارند.
جعل عمیق چگونه ایجاد میشود؟
برای ایجاد یک ویدیوی قانعکننده، به هزاران عکس و ویدیو نیاز دارید که «جعل عمیق» بر اساس آنها ساخته شود. داشتن اطلاعات از مباحث الگوریتمهای یادگیری عمیق و تطبیق چهره نیز ضروری است. با استفاده از این اطلاعات و الگوریتمها، برنامهی کامپیوتری یاد میگیرد که چگونه از صدا و حالات چهره، حركات، طرز رفتار، لحن صدا و دایره لغات شخص استفاده کند.کامپیوتر این کار را از طریق شبکههای عصبی مصنوعی انجام میدهد که فرآیند یادگیری در مغز را شبیهسازی میکند.
جعل عمیق و سرقت هویت
همانند سایر انواع سرقت هویت، کلاهبرداران با استفاده از «جعلهای عمیق»، خود را به جای فرد دیگری جا میزنند تا حساب باز کنند، به آن دسترسی پیدا کنند یا از برخی سرویسهای خدماتی استفاده کنند. مجرمان سایبری، سرقت اطلاعات را به طرق مختلف از جمله از طریق رسانههای اجتماعی جمعآوری میکنند. سرقت هویت با استفاده از تکنولوژی «جعل عمیق» به شکلهای مختلفی وجود دارد، مانند استفاده از صدای قربانی برای تغییر رمز ورود در بانک یا درخواست انتقال سریع پول از کارکنان یا خانواده. همچنین اتفاقی در آگوست سال ۲۰۱۹ رخ داد، زمانی که کارمندی از یک شرکت انگلیسی فریب خورد تا دویست هزار پوند برای مجرمان سایبری ارسال کند. قربانی فکر میکرد که او دارد با رئیس خود صحبت میکند و دستور او در مورد انتقال فوری پول به تأمینکننده را انجام میدهد. صدای رئیس به قدری خوب جعل شده بود (لهجهی درست، لحن صدا، سبک صحبت کردن) که در کارمند هیچ سوءظنی ایجاد نکرد.
جعل عمیق و راستيآزمايي هویت
آیا واقعاً «جعل عمیق» تهدیدی واقعی برای مصرفکنندگان است؟ برای بسیاری از سازمانها و شرکتها سوال است که آیا این تکنیکها خطری برای فرآیندهای احراز هویت دیجیتال (eKYC) ایجاد میکنند و آیا چنین ویدیوهایی میتوانند برای جعل هویت در فرآیندهای تعامل با مشتری ایجاد شوند.
کسانی که از راهحلهای راستیآزمایی ویدیو برای شناسایی مشتریان استفاده میکنند، لازم نیست نگران باشند. راستیآزماییهای ویدیویی و فرآیندهای بیومتریکی که میتوانند هویت افراد را با استفاده از تکنیکهای پیشرفته تأیید کنند و همچنین توسط افراد متخصص پشتیبانی میشوند، میتوانند تشخیص دهند که ویدیو واقعی است یا با کامپیوتر ایجاد شده است. علاوه بر این، هزاران نمونهی متنوع و با کیفیت بالای ویدیو، عکس و صدا برای توسعهی الگوریتمها نیاز است. فراهم آوردن این نمونهها فقط از شبکههای اجتماعی تقریباً غیرممکن است و نتیجهای جز ویدیویی با کیفیت بسیار پایین نخواهد داشت.
اما بیاید فرض کنیم که ویدیویی وجود دارد که فیلترهای بیومتریک را فریب داده است. با این حال، این فقط تنها قسمت از روند راستیآزمایی نیست. همچنین نشان دادن اسناد معتبر هویتی نیز ضروری است. این اسناد توسط هولوگرامها و بسیاری از مولفههای دیگر ایمنسازی میشود که جعل آنها را بسیار دشوار میسازد. بزرگترین وقفهای که در روند راستیآزمایی وجود دارد، متقاعد کردن متخصص واجد شرایطی است که ویدیو را بررسی میکند تا دستکاری در آن انجام نشده باشد.
راستیآزمایی ویدیو
تقلب با استفاده از «جعلهای عمیق» در راستیآزمایی ویدیوی زنده هنگام مکالمهی تصویری غیرممکن است. هوش مصنوعیای که از این فرآیند پشتیبانی میکند، متوجه دستکاری شدن ویدیو و ساخته شدن آن توسط کامپیوتر میشود. در حین ارتباط تصویری، متخصص به پسزمینه و نحوهی تعاملات شخصیت با آن توجه میکند؛ اینکه آیا نور و سایهها واقعبینانه به نظر میرسند و آیا اختلالات عجیبی در ویدیو وجود دارد یا خیر. در هنگام مواجهه با «جعلهای عمیق»، خوب است که به ظاهر دندانها و چشمها و همچنین جزئیات مربوط به لباس نیز توجه داشت. این موارد اغلب مولفههایی مسئلهساز و سخت برای جعل کردن هستند. بعلاوه، ساختن ویدیویی که کاملاً هماهنگ و متناسب با ارتباط آنلاین و زنده باشد، عملاً غیرممکن است.
آییننامههای قانونی
ما نمیتوانیم توسعههای احتمالی تکنولوژی «جعل عمیق» در آینده را پیشبینی کنیم. این تکنولوژی به این معروف است که محبوبیت زیادی پیدا کرده و در آینده بیشتر استفاده خواهد شد. بنا به مجلهی «Technology Review»، «جعل عمیق» به عنوان بزرگترین تهدید در وب در سال ۲۰۱۹ شناخته شده است. هنجارهای قانونی موجود غالباً با پیشرفت تکنولوژی همخوانی ندارند و کشورها در تلاش هستند تا هرچه بیشتر و بیشتر با این مشکل کنار بیایند. چین آییننامههای جدید دولت را در رابطه با «اخبار جعلی» و «جعلهای عمیق» تبیین کرده است. آنها باید بطور کامل از منظر استفاده به عنوان هوش مصنوعی مشخص شوند. عدم آشکار کردن این موضوع به عنوان جرم تلقی میشود. در طول انتخابات، ایالات متحده تحریمهایی را برای به تصویر درآوردن سیاستمداران با استفاده از «جعل عمیق»، وضع کرد. ویدیوها و فیلمهایی که به عنوان طعنه یا هجو ساخته میشدند، از این تحریم مستثنی بودند. در اروپا، اقدامات مربوط به ایجاد قوانین برای سامان بخشیدن به هوش مصنوعی توسط هیئتی خاص به نام «European Group on Ethics» انجام میشود.
چگونه با «جعل عمیق» مقابله کنیم؟
چگونه تشخیص دهیم که چه موقع با شوخی روبرو هستیم و چه زمانی با دستکاری تصاویر شخصی دیگر؟ برای جلوگیری از استفادهی آسیبزنندهی «جعلهای عمیق» چه میتوان انجام داد؟ میدانیم که جلوگیری از ساخته شدن «جعلهای عمیق» یا ممنوعیت به اشتراک گذاشتن آنها در شبکههای اجتماعی غیرممکن است. ممکن است راهحلی به صورت ایجاد یک تکنولوژی وجود داشته باشد که ویدیوهای جعلی مبتنی بر هوش مصنوعی را تشخیص دهد. برای داشتن احساس امنیت و ایمنی، اعتماد به شرکتهای راستیآزمایی هویت که از هوش مصنوعی استفاده میکنند و قادر به جلوگیری از سرقت و کلاهبرداری هستند، گزینهی خوبی به نظر میرسد.
یوآیدی به عنوان اولین راهکار احراز هویت دیجیتال در کشور این فرایند را با استفاده از الگوریتم های هوش مصنوعی و در کوتاه ترین زمان به صورت بلادرنگ، با دقتی بسیار بالا انجام می دهد. فرایند احراز هویت سامانه ثنا و احراز هویت سجام برای دریافت کد بورسی با همکاری یوآیدی انجام می گردد.