اعتماد به هوش مصنوعی تا چه اندازه منطقی است؟

اعتماد به هوش مصنوعی
فهرست مطالب

به نظر شما اعتماد به هوش مصنوعی در عصر اخیر تا چه اندازه منطقی به نظر می‌رسد؟ در پاسخ به این سوال می‌توان گفت که کاربرد یادگیری ماشین برای پشتیبانی از پردازش مجموعه داده‌های بزرگ در بسیاری از صنایع از جمله خدمات مالی امکانپذیر است.

در حقیقت بیش از ۶۰ درصد از شرکت‌هایی که خدمات مالی ارائه می‌دهند، دست کم یکی از قابلیت‌های هوش مصنوعی (AI) را به کار گرفته‌اند. مثلا در برقراری ارتباط با مشتریان خود از طریق دستیار مجازی، تا خودکارسازی جریان‌های کار کلیدی و حتی مدیریت کلاهبرداری و امنیت شبکه از اعتماد به هوش مصنوعی بهره گرفته‌اند.

اما به نظر می‌رسد مبحث “جعبه سیاه” در هوش مصنوعی مطرح است که سبب می‌شود درک کمی از چگونگی کار سیستم‌ها داشته باشیم. بنابراین نگرانی‌هایمان نیز درباره ابهام، تبعیض منصفانه، اخلاقیات و تهدیدهای حریم شخصی و خودمختاری افزایش خواهد یافت.

این کمبود شفافیت در این حوزه اغلب با سوگیری‌های پنهانی نیز همراه است. همین امر نیز اعتماد به هوش مصنوعی را دشوار می‌کند. در ادامه بعضی از رایج‌ترین انواع سوگیری در اعتماد به هوش مصنوعی را نام می‌بریم.

رایج‌ترین انواع سوگیری در اعتماد به هوش مصنوعی

۱) سوگیری الگوریتم

این مورد وقتی اتفاق می‌افتد که مشکلی در الگوریتم وجود داشته باشد. زیرا سبب می‌شود که محاسباتی را اجرا کند که موجب قدرتمندی محاسبات یادگیری ماشینی شود.

۲) سوگیری نمونه‌گیری

این مورد نیز زمانی اتفاق می‌افتد که مشکلی در داده‌های به کار رفته در آموزش مدل یادگیری ماشینی وجود داشته باشد. در این نوع سوءگیری، یا داده‌های استفاده شده به قدر کافی بزرگ نیستند یا به قدر کافی معرف نیستند تا سیستم را آموزش دهند.

مثلا در آشکارسازی کلاهبرداری معمولا هر هفته ۷۰۰۰۰۰ رویداد دریافت می‌شود که فقط یکی از آنها کلاهبرداری است. از آنجا که اکثر رویدادها غیرکلاهبرداری است، نمونه‌های کافی در سیستم وجود ندارد تا بفهمیم کلاهبرداری به چه شکلی است. بنابراین ممکن است فرض کنیم همه معاملات، درست هستند.

از سوی دیگر، مواردی نیز وجود دارد که یک فروشنده، فقط رویدادها یا معاملاتی را به اشتراک می‌گذارد که از نظر او ریسک‌آمیز هستند. به این ترتیب همان مسئله سوءگیری برای آموزش مدل‌های یادگیری ماشین پیش می‌آید. زیرا هیچ نمونه‌ای وجود ندارد که نشان دهد یک معامله/ رویداد موثق به چه شکل است تا بتوان بین موارد درست و موارد کلاهبرداری، تمایز قائل شد.

۳) سوگیری تعصب

در این مورد از سوگیری در مورد اعتماد به هوش مصنوعی داده‌های به کار رفته برای آموزش سیستم، بیانگر تعصبات، کلیشه‌ها و یا فرضیات اجتماعی اشتباه موجود است. از این رو سوگیری‌های مربوط به آن در جهان واقعی، به یادگیری ماشین نیز وارد می‌شود. یکی از مثال‌ها در خدمات مالی، تحقیقات مربوط به ادعاهای خاص است.

تیم تحقیقات ویژه اغلب از مدیرانی که این ادعاها را مرور می‌کنند، درخواست تحقیقات بیشتر می‌کند. زیرا ادعاها از سوی تیم مدیریت مشکوک دیده شد و احتمال اینکه بازجویان ویژه بتوانند کلاهبرداری بودن یا نبودن آن را تعیین کنند، بیشتر است. هنگامی که این ادعاها در سیستم هوش مصنوعی با برچسب کلاهبردار وارد می‌شود، تعصبی از سوی بازجویان ویژه وجود دارد که در سیستم هوش مصنوعی جریان می‌یابد که با توجه به این داده‌ها، تصمیم می‌گیرد چه چیز را کلاهبرداری اعلام کند.

۴) سوگیری اندازه‌گیری

این سوگیری در اعتماد به هوش مصنوعی به دلیل مشکلات مربوط به صحت داده‌ها و چگونگی اندازه‌گیری یا سنجش آن ایجاد می‌شود. استفاده از تصاویر کارکنان خوشحال برای آموزش به سیستم به این معنی است که محیط کار را بسنجیم تا ببینیم آیا اگر کارکنان داخل تصویر بدانند قرار است میزان شادی آنها اندازه‌گیری شود، دچار سوگیری می‌شوند یا خیر.

سوگیری اندازه‌گیری دیگری نیز در زمان برچسب زدن داده به دلیل تفسیر ناسازگار اتفاق می‌افتد. مثلا اگر تیمی، معاملات را برچسب کلاهبرداری، مشکوک یا موثق بزند و شخصی دیگر معامله‌ای را برچسب کلاهبرداری بزند و شخص دیگری همان معامله را برچسب مشکوک بزند، منجر به برچسب‌ها و داده‌های ناسازگار خواهد شد.

 

۵) سوگیری استثنا

این مورد زمانی اتفاق می‌افتد که یکی از نقاط مهم داده، از داده‌های به کار رفته، کنار گذاشته شود. اگر مدل سازان، نقطه داده به کار رفته را تشخیص ندهند، این اتفاق رخ خواهد داد. یکی از مثال‌های مرتبط، کلاهبرداری حساب جدید است. مثلا مواردی که حساب توسط شخصی شرور یا با استفاده از هویت ساختگی یا دزدی ساخته شد یا یک حساب صحیح برای هدف کلاهبرداری مورد استفاده قرار گرفت.

در زمان گشودن حساب جدید، داده‌های کافی درباره حساب وجود ندارد. زیرا بیشتر مدل‌سازان فقط پس از اینکه تعداد از پیش تعریف شده‌ای از معاملات رخ داد، شروع به پردازش داده‌ها می‌کنند.

اما مطابق نظر متخصصان دامین، اولین معاملاتی که بلافاصله پردازش نمی‌شوند، از جمله مهمترین موارد هستند. عدم ارتباط درست بین متخصصان دامین و مدل‌سازان هوش مصنوعی می‌تواند منجر به کنار گذاشتن ناخواسته تعدادی از موارد شود و سیستم‌های هوش مصنوعی قادر نخواهند بود کلاهبرداری حساب جدید را آشکار کنند.

پیامدهای احتمالی سوگیری‌های اغلب ناخواسته در سیستم‌های یادگیری ماشین برای موسسات مالی اهمیت زیادی خواهد داشت. چنین سوگیری‌هایی ممکن است منجر به افزایش اصطکاک مشتری، کاهش تجربیات خدمات مشتری، کاهش فروش و عایدات، اقدامات غیرقانونی احتمالی یا اقدامات غیرمنصفانه و تبعیض بالقوه شود.

از خودتان بپرسید آیا لازم است امکانی فراهم شود تا سازمان‌ها از هویت دیجیتالی یا شبکه اجتماعی برای قضاوت کردن درباره میزان مخارج شما یا احتمال بازپرداخت بدهی‌هایتان استفاده کنند؟

تصور کنید به دلیل آشنایی با شخص خاصی، حضور در محل خاصی، مطلبی که در فضای آنلاین پست کرده‌اید یا حتی تعداد دفعاتی که به مادرتان تلفن کرده‌اید، از دستیابی به کالاها و خدمات اضافی محروم شوید.

اعتماد به هوش مصنوعی

چندین مورد مشهور در این زمینه و به خصوص در حوزه امور مالی وجود دارد. نمره‌دهی اعتبار بر اساس هوش مصنوعی قرار است سوگیری را حذف کند. اما ویژگی‌هایی که در الگوریتم‌های اعتماد به هوش مصنوعی شامل شده یا از آن کنار گذاشته می‌شوند، برای ساخت امتیاز اعتبار به کار می‌رود که در تصمیم‌گیری‌های ماموران متعصب وام، تاثیرات مشابهی خواهد داشت.

مثلا وقتی شخصی در دبیرستان یا دانشگاه حضور می‌یابد، ممکن است مانند نماینده‌ای مناسب برای ثروت دیده شود. اما ممکن است دبیرستان با نژاد یا قومیت همبسته باشد. در این صورت استفاده از متغیر دبیرستان، بعضی از اقلیت‌ها را بنا به دلایلی که ربطی به ریسک اعتباری آنها ندارد، تنبیه خواهد کرد.

بعضی پژوهش‌ها نشان داده‌اند ارزشمندی اعتبار می‌تواند با موضوعی به سادگی این‌که از کامپیوتر مک استفاده می‌کنید یا کامپیوتر شخصی، پیش‌بینی شود. اما متغیرهای دیگری مانند کد پستی نیز به عنوان نماینده‌ای برای نژاد به کار می‌رود.

همچنین خریدهای فرد ممکن است اطلاعاتی درباره جنسیت او را آشکار کند. یکی از مثال‌های مشهور آن، کارت اپل است که سوگیری جنسیتی داشت. این کارت نرخ‌های سود بسیار متفاوت و محدودیت‌های اعتباری بسیار متفاوتی را به جنسیت‌های مختلف پیشنهاد می‌کرد و اعتبار بسیار بیشتری را به مردان اختصاص داد. با جعبه سیاه سنتی سیستم‌های هوش مصنوعی، تحلیل و درک اینکه سوگیری از کجا آغاز شده، دشوار خواهد بود.

بنابراین راه‌حل چیست؟ از کجا مطمئن شویم سیستم‌های هوش مصنوعی به کار رفته، بدون سوگیری هستند یا خیر؟ پاسخ اعتماد به هوش مصنوعی است.

هوش مصنوعی قابل اعتماد چیست؟

هوش مصنوعی قابل اعتماد، عبارتی است که برای توصیف هوش مصنوعی قانون گرا، اخلاق گرا، و دارای دقت فنی به کار می‌رود. ایده اعتماد به هوش مصنوعی این است که هوش مصنوعی زمانی می‌تواند به پتانسیل کامل خود دست یابد که بتوان به هر مرحله از طول عمر آن، از طراحی تا توسعه و از اجرا تا کاربرد، اعتماد کرد.

اجزاء مورد نیاز برای دستیابی به هوش مصنوعی قابل اعتماد

۱) حفظ حریم شخصی

علاوه بر اطمینان از این‌که حریم شخصی کاربران و داده‌های مربوط به آن به طور کامل حفاظت می‌شود، لازم است ساز و کاری برای کنترل دسترسی به اداره داده‌ها نیز وجود داشته باشد. همچنین باید کل طول عمر سیستم، از آموزش تا تولید در نظر گرفته شود، یعنی داده‌های شخصی که توسط خود کاربر تهیه می‌شود و اطلاعاتی که در دوره تعامل کاربر با سیستم، درباره او تولید می‌شود در نظر گرفته شود.

۲) دقت

سیستم‌های هوش مصنوعی باید انعطاف پذیر و ایمن باشند. آنها باید صحیح، قادر به در نظر گرفتن استثناها، اجرای خوب در طول زمان و باز تولید نتایج باشند. یک وجه مهم دیگر، حفاظت در برابر تهدیدها و حملات خصمانه است.

حمله هوش مصنوعی ممکن است داده‌ها، مدل یا زیرساخت‌ها را هدف بگیرد. در چنین حملاتی ممکن است داده‌ها و رفتار سیستم تغییر کند که سبب می‌شود سیستم، تصمیمات متفاوت یا اشتباهی بگیرد و حتی به طور کامل خاموش شود. برای اینکه سیستم هوش مصنوعی عملکرد دقیقی داشته باشد، لازم است رویکردی پیشگیرانه نسبت به ریسک‌ها داشته باشد تا آسیب را به حداقل رسانده و از آن پیشگیری کند.

۳) توانایی توضیح

درک، یکی از وجوه مهم ایجاد اعتماد است. لازم است درک کنیم سیستم‌های هوش مصنوعی چطور تصمیم می‌گیرند و کدام ویژگی‌ها برای فرآیند تصمیم‌گیری هر تصمیم، اهمیت دارد. توضیحاتی نیز لازم است تا درک افزایش یابد و همه ذینفعان بتوانند تصمیمات با اطلاع بگیرند.

مدل‌های هوش مصنوعی و تصمیمات آنها اغلب به دلیل مشکل درک کارایی داخلی آنها، به عنوان جعبه سیاه توصیف می‌شوند، حتی توسط متخصصان. ذینفعان شامل در چرخه عمر سیستم هوش مصنوعی باید بتوانند تصمیم بگیرند چرا هوش مصنوعی یک تصمیم مشخص را اتخاذ می‌کند و در کدام نقطه، ممکن است تصمیم متفاوتی بگیرد.

هنگام استفاده از یکی از سنجش‌های ریسک و آشکارسازی کلاهبرداری بر اساس هوش مصنوعی و بررسی هشدار لاگین/ معامله متوجه می‌شویم لازم است یک جعبه سیاه باز کنیم و درک کنیم چرا یک رویداد پرچم کلاهبرداری را به گونه‌ای که بتواند توسط انسان تفسیر شود، دریافت کرده است.

اعتماد به هوش مصنوعی قابل توضیح (XAI) روش‌های جدیدی برای آشکار کردن ویژگی‌های مهم به کار رفته در مدل پیشنهاد می‌دهد که موجب امتیاز ریسک بالا می‌شود. به این ترتیب تحلیل‌گر کلاهبرداری تصمیم می‌گیرد آیا اقدام بیشتری انجام دهد یا خیر، و با گذشت زمان، تغییر الگوها یا انواع جدید کلاهبرداری را بررسی می‌کند و می‌داند به کاربری که در فرایند پرداخت رد شد، چه بگوید.

همچنین لازم است توضیحات به گونه‌ای باشد که مناسب ذینفعان باشد زیرا افراد مختلف، به سطوح مختلفی از توضیحات نیاز دارند. وقتی سیستم‌های هوش مصنوعی قابل توضیح ساخته می‌شوند، ماموران اطلاعات باید تصمیم بگیرند کدام سطح از درک ذینفع لازم است.

آیا موسسات مالی باید پلتفرم‌های هوش مصنوعی بسازند که برای مهندسان، تیم حقوقی، ماموران تبعیت از قوانین یا ممیزهای آنها قابل توضیح باشد؟ مطابق نظر گارتنر تا سال ۲۰۲۵، سی درصد دولت و قراردادهای شرکتی بزرگ برای خرید محصولات و خدمات هوش مصنوعی، نیازمند استفاده از هوش مصنوعی هستند که قابل توضیح و اخلاقی باشد.

۴) انصاف

سیستم‌های هوش مصنوعی باید منصف، بدون سوگیری و قابل دسترسی برای همه باشند. سوگیری‌های پنهان در خطوط لوله هوش مصنوعی می‌توانند منجر به تبعیض و کنار گذاشتن گروه‌های آسیب پذیری شود که کمتر دیده شده‌اند. اطمینان از اینکه سیستم‌های هوش مصنوعی منصف هستند و همه حفاظت‌های مناسب علیه سوگیری و تبعیض را انجام داده‌اند منجر به برخورد برابرتری با همه کاربران و ذینفعان می‌شود.

۵) شفافیت

داده‌ها، سیستم‌ها و مدل‌های تجاری مربوط به هوش مصنوعی باید شفاف باشند. انسانها باید هنگام تعامل با سیستم هوش مصنوعی، آگاه باشند. هرچند قابلیت‌ها و محدودیت‌های سیستم هوش مصنوعی باید برای ذینفعان مرتبط و کاربران بالقوه، شفاف سازی شود. در نهایت، شفاف‌سازی در دستیابی به قابلیت ردیابی موثرتر، امکان ممیزی و نظارت، و ذی‌حسابی نیز به کار خواهد رفت.

ریسک‌های بالقوه در هوش مصنوعی نیازمند این است که همه ذینفعان در دولت، صنعت و بخش دانشگاهی به کار گرفته شوند تا از تنظیم مقررات موثر و استانداردسازی در این حوزه، اطمینان حاصل شود.

در اوایل امسال کمیسیون اروپایی، دستورالعمل‌های اخلاقی هوش مصنوعی قابل اعتماد را تهیه کرد. این دستورالعمل‌ها شامل اصولی برای اطمینان از این است که سیستم‌های هوش مصنوعی برای کاربر نهایی، منصف، امن، شفاف و سودمند هستند. همچنین موسسه ملی استانداردها و فناوری امریکا (NIST) در حال توسعه استانداردها و ابزارهایی برای اطمینان از قابلیت اعتماد هوش مصنوعی است.

هوش مصنوعی قابل اعتماد

راه‌های نزدیک شدن به هوش مصنوعی قابل اعتماد

۱) انجام سنجش‌های ریسک

این حوزه نسبت به گروه زیادی از کاربردهای هوش مصنوعی جدید است و شناسایی ریسک‌های مرتبط با آن می‌تواند چالش برانگیز باشد. دستورالعمل‌های اخلاق اتحادیه اروپا نیز درباره هوش مصنوعی قابل اعتماد، فهرست سنجش را تهیه می‌کند تا به شرکت‌ها کمک کند ریسک‌های مربوط به هوش مصنوعی را تعریف کنند.

۲) ایجاد فرآیندها

فرایندهای هوش مصنوعی قابل اعتماد باید در فرآیندهای مدیریت شرکت جای گیرد. سیاست‌های کنونی تطبیق داده می‌شوند تا انعکاسی از تاثیر بالقوه هوش مصنوعی در کسب‌وکار و کاربران آن باشد، به ویژه در رابطه با تاثیرات مغایر. طراحی سیاست‌های جدید تبعیت از قوانین باید شامل اندازه‌های کاهش نکات فنی و نظارت انسانی باشد.

۳) همکاری انسان و هوش مصنوعی

همکاری میان رشته‌هایی با گروه‌های ذینفع مختلف و متخصصان متفاوت سبب شده است سیستم هوش مصنوعی در تعریف نوع سیستم، داده‌ها و توضیحاتی که برای یک محتوای مشخص، سودمند یا ضروری باشند، اهمیت ویژه‌ای بیابد.

مشغولیت بیشتر بین سیاست‌گذاران، محققان و افرادی که سیستم‌های مجهز به هوش مصنوعی را اجرا می‌کنند برای ساخت محیط هوش مصنوعی قابل اعتماد، ضروری است.

۴) اداره داده‌ها

در سیستم‌های هوش مصنوعی، باید توسعه خطوط لوله کامل و اجرا در نظر گرفته شود. باید بررسی شود:

  • اهداف سیستم چگونه تنظیم می‌شوند؟
  • مدل چگونه آموزش می‌بیند؟
  • کدام حفاظت‌های امنیتی و حریم شخصی نیاز است؟
  • از کدام داده‌های کلان استفاده می‌شوند؟
  • دلالت‌های آن برای کاربر نهایی و جامعه چیست؟

همچنین توضیح اینکه کدام ویژگی‌ها و داده‌های آموزشی برای سیستم هوش مصنوعی استفاده شده‌اند؟ آیا این ویژگیها مناسب هستند و معرف جمعیت هستند یا خیر؟! می‌تواند اثر متقابلی بر انواع رایج سوگیری‌های هوش مصنوعی داشته باشد.

۵) نظارت و کنترل هوش مصنوعی

شرکت‌ها مسئول توسعه، اجرا و کاربرد فناوری‌ها و سیستم‌های هوش مصنوعی هستند. این سیستم‌ها باید در حین انجام کارهای خود، به صورت پیوسته سنجش و نظارت شوند، تا اطمینان حاصل شود سوگیری‌ها با گذشت زمان بر آنها تاثیر نگذاشته است. استفاده از منابع اضافی برای بررسی و نظارت بر مدل‌ها می‌تواند به آزمایش، ردیابی و مستندسازی توسعه آنها کمک کند و تعیین اعتبار و ممیزی آنها آسان‌تر شود.

۶) همکاری با اشخاص ثالث

علاوه بر سیستم‌های هوش مصنوعی که در خانه توسعه یافته‌اند، مواردی نیز وجود دارد که سیستم‌های هوش مصنوعی از سوی شرکای تجاری خارجی تهیه می‌شوند. در چنین مواردی باید همه طرفین حاضر در این کار نسبت به کار خود تعهد داشته باشند تا اطمینان حاصل شود سیستم قابل اعتماد است و از قوانین و مقررات کنونی تبعیت می‌کند. باید فرایندهای ممیزی تعیین شود تا خطرات بالقوه و تاثیرات مغایر آن بر کاربران نهایی در هنگام توسعه هوش مصنوعی در نظر گرفته شود.

۷) ترفیع آگاهی درباره اخلاقیات در هوش مصنوعی

هوش مصنوعی قابل اعتماد یکی از حوزه‌های میان رشته‌ای است. لازم است آگاهی درباره امور اخلاقی هوش مصنوعی در کل نیروی کار حوزه هوش مصنوعی افزایش یابد. خطرات و تاثیرات بالقوه هوش مصنوعی و شیوه‌های کاهش خطرات نیز باید توسط مدیران شرکت و مامورات اجرای قانون و کارمندانی که با کاربر نهایی صحبت می‌کنند، برای همه ذینفعان مرتبط توضیح داده شود.

برای امتیاز دادن کلیک کنید!
[تعداد نظر: ۰ میانگین: ۰]

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مرتبط

آخرین مقالات

عضویت در خبرنامه