به نظر شما اعتماد به هوش مصنوعی در عصر اخیر تا چه اندازه منطقی به نظر میرسد؟ در پاسخ به این سوال میتوان گفت که کاربرد یادگیری ماشین برای پشتیبانی از پردازش مجموعه دادههای بزرگ در بسیاری از صنایع از جمله خدمات مالی امکانپذیر است.
در حقیقت بیش از ۶۰ درصد از شرکتهایی که خدمات مالی ارائه میدهند، دست کم یکی از قابلیتهای هوش مصنوعی (AI) را به کار گرفتهاند. مثلا در برقراری ارتباط با مشتریان خود از طریق دستیار مجازی، تا خودکارسازی جریانهای کار کلیدی و حتی مدیریت کلاهبرداری و امنیت شبکه از اعتماد به هوش مصنوعی بهره گرفتهاند.
اما به نظر میرسد مبحث “جعبه سیاه” در هوش مصنوعی مطرح است که سبب میشود درک کمی از چگونگی کار سیستمها داشته باشیم. بنابراین نگرانیهایمان نیز درباره ابهام، تبعیض منصفانه، اخلاقیات و تهدیدهای حریم شخصی و خودمختاری افزایش خواهد یافت.
این کمبود شفافیت در این حوزه اغلب با سوگیریهای پنهانی نیز همراه است. همین امر نیز اعتماد به هوش مصنوعی را دشوار میکند. در ادامه بعضی از رایجترین انواع سوگیری در اعتماد به هوش مصنوعی را نام میبریم.
رایجترین انواع سوگیری در اعتماد به هوش مصنوعی
۱) سوگیری الگوریتم
این مورد وقتی اتفاق میافتد که مشکلی در الگوریتم وجود داشته باشد. زیرا سبب میشود که محاسباتی را اجرا کند که موجب قدرتمندی محاسبات یادگیری ماشینی شود.
۲) سوگیری نمونهگیری
این مورد نیز زمانی اتفاق میافتد که مشکلی در دادههای به کار رفته در آموزش مدل یادگیری ماشینی وجود داشته باشد. در این نوع سوءگیری، یا دادههای استفاده شده به قدر کافی بزرگ نیستند یا به قدر کافی معرف نیستند تا سیستم را آموزش دهند.
مثلا در آشکارسازی کلاهبرداری معمولا هر هفته ۷۰۰۰۰۰ رویداد دریافت میشود که فقط یکی از آنها کلاهبرداری است. از آنجا که اکثر رویدادها غیرکلاهبرداری است، نمونههای کافی در سیستم وجود ندارد تا بفهمیم کلاهبرداری به چه شکلی است. بنابراین ممکن است فرض کنیم همه معاملات، درست هستند.
از سوی دیگر، مواردی نیز وجود دارد که یک فروشنده، فقط رویدادها یا معاملاتی را به اشتراک میگذارد که از نظر او ریسکآمیز هستند. به این ترتیب همان مسئله سوءگیری برای آموزش مدلهای یادگیری ماشین پیش میآید. زیرا هیچ نمونهای وجود ندارد که نشان دهد یک معامله/ رویداد موثق به چه شکل است تا بتوان بین موارد درست و موارد کلاهبرداری، تمایز قائل شد.
۳) سوگیری تعصب
در این مورد از سوگیری در مورد اعتماد به هوش مصنوعی دادههای به کار رفته برای آموزش سیستم، بیانگر تعصبات، کلیشهها و یا فرضیات اجتماعی اشتباه موجود است. از این رو سوگیریهای مربوط به آن در جهان واقعی، به یادگیری ماشین نیز وارد میشود. یکی از مثالها در خدمات مالی، تحقیقات مربوط به ادعاهای خاص است.
تیم تحقیقات ویژه اغلب از مدیرانی که این ادعاها را مرور میکنند، درخواست تحقیقات بیشتر میکند. زیرا ادعاها از سوی تیم مدیریت مشکوک دیده شد و احتمال اینکه بازجویان ویژه بتوانند کلاهبرداری بودن یا نبودن آن را تعیین کنند، بیشتر است. هنگامی که این ادعاها در سیستم هوش مصنوعی با برچسب کلاهبردار وارد میشود، تعصبی از سوی بازجویان ویژه وجود دارد که در سیستم هوش مصنوعی جریان مییابد که با توجه به این دادهها، تصمیم میگیرد چه چیز را کلاهبرداری اعلام کند.
۴) سوگیری اندازهگیری
این سوگیری در اعتماد به هوش مصنوعی به دلیل مشکلات مربوط به صحت دادهها و چگونگی اندازهگیری یا سنجش آن ایجاد میشود. استفاده از تصاویر کارکنان خوشحال برای آموزش به سیستم به این معنی است که محیط کار را بسنجیم تا ببینیم آیا اگر کارکنان داخل تصویر بدانند قرار است میزان شادی آنها اندازهگیری شود، دچار سوگیری میشوند یا خیر.
سوگیری اندازهگیری دیگری نیز در زمان برچسب زدن داده به دلیل تفسیر ناسازگار اتفاق میافتد. مثلا اگر تیمی، معاملات را برچسب کلاهبرداری، مشکوک یا موثق بزند و شخصی دیگر معاملهای را برچسب کلاهبرداری بزند و شخص دیگری همان معامله را برچسب مشکوک بزند، منجر به برچسبها و دادههای ناسازگار خواهد شد.
۵) سوگیری استثنا
این مورد زمانی اتفاق میافتد که یکی از نقاط مهم داده، از دادههای به کار رفته، کنار گذاشته شود. اگر مدل سازان، نقطه داده به کار رفته را تشخیص ندهند، این اتفاق رخ خواهد داد. یکی از مثالهای مرتبط، کلاهبرداری حساب جدید است. مثلا مواردی که حساب توسط شخصی شرور یا با استفاده از هویت ساختگی یا دزدی ساخته شد یا یک حساب صحیح برای هدف کلاهبرداری مورد استفاده قرار گرفت.
در زمان گشودن حساب جدید، دادههای کافی درباره حساب وجود ندارد. زیرا بیشتر مدلسازان فقط پس از اینکه تعداد از پیش تعریف شدهای از معاملات رخ داد، شروع به پردازش دادهها میکنند.
اما مطابق نظر متخصصان دامین، اولین معاملاتی که بلافاصله پردازش نمیشوند، از جمله مهمترین موارد هستند. عدم ارتباط درست بین متخصصان دامین و مدلسازان هوش مصنوعی میتواند منجر به کنار گذاشتن ناخواسته تعدادی از موارد شود و سیستمهای هوش مصنوعی قادر نخواهند بود کلاهبرداری حساب جدید را آشکار کنند.
پیامدهای احتمالی سوگیریهای اغلب ناخواسته در سیستمهای یادگیری ماشین برای موسسات مالی اهمیت زیادی خواهد داشت. چنین سوگیریهایی ممکن است منجر به افزایش اصطکاک مشتری، کاهش تجربیات خدمات مشتری، کاهش فروش و عایدات، اقدامات غیرقانونی احتمالی یا اقدامات غیرمنصفانه و تبعیض بالقوه شود.
از خودتان بپرسید آیا لازم است امکانی فراهم شود تا سازمانها از هویت دیجیتالی یا شبکه اجتماعی برای قضاوت کردن درباره میزان مخارج شما یا احتمال بازپرداخت بدهیهایتان استفاده کنند؟
تصور کنید به دلیل آشنایی با شخص خاصی، حضور در محل خاصی، مطلبی که در فضای آنلاین پست کردهاید یا حتی تعداد دفعاتی که به مادرتان تلفن کردهاید، از دستیابی به کالاها و خدمات اضافی محروم شوید.
چندین مورد مشهور در این زمینه و به خصوص در حوزه امور مالی وجود دارد. نمرهدهی اعتبار بر اساس هوش مصنوعی قرار است سوگیری را حذف کند. اما ویژگیهایی که در الگوریتمهای اعتماد به هوش مصنوعی شامل شده یا از آن کنار گذاشته میشوند، برای ساخت امتیاز اعتبار به کار میرود که در تصمیمگیریهای ماموران متعصب وام، تاثیرات مشابهی خواهد داشت.
مثلا وقتی شخصی در دبیرستان یا دانشگاه حضور مییابد، ممکن است مانند نمایندهای مناسب برای ثروت دیده شود. اما ممکن است دبیرستان با نژاد یا قومیت همبسته باشد. در این صورت استفاده از متغیر دبیرستان، بعضی از اقلیتها را بنا به دلایلی که ربطی به ریسک اعتباری آنها ندارد، تنبیه خواهد کرد.
بعضی پژوهشها نشان دادهاند ارزشمندی اعتبار میتواند با موضوعی به سادگی اینکه از کامپیوتر مک استفاده میکنید یا کامپیوتر شخصی، پیشبینی شود. اما متغیرهای دیگری مانند کد پستی نیز به عنوان نمایندهای برای نژاد به کار میرود.
همچنین خریدهای فرد ممکن است اطلاعاتی درباره جنسیت او را آشکار کند. یکی از مثالهای مشهور آن، کارت اپل است که سوگیری جنسیتی داشت. این کارت نرخهای سود بسیار متفاوت و محدودیتهای اعتباری بسیار متفاوتی را به جنسیتهای مختلف پیشنهاد میکرد و اعتبار بسیار بیشتری را به مردان اختصاص داد. با جعبه سیاه سنتی سیستمهای هوش مصنوعی، تحلیل و درک اینکه سوگیری از کجا آغاز شده، دشوار خواهد بود.
بنابراین راهحل چیست؟ از کجا مطمئن شویم سیستمهای هوش مصنوعی به کار رفته، بدون سوگیری هستند یا خیر؟ پاسخ اعتماد به هوش مصنوعی است.
هوش مصنوعی قابل اعتماد چیست؟
هوش مصنوعی قابل اعتماد، عبارتی است که برای توصیف هوش مصنوعی قانون گرا، اخلاق گرا، و دارای دقت فنی به کار میرود. ایده اعتماد به هوش مصنوعی این است که هوش مصنوعی زمانی میتواند به پتانسیل کامل خود دست یابد که بتوان به هر مرحله از طول عمر آن، از طراحی تا توسعه و از اجرا تا کاربرد، اعتماد کرد.
اجزاء مورد نیاز برای دستیابی به هوش مصنوعی قابل اعتماد
۱) حفظ حریم شخصی
علاوه بر اطمینان از اینکه حریم شخصی کاربران و دادههای مربوط به آن به طور کامل حفاظت میشود، لازم است ساز و کاری برای کنترل دسترسی به اداره دادهها نیز وجود داشته باشد. همچنین باید کل طول عمر سیستم، از آموزش تا تولید در نظر گرفته شود، یعنی دادههای شخصی که توسط خود کاربر تهیه میشود و اطلاعاتی که در دوره تعامل کاربر با سیستم، درباره او تولید میشود در نظر گرفته شود.
۲) دقت
سیستمهای هوش مصنوعی باید انعطاف پذیر و ایمن باشند. آنها باید صحیح، قادر به در نظر گرفتن استثناها، اجرای خوب در طول زمان و باز تولید نتایج باشند. یک وجه مهم دیگر، حفاظت در برابر تهدیدها و حملات خصمانه است.
حمله هوش مصنوعی ممکن است دادهها، مدل یا زیرساختها را هدف بگیرد. در چنین حملاتی ممکن است دادهها و رفتار سیستم تغییر کند که سبب میشود سیستم، تصمیمات متفاوت یا اشتباهی بگیرد و حتی به طور کامل خاموش شود. برای اینکه سیستم هوش مصنوعی عملکرد دقیقی داشته باشد، لازم است رویکردی پیشگیرانه نسبت به ریسکها داشته باشد تا آسیب را به حداقل رسانده و از آن پیشگیری کند.
۳) توانایی توضیح
درک، یکی از وجوه مهم ایجاد اعتماد است. لازم است درک کنیم سیستمهای هوش مصنوعی چطور تصمیم میگیرند و کدام ویژگیها برای فرآیند تصمیمگیری هر تصمیم، اهمیت دارد. توضیحاتی نیز لازم است تا درک افزایش یابد و همه ذینفعان بتوانند تصمیمات با اطلاع بگیرند.
مدلهای هوش مصنوعی و تصمیمات آنها اغلب به دلیل مشکل درک کارایی داخلی آنها، به عنوان جعبه سیاه توصیف میشوند، حتی توسط متخصصان. ذینفعان شامل در چرخه عمر سیستم هوش مصنوعی باید بتوانند تصمیم بگیرند چرا هوش مصنوعی یک تصمیم مشخص را اتخاذ میکند و در کدام نقطه، ممکن است تصمیم متفاوتی بگیرد.
هنگام استفاده از یکی از سنجشهای ریسک و آشکارسازی کلاهبرداری بر اساس هوش مصنوعی و بررسی هشدار لاگین/ معامله متوجه میشویم لازم است یک جعبه سیاه باز کنیم و درک کنیم چرا یک رویداد پرچم کلاهبرداری را به گونهای که بتواند توسط انسان تفسیر شود، دریافت کرده است.
اعتماد به هوش مصنوعی قابل توضیح (XAI) روشهای جدیدی برای آشکار کردن ویژگیهای مهم به کار رفته در مدل پیشنهاد میدهد که موجب امتیاز ریسک بالا میشود. به این ترتیب تحلیلگر کلاهبرداری تصمیم میگیرد آیا اقدام بیشتری انجام دهد یا خیر، و با گذشت زمان، تغییر الگوها یا انواع جدید کلاهبرداری را بررسی میکند و میداند به کاربری که در فرایند پرداخت رد شد، چه بگوید.
همچنین لازم است توضیحات به گونهای باشد که مناسب ذینفعان باشد زیرا افراد مختلف، به سطوح مختلفی از توضیحات نیاز دارند. وقتی سیستمهای هوش مصنوعی قابل توضیح ساخته میشوند، ماموران اطلاعات باید تصمیم بگیرند کدام سطح از درک ذینفع لازم است.
آیا موسسات مالی باید پلتفرمهای هوش مصنوعی بسازند که برای مهندسان، تیم حقوقی، ماموران تبعیت از قوانین یا ممیزهای آنها قابل توضیح باشد؟ مطابق نظر گارتنر تا سال ۲۰۲۵، سی درصد دولت و قراردادهای شرکتی بزرگ برای خرید محصولات و خدمات هوش مصنوعی، نیازمند استفاده از هوش مصنوعی هستند که قابل توضیح و اخلاقی باشد.
۴) انصاف
سیستمهای هوش مصنوعی باید منصف، بدون سوگیری و قابل دسترسی برای همه باشند. سوگیریهای پنهان در خطوط لوله هوش مصنوعی میتوانند منجر به تبعیض و کنار گذاشتن گروههای آسیب پذیری شود که کمتر دیده شدهاند. اطمینان از اینکه سیستمهای هوش مصنوعی منصف هستند و همه حفاظتهای مناسب علیه سوگیری و تبعیض را انجام دادهاند منجر به برخورد برابرتری با همه کاربران و ذینفعان میشود.
۵) شفافیت
دادهها، سیستمها و مدلهای تجاری مربوط به هوش مصنوعی باید شفاف باشند. انسانها باید هنگام تعامل با سیستم هوش مصنوعی، آگاه باشند. هرچند قابلیتها و محدودیتهای سیستم هوش مصنوعی باید برای ذینفعان مرتبط و کاربران بالقوه، شفاف سازی شود. در نهایت، شفافسازی در دستیابی به قابلیت ردیابی موثرتر، امکان ممیزی و نظارت، و ذیحسابی نیز به کار خواهد رفت.
ریسکهای بالقوه در هوش مصنوعی نیازمند این است که همه ذینفعان در دولت، صنعت و بخش دانشگاهی به کار گرفته شوند تا از تنظیم مقررات موثر و استانداردسازی در این حوزه، اطمینان حاصل شود.
در اوایل امسال کمیسیون اروپایی، دستورالعملهای اخلاقی هوش مصنوعی قابل اعتماد را تهیه کرد. این دستورالعملها شامل اصولی برای اطمینان از این است که سیستمهای هوش مصنوعی برای کاربر نهایی، منصف، امن، شفاف و سودمند هستند. همچنین موسسه ملی استانداردها و فناوری امریکا (NIST) در حال توسعه استانداردها و ابزارهایی برای اطمینان از قابلیت اعتماد هوش مصنوعی است.
راههای نزدیک شدن به هوش مصنوعی قابل اعتماد
۱) انجام سنجشهای ریسک
این حوزه نسبت به گروه زیادی از کاربردهای هوش مصنوعی جدید است و شناسایی ریسکهای مرتبط با آن میتواند چالش برانگیز باشد. دستورالعملهای اخلاق اتحادیه اروپا نیز درباره هوش مصنوعی قابل اعتماد، فهرست سنجش را تهیه میکند تا به شرکتها کمک کند ریسکهای مربوط به هوش مصنوعی را تعریف کنند.
۲) ایجاد فرآیندها
فرایندهای هوش مصنوعی قابل اعتماد باید در فرآیندهای مدیریت شرکت جای گیرد. سیاستهای کنونی تطبیق داده میشوند تا انعکاسی از تاثیر بالقوه هوش مصنوعی در کسبوکار و کاربران آن باشد، به ویژه در رابطه با تاثیرات مغایر. طراحی سیاستهای جدید تبعیت از قوانین باید شامل اندازههای کاهش نکات فنی و نظارت انسانی باشد.
۳) همکاری انسان و هوش مصنوعی
همکاری میان رشتههایی با گروههای ذینفع مختلف و متخصصان متفاوت سبب شده است سیستم هوش مصنوعی در تعریف نوع سیستم، دادهها و توضیحاتی که برای یک محتوای مشخص، سودمند یا ضروری باشند، اهمیت ویژهای بیابد.
مشغولیت بیشتر بین سیاستگذاران، محققان و افرادی که سیستمهای مجهز به هوش مصنوعی را اجرا میکنند برای ساخت محیط هوش مصنوعی قابل اعتماد، ضروری است.
۴) اداره دادهها
در سیستمهای هوش مصنوعی، باید توسعه خطوط لوله کامل و اجرا در نظر گرفته شود. باید بررسی شود:
- اهداف سیستم چگونه تنظیم میشوند؟
- مدل چگونه آموزش میبیند؟
- کدام حفاظتهای امنیتی و حریم شخصی نیاز است؟
- از کدام دادههای کلان استفاده میشوند؟
- دلالتهای آن برای کاربر نهایی و جامعه چیست؟
همچنین توضیح اینکه کدام ویژگیها و دادههای آموزشی برای سیستم هوش مصنوعی استفاده شدهاند؟ آیا این ویژگیها مناسب هستند و معرف جمعیت هستند یا خیر؟! میتواند اثر متقابلی بر انواع رایج سوگیریهای هوش مصنوعی داشته باشد.
۵) نظارت و کنترل هوش مصنوعی
شرکتها مسئول توسعه، اجرا و کاربرد فناوریها و سیستمهای هوش مصنوعی هستند. این سیستمها باید در حین انجام کارهای خود، به صورت پیوسته سنجش و نظارت شوند، تا اطمینان حاصل شود سوگیریها با گذشت زمان بر آنها تاثیر نگذاشته است. استفاده از منابع اضافی برای بررسی و نظارت بر مدلها میتواند به آزمایش، ردیابی و مستندسازی توسعه آنها کمک کند و تعیین اعتبار و ممیزی آنها آسانتر شود.
۶) همکاری با اشخاص ثالث
علاوه بر سیستمهای هوش مصنوعی که در خانه توسعه یافتهاند، مواردی نیز وجود دارد که سیستمهای هوش مصنوعی از سوی شرکای تجاری خارجی تهیه میشوند. در چنین مواردی باید همه طرفین حاضر در این کار نسبت به کار خود تعهد داشته باشند تا اطمینان حاصل شود سیستم قابل اعتماد است و از قوانین و مقررات کنونی تبعیت میکند. باید فرایندهای ممیزی تعیین شود تا خطرات بالقوه و تاثیرات مغایر آن بر کاربران نهایی در هنگام توسعه هوش مصنوعی در نظر گرفته شود.
۷) ترفیع آگاهی درباره اخلاقیات در هوش مصنوعی
هوش مصنوعی قابل اعتماد یکی از حوزههای میان رشتهای است. لازم است آگاهی درباره امور اخلاقی هوش مصنوعی در کل نیروی کار حوزه هوش مصنوعی افزایش یابد. خطرات و تاثیرات بالقوه هوش مصنوعی و شیوههای کاهش خطرات نیز باید توسط مدیران شرکت و مامورات اجرای قانون و کارمندانی که با کاربر نهایی صحبت میکنند، برای همه ذینفعان مرتبط توضیح داده شود.