تعریف هوش مصنوعی
قبل از شروع آشنایی با چالشها، بیاید به تعریف AI بپردازیم و ببینیم که هوش مصنوعی چیست؟ هوش مصنوعی یا AI مخفف Artificial Intelligence)) به هرگونه نرمافزار یا سیستم کامپیوتری اطلاق میشود که به طور خودکار و هوشمندانه میتواند وظایفی را انجام دهد که نیاز به فهم و تصمیمات انسانی دارند. هدف از توسعه هوش مصنوعی ایجاد سیستمها و برنامههایی است که قادرند اطلاعات را تحلیل کنند و به تصمیماتی منطقی و هوشمندانه برسند.
هوش مصنوعی از مجموعه مفاهیم و تکنیکهای مختلفی مانند یادگیری ماشین، شبکههای عصبی، پردازش زبان طبیعی و بینایی ماشین استفاده میکند. این فناوریها امکان تشخیص الگوها، پیشبینی رویدادها، ترجمه زبانها، تصویربرداری و بسیاری از وظایف دیگر را فراهم میکنند.
به عنوان مثال، سیستمهای پردازش گفتار مانند Siri از اپل، Cortana از مایکروسافت و Google Assistant از گوگل از تکنولوژیهای هوش مصنوعی برای تشخیص و پردازش گفتار انسانی استفاده میکنند.
امروزه کاربردهای هوش مصنوعی در بسیاری از فعالیتهای اقتصادی از جمله خرید و تبلیغات آنلاین، جستجوی وب، دستیارهای شخصی دیجیتال، ترجمه زبان، خانههای هوشمند و زیرساختها، سلامت، حملونقل و تولید رایج هستند.
خطرات و مزایای هوش مصنوعی
هوش مصنوعی این پتانسیل را دارد که مزایای بزرگی را به همراه آورد، به عنوان مثال در علوم پزشکی، آموزش، توزیع مواد غذایی و کمکرسانی، حمل و نقل عمومی و مقابله با تغییرات آب و هوایی.
اگر این تکنولوژی بهدرستی استفاده شود، میتواند به بشریت کمک کند تا به اهداف توسعه پایدار ۲۰۳۰ سازمان ملل برسد و بسیاری از فرآیندها را سریعتر، عادلانهتر و کارآمدتر انجام دهد. این فناوری احتمالاً به اندازه انقلاب صنعتی در تاریخ بشر دگرگونی ایجاد خواهد کرد.
با این حال، چالش های استفاده از هوش مصنوعی مانند چالش های اخلاقی هوش مصنوعی، چالش های امنیتی هوش مصنوعی و چالش های حقوقی هوش مصنوعی را نمیتوان نادیده گرفت.
آیا هوش مصنوعی ابزاری خواهد بود که افراد ثروتمند را ثروتمندتر کند؟ آیا تعصب و تبعیض را اغراقآمیزتر خواهد کرد؟ آیا تصمیمگیری هوش مصنوعی منجر به ایجاد جامعهای خواهد شد که دلسوزی کمتری دارد؟ آیا باید محدودیتهایی برای تصمیماتی ایجاد کرد که یک سیستم هوش مصنوعی می تواند به طور مستقل اتخاذ کند، از سبقت گرفتن از خودروها در بزرگراهها گرفته تا شلیک گلوله؟
و اگر هوش مصنوعی اشتباه کند – برای مثال اگر یک ماشین خودران تصادف کند – چه کسی باید مسئول باشد؟
برای اطمینان از استفاده ایمن و منصفانه از هوش مصنوعی، مقررات به روز و دقیق مورد نیاز است. در ادامه با انواع چالش های هوش مصنوعی در ایران و جهان آشنا خواهیم شد.
بیشتر بخوانید: خطرات هوش مصنوعی
چالش های استفاده از هوش مصنوعی
مهمترین چالش های هوش مصنوعی در ایران و جهان عبارتند از:
۱. عدم شفافیت هوش مصنوعی
عدم شفافیت در سیستمهای هوش مصنوعی، بهویژه در مدلهای یادگیری عمیق که میتواند پیچیده و تفسیر آن دشوار باشد، یک مسئله مبرم است. این عدم شفافیت، فرآیندهای تصمیمگیری و منطق زیربنایی این فناوری مدرن را مبهم میکند.
وقتی مردم نتوانند درک کنند که چگونه یک سیستم هوش مصنوعی به نتایج ارائه شده میرسد، میتواند منجر به بیاعتمادی و مقاومت در برابر پذیرش این فناوریها شود.
۲. چالش های اخلاقی هوش مصنوعی
هوش مصنوعی پیامدهای اخلاقی جدی دارد. از آنجایی که هوش مصنوعی یادگیری خود را توسعه میدهد، این پیامدها ممکن است تا زمانی که به کار گرفته نشود، برای مردم مشهود نباشند. هوش مصنوعی از برخی جهتها مملو از مشکلات اخلاقی است: نقض حریم خصوصی، پورن دیپ فیک و دخیل کردن تعصب و تبعیض از مهمترین چالش های اخلاقی هوش مصنوعی است.
بنابراین شناسایی و کاهش خطرات اخلاقی در حین طراحی و توسعه هوش مصنوعی و به صورت مداوم پس از استفاده از آن بسیار مهم است.
اما بسیاری از طراحان هوش مصنوعی در یک زمینه رقابتی و سود محور کار میکنند که در آن سرعت و کارایی با ارزش است و تاخیر (از نوعی که در مقررات و بررسی اخلاقی دلالت دارد) پرهزینه و در نتیجه نامطلوب تلقی میشود.
۳. تعصب و تبعیض
یکی دیگر از چالش های هوش مصنوعی، دخیل کردن تبعیض نژادی و جنسیتی است. سیستمهای هوش مصنوعی میتوانند ناخواسته به دلیل دادههای آموزشی یا طراحی الگوریتمی تعصبات اجتماعی را تداوم بدهند یا تقویت کنند. برای به حداقل رساندن تبعیض و اطمینان از عدالت، سرمایهگذاری در توسعه الگوریتمهای بیطرفانه و مجموعه دادههای آموزشی متنوع بسیار مهم است.
۴. نگرانیهای حفظ حریم خصوصی
فناوریهای هوش مصنوعی معمولاً مقادیر زیادی از دادههای شخصی را جمعآوری و تجزیه و تحلیل میکنند و مسائل مربوط به حریم خصوصی و امنیت دادهها را مطرح میکنند. برای کاهش خطرات حریم خصوصی، باید از مقررات سختگیرانه حفاظت از دادهها و شیوه های ایمن رسیدگی به دادهها دفاع کنیم.
۵. چالش های امنیتی هوش مصنوعی
هر چه فناوریهای هوش مصنوعی پیچیدهتر میشوند، خطرات امنیتی مرتبط با استفاده از آنها و احتمال سوء استفاده نیز افزایش مییابد. هکرها و عوامل مخرب میتوانند از قدرت هوش مصنوعی برای توسعه حملات سایبری پیشرفتهتر، دور زدن اقدامات امنیتی و سوء استفاده از آسیبپذیریهای سیستمها استفاده کنند.
همچنین ظهور تسلیحات خودمختار مبتنی بر هوش مصنوعی نگرانیهایی را در مورد خطرات کشورهای تروریستی یا افراد تروریست ایجاد میکند که از این فناوری استفاده میکنند، بهویژه زمانی که از دست دادن بالقوه کنترل انسانی در فرآیندهای تصمیمگیری حیاتی را در نظر بگیریم. برای کاهش این خطرات امنیتی، دولتها و سازمانها باید بهترین شیوهها را برای توسعه و استقرار ایمن هوش مصنوعی توسعه دهند و همکاری بینالمللی را برای ایجاد هنجارها و مقررات جهانی که از تهدیدات امنیتی هوش مصنوعی محافظت میکنند، تقویت کنند.
۶. چالش تمرکز قدرت برای هوش مصنوعی
خطر توسعه هوش مصنوعی تحت سلطه تعداد کمی از شرکت ها و دولتهای بزرگ میتواند نابرابری را تشدید کند و تنوع را در برنامههای کاربردی هوش مصنوعی محدود کند. تشویق توسعه غیرمتمرکز و مشارکتی هوش مصنوعی کلیدی برای جلوگیری از تمرکز قدرت است.
۷. چالش وابستگی به هوش مصنوعی
اتکای بیش از حد به سیستمهای هوش مصنوعی ممکن است منجر به از دست دادن خلاقیت، مهارتهای تفکر انتقادی و شهود انسانی شود. ایجاد تعادل بین تصمیمگیری به کمک هوش مصنوعی و ورودی انسانی برای حفظ تواناییهای شناختی ما حیاتی است.
۸. هوش مصنوعی و چالش از دست دادن شغل
اتوماسیون مبتنی بر هوش مصنوعی این پتانسیل را دارد که منجر به از دست دادن شغل در صنایع مختلف، به ویژه برای کارگران کم مهارت شود (اگرچه شواهدی وجود دارد که هوش مصنوعی و سایر فناوریهای نوظهور، مشاغل بیشتری ایجاد میکنند).
همانطور که فناوریهای هوش مصنوعی به توسعه بیشتر و کارآمدتر شدن ادامه میدهند، نیروی کار باید با تطبیق و کسب مهارتهای جدید در چشمانداز در حال تغییر مرتبط باقی بماند. این امر به ویژه برای کارگران با مهارت پایین در نیروی کار فعلی صادق است.
بیشتر بخوانید: اهداف هوش مصنوعی
۹. چالش نابرابری اقتصادی هوش مصنوعی
هوش مصنوعی این پتانسیل را دارد که با سودرسانی به افراد و شرکتهای ثروتمند به نابرابری اقتصادی کمک کند. همانطور که در بالا در مورد آن صحبت کردیم، از دست دادن شغل به دلیل اتوماسیون مبتنی بر هوش مصنوعی بیشتر بر کارگران کم مهارت تأثیر میگذارد و منجر به شکاف درآمدی فزاینده و کاهش فرصتهای تحرک اجتماعی میشود.
تمرکز توسعه و مالکیت هوش مصنوعی در تعداد کمی از شرکتها و دولتهای بزرگ میتواند این نابرابری را تشدید کند زیرا آنها ثروت و قدرت را انباشته میکنند در حالی که کسبوکارهای کوچکتر برای رقابت تلاش میکنند. سیاستها و ابتکاراتی که برابری اقتصادی را ترویج میکنند – مانند برنامههای مهارتآموزی مجدد، شبکههای ایمنی اجتماعی، و توسعه فراگیر هوش مصنوعی که توزیع متعادلتر فرصتها را تضمین میکند – میتوانند به مبارزه با نابرابری اقتصادی کمک کنند.
۱۰. چالش های حقوقی هوش مصنوعی
ایجاد چارچوبها و مقررات قانونی جدید برای رسیدگی به مسائل منحصر به فرد ناشی از فناوریهای هوش مصنوعی، از جمله مسئولیت و حقوق مالکیت معنوی، بسیار مهم است. سیستمهای حقوقی باید به گونهای تکامل یابند که همگام با پیشرفتهای تکنولوژیک باشند و از حقوق همه محافظت کنند.
۱۱. مسابقه تسلیحاتی هوش مصنوعی
خطر شرکت در مسابقه تسلیحاتی هوش مصنوعی میتواند منجر به توسعه سریع فناوریهای هوش مصنوعی با پیامدهای مضر شود.
اخیراً، بیش از هزار محقق و رهبر فناوری، از جمله استیو وزنیاک، بنیانگذار اپل، از آزمایشگاههای اطلاعاتی خواستهاند تا توسعه سیستمهای هوش مصنوعی پیشرفته را متوقف کنند. در این نامه آمده است که ابزارهای هوش مصنوعی خطرات عمیقی برای جامعه و بشریت دارند.
۱۲. از دست دادن ارتباط انسانی با هوش مصنوعی
یکی دیگر از چالش های هوش مصنوعی در ایران و جهان، از دست دادن ارتباطهای انسانها با یکدیگر است. افزایش اتکا به ارتباطات و تعاملات مبتنی بر هوش مصنوعی میتواند منجر به کاهش همدلی، مهارتهای اجتماعی و ارتباطات انسانی شود. ما باید برای حفظ جوهر ماهیت اجتماعی خود و برای حفظ تعادل بین فناوری و تعامل انسانی تلاش کنیم.
۱۳. اطلاعات غلط و دستکاریشده
محتوای تولید شده توسط هوش مصنوعی، مانند دیپ فیک، به انتشار اطلاعات نادرست و دستکاری افکار عمومی منجر میشود. تلاش برای شناسایی و مبارزه با اطلاعات نادرست تولید شده توسط هوش مصنوعی برای حفظ یکپارچگی اطلاعات در عصر دیجیتال بسیار مهم است.
محققان در مطالعهای که در دانشگاه استنفورد در مورد مهم ترین خطرات هوش مصنوعی انجام دادهاند، اذعان میدارند که:
«سیستمهای هوش مصنوعی در خدمت اطلاعات نادرست در اینترنت استفاده میشوند و این امر به آنها امکان تبدیل شدن به تهدیدی برای دموکراسی و ابزاری برای فاشیسم را میدهند. از ویدیوهای دیپفیک گرفته تا رباتهای آنلاین که با جعل اجماع و انتشار اخبار جعلی، گفتمان عمومی را دستکاری میکنند، این خطر وجود دارد که سیستمهای هوش مصنوعی اعتماد اجتماعی را تضعیف کنند. این فناوری میتواند توسط جنایتکاران، دولتهای سرکش، افراطگرایان ایدئولوژیک، یا صرفاً گروههای ذینفع خاص برای دستکاری ذهن مردم برای منافع اقتصادی یا منافع سیاسی مورد استفاده قرار گیرد.»
۱۴. چالشهای ذهنی وجود انسان با توسعه هوش مصنوعی
توسعه هوش عمومی مصنوعی (AGI) که از هوش انسانی پیشی میگیرد، نگرانی های طولانی مدتی را برای بشریت ایجاد میکند. چشمانداز AGI میتواند منجر به عواقب ناخواسته و فاجعهبار شود، زیرا این سیستمهای پیشرفته هوش مصنوعی ممکن است با ارزشها یا اولویتهای انسانی همسو نباشند.
برای کاهش این خطرات، جامعه تحقیقاتی هوش مصنوعی باید به طور فعال در تحقیقات ایمنی شرکت کند، در دستورالعملهای اخلاقی همکاری کند و شفافیت در توسعه AGI را ارتقا دهد. اطمینان از اینکه AGI در خدمت بهترین منافع بشریت است و تهدیدی برای موجودیت ما ایجاد نمی کند، بسیار مهم است.
۱۵. هوش مصنوعی و تغییرات آب و هوایی
هوش مصنوعی می تواند هم تأثیرات مثبت و هم منفی بر محیط زیست داشته باشد.
هوش مصنوعی در تلاش برای کاهش انتشار کربن، کمک به طراحی روشهای تولید کربن کمتر، شبکههای برق «هوشمند» و زیرساختهای کارآمدتر، کاربردهای مفیدی دارد.
اما این تکنولوژی خود یکی از عوامل انتشاردهنده کربن است که به قدرت محاسباتی قابل توجهی نیاز دارد. نگرانیهایی وجود دارد که مدلهای یادگیری ماشین کنونی از دادههای بیشتری استفاده کنند و مقادیر زیادی داده ذخیره کنند و هزینههای انتشار کربن و برق قابلتوجهی را در این فرآیند ایجاد کنند.
مسئولیت زیستمحیطی عمدتاً از نگرانیهای مهم در مورد سیستمهای هوش مصنوعی است. تاکنون، بیشتر استراتژیهای هوش مصنوعی به جای حفاظت از محیط زیست، بر بهرهبرداری از پتانسیل اقتصادی هوش مصنوعی تمرکز دارند.
۱۶. چالش های هوش مصنوعی برای رسانههای اجتماعی
الگوریتمهایی که تصمیم میگیرند ما به عنوان کاربر چه چیزی را در فیدهای رسانه های اجتماعی خود ببینیم، یکی از شکلهای هوش مصنوعی هستند. آنها عمدتاً توسط منافع تجاری تبلیغکنندگان هدایت میشوند که از طریق معیارهایی مانند کلیک و لایک نشان داده میشوند.
در تعقیب کلیکها، شرکتهای رسانههای اجتماعی این قدرت و احتمالاً انگیزه استفاده از هوش مصنوعی را دارند تا نه تنها رفتار کاربران خود را پیشبینی کنند، بلکه روی آن نیز تأثیر بگذارند – شرایطی را که مردم بر اساس آن کالاها و خدمات را کشف میکنند و حتی روشی که آنها در بحث های سیاسی شرکت میکنند.
این خطر وجود دارد که الگوریتمهای هوش مصنوعی در رسانههای اجتماعی تعصب موجود را تشدید کنند، محتوای هیجانانگیز، افراطی و گمراهکننده را در اولویت قرار دهند و کاربران را از دیدگاههای جایگزین دور نگه دارند.
آنها توانایی دستکاری دیدگاه های شخصی و سیاسی ما را دارند و بنابراین دموکراسی و جوامع ما را تحریف میکنند.
و در پایان این که…
ایجاد اعتماد نسبت هوش مصنوعی دشوار خواهد بود، در حالی که استفاده از این تکنولوژی هیچ چارچوب قانونی ندارد و چالشهای زیادی پیرامون اخلاق، تعصب، حریم خصوصی و سایر عوامل وجود دارد. با وجود همه چالش های هوش مصنوعی، کارکرد آن برای کسبوکارها بسیار مفید بوده است. از احراز هویت کاربران وبسایتهای فروشگاهی گرفته تا تشخیص چهره کاربران سازمانهای دولتی، هوش مصنوعی به پیشبرد سریعتر بسیاری از کارها کمک بسزایی کرده است.
استفاده از هوش مصنوعی و بهرهبری از کاربردهای مثبت آن را میتوان در احراز هویت یوآیدی به خوبی مشاهده کرد. پلتفرم یوآیدی از الگوریتمهای هوش مصنوعی استفاده میکند تا کاربران مسیر راحتتری برای احراز هویت ثنا، احراز هویت سجام و احراز هویت اداره کار داشته باشند و بدون اتلاف وقت و معطل شدن در سازمانها، از منزل ثبت نام خود را انجام دهند.
سوالات متداول
مسائل اخلاقی در هوش مصنوعی شامل حفظ حریم خصوصی، تبعیض و عدالت در تصمیمگیریهای هوش مصنوعی، تأثیرات اجتماعی و اقتصادی هوش مصنوعی بر جامعه و سایر مسائل مربوط به اخلاقیات است.
چالشهای امنیتی در هوش مصنوعی شامل مسائلی همچون محافظت از دادههای حساس، پیشگیری از تقلب و حملات سایبری به سیستمهای هوش مصنوعی میشود.
یکی از بزرگترین چالشهایی که هوش مصنوعی ، مشکل توضیحپذیری یا چگونگی شفافسازی، تفسیرپذیری و پاسخگو کردن سیستمهای هوش مصنوعی برای اعمال و تصمیمهایشان است.
1 دیدگاه دربارهٔ «چالش های هوش مصنوعی»
سلام. مطلب بسیار خوبی بود. من به نظرم چالش تبعیض نژادی هوش مصنوعی خیلی مهمه و به شخصه این موضوع رو دیدم.