مضرات هوش مصنوعی
همان طور که احتمالا شنیدهاید، هوش مصنوعی مخالفان و موافقان زیادی در کل جهان دارد که هر یک دلیل و استنباطی قابل بررسی و مورد قبول برای برتری یا خطرناک بودن این تکنولوژی تازه توسعه یافته دارند.
اما قبل از این که به دیدگاه مخالفان ai مبنی بر خطرناک بودن هوش مصنوعی بپردازیم، بهتر است ابتدا تعریفی جامع و کامل در این رابطه که اصلا هوش مصنوعی (artificial intelligence) چیست؟ خدمتتان ارائه دهیم.
هوش مصنوعی چیست؟
هوش مصنوعی (ai)، در واقع شاخهای خاص از علوم کامپیوتر است که به تقلید از تفکر و فرآیندهای تصمیمگیری انسانی میپردازد. در واقع برای دستیابی به این امر، چندین هزار و حتی میلیون الگوریتم و مدل آماری توسط دانشمندان پیادهسازی میشود تا عملیات تجزیه و تحلیل دادهها به صورتی قابل قبول و همانند انسان صورت گیرد.
هوش مصنوعی قابلیت یادگیری ماشین دارد، یعنی به مرور میتواند جدای از الگوریتمهای تحلیلی از پیش تعیین شده، الگوریتمهای جدیدی را به صورت خودکار بیاموزد و در فرآیند تصمیم گیری، تجزیه و تحلیل دادهها به کار ببرد.
دقیقا همین مورد، یعنی قابلیت ساخت الگوریتمهای جدید به صورت خودکار، همان موضعی است که مخالفان را بر افروخته میکند، چرا که معتقدند همین نکته میتواند باعث بروز بسیاری از مشکلات شود و زندگی انسانها و سایر موجودات کره زمین به خطر افتد. اما آیا واقعا این چنین خواهد بود؟ هوش مصنوعی میتواند برای انسان خطرساز باشد و زندگی و حیات بشری را مختل کند؟ در ادامه قصد داریم به صورت جزئیتر موارد این چنینی را بررسی کنیم.
خطرات هوش مصنوعی چیست؟
همانند بسیاری از موضوعاتی که در دنیای تکنولوژی و یادگیری ماشینی وجود دارد، دادن پاسخی جامع و کامل به این موضوع نیز بسیار پیچیده است و وجود پیشرفتهای لحظهای در این حوزه نیز کار را برای یافتن پاسخ بیش از پیش، سختتر میکند. اما قبل از هر چیزی، باید به این نکته توجه داشت که هوش مصنوعی چه بخواهیم وچه نخواهیم، به تمامی صنایع نفوذ کرده و این پتانسیل را دارد که بسیاری از جنبههای زندگی بشر را به شدت بهبود بخشد.
تا به این لحظه، خطرات هوش مصنوعی زیادی برشمرده شده است که برخی منطقی و قابل قبول، برخی از پایه بیاساس و برخی دیگر تا حد زیادی، فانتزی و دور از ذهن هستند، اما میتوان روی آنها مانور داد تا نتیجهای قطعی حاصل شود.
با این حال، چند خطر وجود دارد که کارشناسان روی آنها با هم توافق نظر دارند و در صورت انجام نگرفتن برخی اقدامات در حال و آیندهی نزدیک، ممکن است کل زندگی بشر دچار دگرگونی شده و حتی به خطر بیفتد.
دیدگاه مخالفان هوش مصنوعی را به راحتی میتوان به ۲ گروه، تقسیمبندی کرد:
- امکان دارد هوش مصنوعی برای انجام کارهای مخرب برنامهریزی شود.
- ممکن است هوش مصنوعی با هدف کمک به بشریت، توسعه داده شود، اما حین دستیابی به هدف، اتفاقات غیرقابل کنترل رخ دهد.
در ادامه به صورت جزئیتر، هر کدام از این گروهها را مورد بررسی و سنجش قرار خواهیم داد تا دید درستی در رابطه با خطرات هوش مصنوعی برای انسان به دست آوریم.
۱- امکان برنامهریزی هوش مصنوعی برای انجام کارهای مخرب:
از دیدگاه افراد مخالف هوش مصنوعی و حتی کسانی که نگران پیشرفت زیاد این حوزه هستند، ai قابل برنامهریزی برای انجام اعمال خرابکارانه و مخرب است. در بررسی این دیدگاه، اگر از یک نگاه منطقی و علمی وارد این موضوع شویم، نگرانی مطرح شده جایز بوده و امکان به وقوع پیوستن چنین امری وجود دارد.
کسانی که به فکر آسیب زدن به افراد، اشخاص مهم، دولت و …. هستند، به راحتی میتوانند به کمک متخصصان هوش مصنوعی، ابزار یا نرمافزارهایی تولید کنند که به شدت مخرب و آسیبرسان باشند و امنیت عموم مردم و حتی امنیت جهانی را به مخاطره بیندازند.
با این حال، افزایش نظارتها و قانونگذاری میتوانند این نوع خطرات هوش مصنوعی را تا حد زیادی کاهش دهند. البته، فعلا دولتها چندان تمایلی به قانونگذاری در زمینه هوش مصنوعی نشان ندادهاند و صرفا برای بر هم نخوردن امنیت و نظم ملی، برخی اقدامات را انجام میدهند.
به عنوان مثال، کشور فرانسه بعد از آپدیتهای اخیر Chat GPT و معرفی نسخه ۴ آن، دسترسی عموم مردم به این چت بات را ممنوع کرد، اما بعد از گذشت مدتی این ممنوعیت و عدم دسترسی نیز رفع شد.
۲- آسیب رسان بودن هوش مصنوعی در راه رسیدن به هدفی که دارد!
همانطور که میدانید، هوش مصنوعی قابل برنامهریزی و کنترل است، اما این کار به این آسانی هم که فکر میکنید، نیست. هوش مصنوعی با این هدف ایجاد شده تا فرآیند تصمیمگیری انسانگونه را اجرایی کند و به این شکل، زندگی بشریت را بهبود بخشد. اما به سبب پیچیدگیهای نرمافرازی این صنعت، کنترل کامل آن واقعا ممکن نیست! چرا که هوش مصنوعی از یادگیری ماشینی بهره میبرد و هر گونه اشتباه در برنامهنویسی آن، میتواند باعث بروز اتفاقاتی شود که از کنترل دانشمندان خارج باشد. با این که احتمال وقوع چنین خطر و اتفاقی بسیار پایین است، اما نمیتوان از آن چشم پوشی کرد.
موافقان این نظریه که در دسته مخالفان سفت و سخت هوش مصنوعی نیز قرار دارند، از استدلال فرضی “ماکسیمایزر گیره کاغذ” به عنوان دلیلی برای توجیه نگرانی خود استفاده میکنند.
طبق این استدلال، هوش مصنوعی ایجاد شده تا میزان گیره کاغذ موجود در زمین را به حداکثر برساند! اما تا زمانی که به این هدف دست نیابد، از حرکت باز نخواهد ایست. در واقع هوش مصنوعی از تمام ماده و انرژی موجود در زمین استفاده خواهد کرد تا به هدفش برسد. با این که هدفش آسیب رساندن به انسان نیست و فقط تولید گیره کاغذ است، اما به سبب مکانیزمی که دارد، ممکن است بر سر چنین مسئله سادهای، کل حیات بشریت را به نابودی بکشاند.
حال که با این موضوع که ai چه خطرات و مضراتی میتواند داشته باشد، به صورت کلی و جامع آشنا شدید. به صورت جزئیتر، به مضرات هوش مصنوعی برای انسان میپردازیم.
خطرات هوش مصنوعی برای انسان
همانطور که اشاره کردیم، هوش مصنوعی با هدف کمک به بشریت، راحتتر شدن برخی کارها، افزایش دقت و… معرفی شده است و همه ساله نیز توسعه داده میشود، اما همین پیشرفتها به مرور باعث میشوند که جایگاه انسان در برخی مشاغل و حوزهها به صورت کامل از بین برود، انرژی مورد نیاز انسانها برای بقاء کاهش پیدا کند، امنیت اجتماعی مردم لکهدار شود و …
موارد ذکر شده تنها چند نمونه از خطرات هوش مصنوعی برای انسان هستند. در ادامه به صورت کامل، تمامی مضرات ai برای انسان ها را بررسی میکنیم.
انواع خطرات هوش مصنوعی
همانطور که مشاهده کردید، خطرات هوش مصنوعی بسیار متنوع و گسترده هستند و اگر از همین ابتدای راه، قوانین و مقررات درستی برای استفاده از آن وضع نشود، به احتمال زیاد، این خطرات گسترش پیدا کرده و مشکلات بسیار زیادی را برای انسانها به همراه خواهند آورد.
۱) به خطر افتادن حریم خصوصی انسانها
یکی از بزرگترین نگرانیهایی که کارشناسان در مورد مضرات هوش مصنوعی بیان میکنند، مربوط به حریم خصوصی دادههای کاربران و امنیت اطلاعات است. با این که قانون حفظ حریم خصوصی در سال ۱۹۹۲ تصویب شد، اما همچنان شرکتهای زیادی آن را رعایت نمیکنند.
با قدرت گرفتن هوش مصنوعی، احتمال این که قوانین این حوزه به کل زیر پا گذاشته شود، بسیار زیاد است و بسیاری از کارشناسان در این رابطه هشدارهایی دادهاند؛ اما خود کاربران میتوانند تا حدودی جلوی نشت اطلاعات را با استفاده از روشهای احراز هویت مناسب و ایمن بگیرند.
فرایندهای احراز هویت، به بخش قابل توجهی از پلتفرمها، شبکههای اجتماعی، رسانهها، ابزارهای آنلاین و آفلاین، وبسایتها و سامانهها تبدیل شده است. احراز هویت آنلاین، به دلیل رونق گرفتن شبکههای آنلاین بیش از پیش اهمیت پیدا کرده و آینده هوش مصنوعی میتواند نقش تعیین کنندهای در این حوزه ایفا کند.
به عنوان مثال، در مورد سامانهها و وبسایتهای داخلی، از جمله احراز هویتهایی که ایرانیها نیاز دارند، احراز هویت سامانه سجام و سامانه ثنا هستند. برای این منظور، یوآیدی از پیشرفتهترین زیرشاخهها و فناوریهای هوش مصنوعی نظیر یادگیری ماشین و تشخیص چهره استفاده کرده است.
به لطف استفاده از این فناوریها، یوآیدی قادر است حتی بدون نیاز به پسوردهای پیچیده و فراموش شدنی که اغلب کاربران را به دردسر میاندازند، تنها با تشخیص آنلاین و در لحظه چهره کاربران، فرایند احراز هویت آنها را تکمیل کند.
۲) تعصبی عمل کردن هوش مصنوعی
یک افسانه رایج وجود دارد که هوش مصنوعی یک سیستم رایانهای و بی طرف است! اما این امر زمانی قابل قبول خواهد بود که دادههای قرار داده شده در اختیار AI نیز چنین شرایطی را داشته باشند.
اگر دادهها مغرضانه، ناقص و تعصبی باشند، تجزیه و تحلیلهای هوش مصنوعی هم چنین خواهند بود و احتمال سوءگیری اجتماعی و به خطر افتادن بسیاری از مردم به وجود میآید.
۳) به مشکل خوردن تعاملات انسانی، از خطرات هوش مصنوعی در آینده
این که انسانها و رباتها چگونه با هم ارتباط خواهند داشت؟ امروزه به یکی از سوالات مهم کاربران، کارشناسان و مخالفان هوش مصنوعی بدل شده است. این سوال قبلا بیشتر یک پرسش اگزیستانسیالیستی بود تا یک نگرانی جمعی، اما اکنون به دلیل نفوذ این تکنولوژی در جای جای زندگی انسانها، بسیار پر رنگتر شده است.
با یک مثال میتوان این سوال را به صورت کامل مورد بررسی قرار داد. در سال ۲۰۱۸، یک خودروی خودران که توسط شرکت اوبر استفاده میشد، در یک تصادف رانندگی با یک عابر پیاده برخورد کرد و آن عابر کشته شد. دادگاه نیز حکم صادر کرد که نیروی پشتیبان وسیلهی نقلیه تخلف کرده، چرا که به جای تمرکز روی اتومبیل، با گوشی بازی میکرد.
چنین مواردی میتوانند به مرور زمان و با گسترش هوش مصنوعی در زندگی افراد، رنگ بیشتری به خود گیرند و مشکل ساز شوند.
۴) مسئولیت قانونی با کیست؟
زمانی که هوش مصنوعی اشتباهی مرتکب میشود، مسئول آن کیست؟ استفاده کننده هوش مصنوعی یا سازنده هوش مصنوعی؟ چنین مشکلات قانونی با فراگیر شدن هوش مصنوعی در صنایع مختلف میتوانند واقعا دردسر ساز باشند.
۵) فقدان شفافیت و قابلیت توضیح، از مضرات هوش مصنوعی
درک مدلهای هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که به صورت مستقیم با این فناوری کار میکنند، دشوار است. همین مورد منجر به عدم شفافیت در مورد چگونگی و چرایی نتیجهگیری هوش مصنوعی میشود و توضیحی در مورد اینکه الگوریتمهای هوش مصنوعی از چه دادههایی استفاده میکنند یا اینکه چرا ممکن است تصمیمهای مغرضانه یا ناایمن بگیرند، ارائه نمیکند.
۶) از دست رفتن مشاغل به دلیل اتوماسیون سازی
اتوماسیون شدن مشاغل مبتنی بر هوش مصنوعی یک نگرانی مبرم است، زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبتهای بهداشتی پذیرفته شده و امروزه روز نیز به شدت استفاده میشود.
به گفته مککینزی، تا سال ۲۰۳۰، حدود ۳۰ درصد از مشاغل موجود در کشور آمریکا، به هوش مصنوعی واگذار شده و اتوماسیون خواهند شد. گلدمن ساکس هم بیان میکند که ۳۰۰ میلیون شغل تمام وقت ممکن است به دلیل اتوماسیون سازی مبتنی بر هوش مصنوعی از بین برود.
همانطور که رباتهای هوش مصنوعی باهوشتر و ماهرتر میشوند، همان وظایف به انسانهای کمتری نیاز خواهند داشت و در حالی که تخمین زده میشود که هوش مصنوعی تا سال ۲۰۲۵، ۹۷ میلیون شغل جدید ایجاد کند، بسیاری از کارمندان مهارتهای مورد نیاز برای این نقشهای فنی را نخواهند داشت و اگر شرکتها نیروی کار خود را ارتقاء ندهند، ممکن است از ورطه پیشرفت عقب بمانند.
۷) دستکاریهای اجتماعی از طریق الگوریتمهای هوش مصنوعی
دستکاری اجتماعی نیز به عنوان یکی از مهمترین خطرات هوش مصنوعی (ai) به شمار میرود. شاید برای شما هم سوال باشد که دستکاری اجتماعی چطور انجام میشود؟ برای پاسخ به این سوال، میتوان از این مثال استفاده کرد.
سیاستمداران و قانون گذاران برای این که بتوانند دیدگاههای خود را ترویج و تبلیغ کنند، به پلتفرمهایی نیاز دارند که ابزارهای سوشال مدیا مثل اینستاگرام، تیک تاک و X، بهترین نمونهها هستند. این ابزارها در حال حاضر برای رصد کاربران و نمایش محتواهای مورد پسند شما، از الگوریتمهای هوش مصنوعی استفاده میکنند.
حال اگر هوش مصنوعی در این پلتفرمها دادههای کاربران را جمعآوری و در اختیار سیاستمداران قرار دهند، این افراد به سادگی میتوانند با استفاده از الگوهای رفتاری شما، اهدافی را تعیین کنند که مقبولیت زیادی دارند!
شاید شما خودتان اصلا به این نوع تبلیغات کاری واکنشی نشان ندهید، اما در ناخودآگاه شما این گونه نیست. ناخودآگاه بسیار جستوجوگر و کنجکاو است و تاثیر پذیری بالایی دارد. به همین سادگی، تغییرات رفتاری در سطح وسیع (اجتماع داخل یک کشور و حتی جهان) به مرور زمان ایجاد میشود تا افراد سلطهگر به اهداف و امیال خود دست پیدا کنند.
۸) نظارت اجتماعی با فناوری هوش مصنوعی
در حال حاضر، دولتهای زیادی از فناوری هوش مصنوعی برای اعمال کنترل دقیق بر شهروندان خود استفاده میکنند. کشور چین، یک مثال جامع و مناسب برای این امر است که در طول سالیان متمادی از این ابزارها برای رصد شهروندان، تشخیص چهره مردم در اماکن مختلف و … استفاده میکند.
در صورتی که هوش مصنوعی، از آن چه که امروز است، بیشتر توسعه داده شود و پیشرفت کند، آزادی اجتماعی و فردی افراد توسط دولتها زیر پا گذاشته شده و مشکلات زیادی گریبانگیر شهروندان و مردم علیالخصوص، استفاده کنندگان ابزارهای مبتنی بر هوش مصنوعی خواهد شد.
۹) نابرابری اجتماعی – اقتصادی، از مضرات هوش مصنوعی
در دنیایی که هوش مصنوعی جایگاه انسان را گرفته و همه چیز را کنترل میکند، دیگر برابری اجتماعی و اقتصادی، موجودیت ندارد و چنین مسائل مهمی که برای زندگی بشریت ملزوم بودند، کمرنگ و کمرنگتر خواهند شد.
اگر دادههایی که در اختیار هوش مصنوعی قرار داده میشود، غلط باشند، وضعیت انسانها روز به روز در هالهای از ابهام فرو خواهد رفت و کارشناسان مخالف هوش مصنوعی، روی این مسئله پافشاری بسیار زیادی دارند.
۱۰) استفاده از هوش مصنوعی روی سلاحهای خودکار نظامی
وقتی تکنولوژی بسیار مهم و حیاتی مثل هوش مصنوعی معرفی میشود، اقدامات لازم و مربوطه برای عدم استفاده از آن در صنایع نظامی و جنگی نیز صورت میپذیرد، اما همیشه افرادی هستند که قوانین را برای دستیابی به منافع شخصی زیر پا میگذارند.
جالب است بدانید که در سال ۲۰۱۶، بیش از ۳۰ هزار نفر شامل محققان هوش مصنوعی و رباتیک، سرمایهگذاران و سازندگان تجهیزات نظامی و … در یک نامه سرگشاده، نوشتند:
“سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد؟ اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی اجتنابناپذیر رخ میدهد و نقطه پایانی این فناوری آشکار است، سلاحهای خودمختار به کلاشینکفهای فردا تبدیل خواهند شد.”
حال اگر این سلاحهای خود مختار به دست افراد اشتباه بیفتند، دیگر نمیتوان اقدام چندان خاصی کرد! هکرها، دیکتاتورها و افرادی که مخالف صلح جهانی هستند، با دستیابی به چنین تجهیزاتی میتوانند انسانهای بیگناه زیادی را قتل عام کرده و کل زندگی بشریت را به نابودی بکشانند.
۱۱) وقوع بحرانهای مالی، از خطرات هوش مصنوعی در آینده
امروزه، صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی میتواند مسئول بحران مالی بعدی ما در بازارهای جهانی باشد.
در حالی که الگوریتمهای هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمیگیرند، اما زمینهها، به هم پیوستگی بازارها و عواملی مانند اعتماد و ترس انسان را نیز در نظر نمیگیرند. پس این الگوریتمها هزاران معامله را با سرعتی بسیار بالا انجام میدهند. همین امر میتواند توازن بازار را بر هم زده و منجر به سقوط ناگهانی و نوسان شدید بازارهای مالی شود.
البته، این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه در دنیای اقتصاد ندارد! در واقع، الگوریتمهای هوش مصنوعی میتوانند به سرمایه گذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانه تری در بازار بگیرند. اما سازمانهای مالی باید مطمئن شوند که الگوریتمهای هوش مصنوعی و نحوه تصمیمگیری آن، احساسات انسانی را درک هم میکنند.
۱۲) از دست رفتن نفوذ انسانی، از خطرات هوش مصنوعی در پزشکی
اتکای بیش از حد به فناوری هوش مصنوعی میتواند منجر به از بین رفتن نفوذ انسانی و فقدان عملکرد انسانی در برخی از بخشهای جامعه شود.
به عنوان مثال، استفاده از هوش مصنوعی در مراقبتهای بهداشتی میتواند منجر به کاهش همدلی و استدلالهای انسانی شده و به مرور زمان، خلاقیت و احساسات مردم کاهش یابد. جالب است بدانید که تعامل بیش از حد با سیستمهای هوش مصنوعی میتواند حتی باعث کاهش مهارتهای ارتباطی و اجتماعی نیز شود.
۱۳) خودآگاهی و غیرقابل کنترل بودن هوش مصنوعی، مهمترین خطر AI
این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع پیشرفت کند که هوشیار شود و فراتر از کنترل انسان عمل کند. حتی گزارشهایی نیز از تیمهای فعال در زمینه توسعه هوش مصنوعی منتشر شده که نشان میدهند این تکنولوژی در برخی مواقع، خلاف دستورات انسانی و برنامهریزیهای صورت گرفته عمل میکند.
تا به اینجا با این موضوع که هوش مصنوعی چه خطراتی دارد، به صورت کامل و جامع آشنا شدید. اما شاید برایتان جالب باشد که بدانید افراد سرشناس و شاخص زیادی مانند فیزیکدان افسانهای، استیون هاوکینگ و ایلان ماسک، مدیر عامل تسلا و رهبر و مبتکر SpaceX نیز تا حدودی در دستهی مخالفان هوش مصنوعی قرار دارند و هشدارهایی نیز در رابطه با سرعت پیشرفت این تکنولوژی و عواقبی که میتواند به دنبال داشته باشد، دادهاند.
در مقابل این افراد، کسانی مانند بیل گیتس، یکی از بنیانگذاران مایکروسافت نیز معتقد هستند که دلیلی برای محتاطانه عمل کردن در مقابل هوش مصنوعی وجود ندارد، زیرا اگر این تکنولوژی به درستی مدیریت شود، میتوان خطرات هوش مصنوعی را به حداقل رساند یا با آنها مقابله کرد.
خطرات هوش مصنوعی ایلان ماسک
ایلان ماسک یکی از شناخته شدهترین افراد در صنعت تکنولوژی، به خاطر اقدامات و اظهار نظرهایی که انجام میدهد، سر تیتر خبر گزاریها، مجلات و فضای سوشال مدیا است.
این کارآفرین زبده، در زمینه هوش مصنوعی نیز فعالیتهای زیادی انجام داده است. ساخت اتومبیلهای برقی خودران که از چند سال قبل فعالیت خود را شروع کرده است. سرمایهگذاری روی شرکت هوش مصنوعی Open AI که خالق چت بات هوش مصنوعی Chat GPT ۴ , ۳ است و …
ایلان ماسک با وجود فعالیتهای گستردهای که در این زمینه انجام داده، جزو مخالفان سرسخت این تکنولوژی است. ماسک به خاطر سرعت رشد بالای هوش مصنوعی در جهان و همهگیر شدن آن، اظهار نظرهای جالبی داشته که هر یک مخالفان و موافقان خاص خود را دارند.
مثلا ایلان ماسک در رویداد Investor Day جدید تسلا در رابطه با هوش مصنوعی گفت:
“کمی از بابت مسائل مربوط به هوش مصنوعی نگرانم. فکر میکنم این چیزی است که همه ما باید نگرانش باشیم!”
وی در رابطه با نیاز به قانونگذاری در این حوزه نیز گفته:
“ما به نوعی مرجع قانونی یا چیزی شبیه به آن برای نظارت بر توسعه هوش مصنوعی و اطمینان از عملکرد این فناوری در جهت منافع عمومی نیازمندیم.”
چنین اظهار نظرهایی، آن هم از شخصی مثل ایلان ماسک که تمام استارتاپهایش به نوعی با هوش مصنوعی مرتبط هستند، نشان میدهد که این حوزه واقعا میتواند خطرناک باشد و هر چه زودتر باید به فکر راهحلهای منطقی و قانونی در این زمینه باشیم.
خطرات هوش مصنوعی هاوکینگ
استیون هاوکینگ، فیزیکدان برجسته و مشهور که به سبب اکتشافات و دیدگاههایی که در زمینهی فیزیک و تکنولوژیهای جدید داشت، شهرت جهانی پیدا کرده است نیز در سالهای نسبتا دور اظهار نظرهای جالبی در رابطه با هوش مصنوعی و تاثیر این فناوری در زندگی روزمره مردم کرده بود.
هاوکینگ در مصاحبهای با BBC در سال ۲۰۱۴ گفته بود:
“توسعه هوش مصنوعی کامل میتواند پایان نسل بشر باشد.”
این فیزیکدان قبل از ایلان ماسک و استیو وازنیک، بنیانگذار اپل، به صورت رسمی هشدارهایی در رابطه با هوش مصنوعی و خطراتی که میتواند به همراه داشته باشد، داده بود.
جالب است بدانید که گروهی از فعالان فناوری، متخصصان هوش مصنوعی و علاقهمندان به این حوزه مثل “ایلان ماسک”، مدیرعامل X، تسلا، اسپیس X، “استیو وزنیاک”، همبنیانگذار اپل، مدیرعامل Stability AI، همبنیانگذار پینترست، همبنیانگذار ریپل و “یووال نوح هراری” در نامهای سرگشاده، که توسط موسسه غیرانتفاعی Future of Life منتشر شد، از آزمایشگاههای هوش مصنوعی درخواست کردند که تا حداقل ۶ ماه، توسعه مدلهای قدرتمندتر از GPT – ۴ را متوقف کنند.
از آنجایی که جهان شاهد رشد بیسابقه فناوریهای هوش مصنوعی (AI) است، توجه به خطرات و چالشهای بالقوه مرتبط با پذیرش گسترده آنها ضروری است. وقتی اشخاصی با چنین سطح دانش فنی و تخصص در رابطه با هوش مصنوعی نامهای گروهی امضا و منتشر میکنند، نشانگر این است که AI واقعا میتواند خطرساز و خطرناک باشد و حیات بشری را تهدید کند.
در حال حاضر، اقدامات خاصی در رابطه هوش مصنوعی، مثل جلوگیری از توسعه آن و عدم دسترسی کاربران به مدلهای مختلف صورت نگرفته، اما با ادامه یافتن موج اعتراضات، میتوان امیدوار بود که سازمانهای مختلف نیز به مقوله هوش مصنوعی ورود کرده و فعالیتهای مورد نیاز را انجام دهند.
جمع بندی
هوش مصنوعی، واژهای بسیار آشنا در صنعت کامپیوتر و تکنولوژیهای وابسته به این حوزه است که به سبب پیشرفتهای بسیاری که داشته، به شدت سر و صدا کرده است. با پیشرفت سریع هوش مصنوعی و کشف شدن تواناییهای بالقوه این فناوری در تغییر زندگی انسان و حتی کرهی زمین، افراد به دو دسته کلی تقسیم شدهاند.
- دسته اول، اعتقاد دارند که هوش مصنوعی اصلا خطرناک نیست و بالعکس، آمده تا زندگی انسانها را بهبود بخشد. افرادی مثل بیل گیتس جزو موافقان این صنعت هستند.
- دسته دوم نیز کسانی هستند که معتقدند این صنعت، در صورتی که کنترل نشود، میتواند بسیار آسیبرسان باشد. افرادی مثل ایلان ماسک و استیون هاوکینگ از مخالفان برجستهی AI هستند و در دیدگاههای خود، به خطرات هوش مصنوعی اشارههای زیادی میکنند.
اما سوال اصلی این است که آیا هوش مصنوعی واقعا خطرناک است؟ اصلا هوش مصنوعی چه خطراتی دارد؟ و از این دست سوالات که جای تامل بسیار زیادی نیز دارند. ما نیز در این مقاله، سعی کردیم به سوالات مطرح شده در رابطه با مضرات هوش مصنوعی پاسخی جامع و کامل دهیم.
در بررسی خود، به ۱۳ خطر هوش مصنوعی برای انسان و خطراتی که ممکن است در آینده ایجاد شود، اشاره و به صورت جزئی و دقیق، دلایل مطرح شده در رابطه هر یک را نیز بررسی کردیم تا بتوانید دیدی مناسب به دست آورید. خطراتی مثل:
- تعصبی عمل کردن هوش مصنوعی
- به خطر افتادن حریم خصوصی انسانها
- به مشکل خوردن تعاملات انسانی
- از دست رفتن مشاغل به دلیل اتوماسیون سازی
- دستکاریهای اجتماعی از طریق الگوریتمهای هوش مصنوعی
- نابرابری اجتماعی – اقتصادی، از مضرات هوش مصنوعی
- استفاده از هوش مصنوعی روی سلاحهای خودکار نظامی
- و …
خدمات یوآیدی
یوآیدی اولین سرویس احراز هویت غیر حضوری در ایران است که در ارائه روشهای احراز هویت آنلاین پیشگام است. این شرکت راهکارهای خود را با استفاده از هوش مصنوعی و الگوریتمهای پیشرفته ارائه میدهد.
توجه داشته باشید که یوآیدی قصد دارد با تسهیل فرآیند احراز هویت و فراهم کردن امکان احراز هویت غیرحضوری سامانه ثنا و احراز هویت اداره کار و … زمان مورد نیاز برای مناسبات اداری را به حداقل برساند.