خطرات هوش مصنوعی در آینده چیست؟

تیتر CNN این بود:« کرهی شمالی را فراموش کنید، هوشمصنوعی جنگجهانی سوم را آغاز خواهد کرد» و در ادامهی بحث که با ایلان ماسک شروع می شد ترس های زیادی از پی آمدهای ناخواسته ی توسعهی الگوریتم هایی نشان داده شد که معلوم نیست بتوانیم خطرات هوش مصنوعی را کنترل کنیم یا نه.
همان طور که سم هریس در یکی از سخنرانیهایش اشاره کرده، زمانی که یک فناوری جدید معرفی میشود دیگر نمی توان آن را مخفی کرد یا به حالت قبل از اختراع برگرداند. او ادعا میکند که نمی توان جلوی آهنگ پیشرفت را گرفت، حتی اگر بشریت بتواند به صورت دسته جمعی چنین تصمیمی بگیرد. در حالی که بیل گیتس، استیون هاکینگ و افراد متعدد دیگری به شدت با ماسک و هریس موافق هستند، بعضی از متفکران برجسته در صنعت میگویند که هوش مصنوعی (مثل هر فناوری دیگری) به لحاظ ارزشی خنثی یا بیاثر است. هر چه باشد باروت هم برای اولین بار در آتشبازیها استفاده میشد.
ما در چهارمین انقلاب صنعتی هستیم که با پیشرفت در فناوری و رباتیک از جمله توسعه فناوری خودروهای خودران، گسترش لوازم خانگی هوشمند و… همراه است. در خط مقدم همه این فناوریها، هوش مصنوعی (AI = Artificial Intelligence) قرار دارد که باعث توسعه سیستمهای کامپیوتری خودکار میشود و میتواند از نظر هوش با انسان برابری کند یا حتی در مواردی، پیشی بگیرد. با سرتکس همراه باشید تا با خطرات هوش مصنوعی بیشتر آشنا شوید.
آیا هوش مصنوعی خطرناک است؟

هوش مصنوعی طیف وسیعی از لوازم هوشمندی که ما در حال استفاده از آن هستیم را در برگرفته است. به طور کلی هوش مصنوعی سطحی از فناوری است که در آن ماشینها از درجه استقلال و انعطافپذیری بسیار بالاتری برخوردار هستند، که به آنها این امکان را میدهد تا تقریباً در همه کارهای شناختی از انسانها بهتر عمل کنند.
در حالی که هوش فوق العاده هوش مصنوعی قوی این توانایی را دارد که به ما کمک کند تا جنگ، بیماری و فقر را ریشه کن کنیم، اما در این سطح خطرات قابل توجهی از هوش مصنوعی وجود دارد. هرچه هوش مصنوعی پیچیدهتر و همه گیرتر میشود، صداهای هشدار دهنده نسبت به مشکلات فعلی و آینده آن بلندتر میشوند
چرا هوش مصنوعی در برخی زمینهها خطرناک است؟
اگر خوشبینی را کنار بگذاریم،و ازین که هوش مصنوعی چیست؟ بگذریم ، پیچیدگی روزافزون فناوریها و الگوریتمها ممکن است نتیجهی این باشد که هوش مصنوعی اگر اهداف و اجرای آن مغایر با انتظارات یا اهداف خود باشد، میتواند کاملا خطرناک است.
اکثر محققان بر این نظرند که هر چقدر هم هوش مصنوعی پیشرفته و قوی باشد باز هم نمیتواند احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد به همین خاطر برخی از محققان هیچ نگرانی بابت خطرات هوش مصنوعی که ممکن است در آینده اتفاق بیفتد را ندارند.
همچنین پیشنهاد میکنیم مقاله : را نیز مطالعه فرمایید.
هوش مصنوعی چگونه میتواند خطرناک باشد؟
این قضیه روزبهروز در حال پیچیدهتر شدن بوده و مسئلهای که در این بین وجود دارد این است که اجماع و همچنین درک جامعی از پیامدهای این پدیده وجود ندارد. خطرات هوش مصنوعی از نابودی هزاران شغل تا حتی نابودی خود بشر، گسترده شدهاند. در این رابطه 2 سناریو وجود دارد:
هوش مصنوعی بهگونهای برنامهریزی شده که کاری مخرب را انجام دهد.
هوش مصنوعی بهگونهای برنامهریزی شده که کارهایی مفید انجام دهد، اما در حین نیل به این هدف، فعالیتی مخرب را مرتکب میشود.
پیچیدهتر شدن هوش مصنوعی میتوان این خطرات را تشدید کند. مثلا فرض کنید که یک هوش مصنوعی بهگونهای برنامهریزی شده باشد که تولید تعداد گیرههای کاغذ را به حداکثر برساند. حال اگر این هوش مصنوعی بسیار باهوش باشد، آنگاه شاید کل سیاره زمین را تخریب کرده و از منابع حاصله جهت نیل به هدف خود استفاده کند. البته فقط هوش مصنوعیهای سطح بالا نیستند که خطرات بالقوهای دارند. در زیر به 5 مورد از خطرات اساسی هوش مصنوعی در حالت کلی میپردازیم.
خطرات هوش مصنوعی چیست؟
ماشینها شغل ما را خواهند گرفت
بدون شک ماشینها (رباتها) روزی کار ما را به دست خواهند گرفت، فقط فعلا نمیدانیم که چه زمانی و تا چه حد این اتفاق رخ خواهد داد.
به گفته شرکت مشاوره و حسابرسی ارشد PricewaterhouseCoopers (PwC)، در سال ۲۰۳۰ رباتها ۲۱ درصد مشاغل را در ژاپن، ۳۰ درصد در انگلیس، ۳۵ درصد در آلمان و ۳۸ درصد مشاغل را در ایالات متحده آمریکا اشغال خواهند کرد. همچنین تا قرن آینده، رباتها بیش از نیمی از مشاغلی را که برای انسانها در دسترس است را به دست خواهند گرفت.
حدس زده میشود که رباتها تا سال ۲۰۲۷ کامیونها را هدایت کنند و تا سال ۲۰۳۱ فروشگاههای خرده فروشی را اداره کنند. تا سال ۲۰۴۹، این ماشینهای هوشمند کتاب مینویسند و تا سال ۲۰۵۳، عمل جراحی انجام میدهند.
ممکن است رباتها نیز مانند انسانها مطالبه کنند
با ادامه روند فعلی در هوش مصنوعی، این امکان وجود دارد که رباتها به خودآگاهی برسند. وقتی این اتفاق بیافتد، ممکن است به گونهای که گویی انسان هستند، حقوق خود را مطالبه کنند.
این ادعا بر اساس یک مطالعه مشترک در مرکز دفتر علم و نوآوری انگلیس مطرح شده است. این تحقیق در سال ۲۰۰۶ زمانی که هوش مصنوعی بسیار کمتر پیشرفته بود، گزارش شد و برای حدس زدن پیشرفتهای تکنولوژیکی که ممکن است در ۵۰ سال آینده شاهد آن باشیم، انجام شد. اما آیا این بدان معنا است که ماشینها در آینده شروع به درخواست شهروندی خواهند کرد؟ زمان مشخص خواهد کرد.
بدافزار هوش مصنوعی
هوش مصنوعی با استفاده از یادگیری ماشینی و تکنیک آزمون و خطا میتواند آسانتر سیستمهای امنیتی و رمزنگاریها را هک کند. در این بین، مواردی همچون خودروهای خودران، بیشتر در معرض خطر چنین حملههایی قرار دارند. مثلا یک بدافزار میتواند باعث تصادف کردن ماشین و یا بسته شدن راهها شود. طبیعتا تنها تاکتیک دفاعی در این زمینه، استفاده از یک هوش مصنوعی ضد بدافزار است.
سلاحهای خودکارخطرات هوش مصنوعی
سلاحهای خودکار (بهرهگیرنده از هوش مصنوعی) هماکنون نیز وجود داشته و برخی از کارشناسان از سازمان ملل درخواست کردهاند که جهت محافظت از انسانها در قبال چنین سلاحهایی، چارهای بیندیشد. مثلا یک پهباد که از قابلیت تشخیص چهره برخوردار است، میتواند یک شخص را دنبال کند. یا اینکه یک سلاح گرم برخوردار از هوش مصنوعی میتواند با درصد خطایی بسیار پایین، هدف خود را از پای درآورد.
اگر هوش مصنوعی بدون دخالت انسان، تصمیمهای مرتبط با مرگ و زندگی بگیرد، آنگاه چه اتفاقی میافتد؟ یک لحظه سری فیلمهای ترمیناتور را به یاد بیاورید!
دیپفیک، اخبار جعلی و امنیت سیاسی
نرمافزارهایی که حالتهای چهره را بازسازی میکنند (همان دیپفیکها)، چنان پیشرفت کردهاند که بهسختی میتوانیم خروجیهای آنها را از واقعیت تمیز دهیم. خطرات دیپفیک در حال حاضر بیشتر متوجه افراد مشهور و صاحب قدرت است، اما طولی نمیکشد که این قضیه دامن زندگی روزمره افراد عادی را نیز میگیرد. به هر حال با استفاده از یک تصویر پروفایل فیسبوک میتوان یک ویدیوی دیپفیک ساخت.
قضیه به اینجا ختم نمیشود. هوش مصنوعی میتواند به ویرایش تصویر، نوشتن متن، ایجاد صدا و … پرداخته و بنابراین تبلیغات را با جزئیات بالایی، مطابق علاقه اشخاص گوناگون طراحی کند. هوش مصنوعی و بسیاری از پدیدههای دیگری که در اطراف خود میبینیم، به دلیل میل انسان به پیشرفت و “هر روز بهتر از دیروز بودن” به وجود آمدهاند. در این بین مسئلهای که مطرح شده این است که آدمی تا چه زمانی میخواهد که این روند را ادامه دهد. چه بسا با عبور از سطحی مشخص، این پیشرفتها نهتنها رندگی ما را بهتر نکرده، بلکه مقدمات نابودی همیشگی نسل بشر و به قول ایلان ماسک، پیدایش یک دیکتاتوری جاودانه توسط هوش مصنوعی را فراهم کنند.
امنیت و حریم خصوصی
مشکل اصلی این است که با افزایش نگرانیهای امنیتی مبتنی بر هوش مصنوعی، تدابیر پیشگیری با استفاده از هوش مصنوعی هم افزایش پیدا میکنند. این مشکل همچنین این سوال را مطرح میکند که ما چگونه سیستمهای هوش مصنوعی را ایمن میکنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر نگرانیهای امنیتی استفاده میکنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی هم اطمینان حاصل کنیم.
در زمینهی حریم خصوصی هم شرکتهای بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولتها و نهادهای نظارتی قرار گرفتهاند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد میشود و الگوریتمهای پیشرفته با استفاده از این دادهها میتوانند پروفایلهای بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.
از دیگر نگرانیها میتوانیم به تکنولوژیهای تشخیص چهره اشاره کنیم و گزارشها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینکهای هوشمند مجهز به نرمافزار تشخیص چهره استفاده میکنند. چنین تکنولوژیهایی میتوانند منجر به گسترش رژیمهای استبدادی شوند یا اینکه افراد یا گروههایی با اهداف بدخواهانه از آنها سوءاستفاده کنند.