هوش مصنوعی

خطرات هوش مصنوعی در آینده چیست؟

تیتر  CNN این بود:« کره‌ی شمالی را فراموش کنید، هوش‌مصنوعی جنگ‌جهانی سوم را آغاز خواهد کرد» و در ادامه‌ی بحث که با ایلان ماسک شروع می شد ترس های زیادی از پی آمدهای ناخواسته ی توسعه‌ی الگوریتم هایی نشان داده شد که معلوم نیست بتوانیم خطرات هوش مصنوعی را کنترل کنیم یا نه.

همان طور که سم هریس در یکی از سخنرانی‌هایش اشاره کرده، زمانی که یک فناوری جدید معرفی می‌شود دیگر نمی توان آن را مخفی کرد یا به حالت قبل از اختراع برگرداند. او ادعا می‌کند که نمی توان جلوی آهنگ پیشرفت را گرفت، حتی اگر بشریت بتواند به صورت دسته جمعی چنین تصمیمی بگیرد. در حالی که بیل‌ گیتس، استیون هاکینگ و افراد متعدد دیگری به شدت با ماسک و هریس موافق هستند، بعضی از متفکران برجسته در صنعت می‌گویند که هوش مصنوعی (مثل هر فناوری دیگری) به لحاظ ارزشی خنثی یا بی‌اثر است. هر چه باشد باروت هم برای اولین بار در آتش‌بازی‌ها استفاده می‌شد.

ما در چهارمین انقلاب صنعتی هستیم که با پیشرفت در فناوری و رباتیک از جمله توسعه فناوری خودرو‌های خودران، گسترش لوازم خانگی هوشمند و… همراه است. در خط مقدم همه این فناوری‌ها، هوش مصنوعی (AI = Artificial Intelligence) قرار دارد که باعث توسعه سیستم‌های کامپیوتری خودکار می‌شود و می‌تواند از نظر هوش با انسان برابری کند یا حتی در مواردی، پیشی بگیرد. با سرتکس همراه باشید تا با خطرات هوش مصنوعی بیشتر آشنا شوید.

آیا هوش مصنوعی خطرناک است؟

خطرات هوش مصنوعی در آینده چیست؟

هوش مصنوعی طیف وسیعی از لوازم هوشمندی که ما در حال استفاده از آن هستیم را در برگرفته است. به طور کلی هوش مصنوعی سطحی از فناوری است که در آن ماشین‌ها از درجه استقلال و انعطاف‌پذیری بسیار بالاتری برخوردار هستند، که به آنها این امکان را می‌دهد تا تقریباً در همه کارهای شناختی از انسان‌ها بهتر عمل کنند.

در حالی که هوش فوق العاده هوش مصنوعی قوی این توانایی را دارد که به ما کمک کند تا جنگ، بیماری و فقر را ریشه کن کنیم، اما در این سطح خطرات قابل توجهی از هوش مصنوعی وجود دارد. هرچه هوش مصنوعی پیچیده‌تر و همه گیرتر می‌شود، صداهای هشدار دهنده نسبت به مشکلات فعلی و آینده آن بلندتر می‌شوند

چرا هوش مصنوعی در برخی زمینه‌ها خطرناک است؟

اگر خوش‌بینی را کنار بگذاریم،و ازین که هوش مصنوعی چیست؟ بگذریم ، پیچیدگی روزافزون فناوری‌ها و الگوریتم‌ها ممکن است نتیجه‌ی این باشد که هوش مصنوعی اگر اهداف و اجرای آن مغایر با انتظارات یا اهداف خود باشد، می‌تواند کاملا خطرناک است.

اکثر محققان بر این نظرند که هر چقدر هم هوش مصنوعی پیشرفته و قوی باشد باز هم نمی‌تواند احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد به همین خاطر برخی از محققان هیچ نگرانی بابت خطرات هوش مصنوعی که ممکن است در آینده اتفاق بیفتد را ندارند.

همچنین پیشنهاد میکنیم مقاله : را نیز مطالعه فرمایید.

هوش مصنوعی چگونه می‌تواند خطرناک باشد؟

این قضیه روزبه‌روز در حال پیچیده‌تر شدن بوده و مسئله‌ای که در این بین وجود دارد این است که اجماع و همچنین درک جامعی از پیامدهای این پدیده وجود ندارد. خطرات هوش مصنوعی از نابودی هزاران شغل تا حتی نابودی خود بشر، گسترده شده‌اند. در این رابطه 2 سناریو وجود دارد:

هوش مصنوعی به‌گونه‌ای برنامه‌‌ریزی شده که کاری مخرب را انجام دهد.

هوش مصنوعی به‌گونه‌ای برنامه‌ریزی شده که کارهایی مفید انجام دهد، اما در حین نیل به این هدف، فعالیتی مخرب را مرتکب می‌شود.

پیچیده‌تر شدن هوش مصنوعی می‌توان این خطرات را تشدید کند. مثلا فرض کنید که یک هوش مصنوعی به‌گونه‌ای برنامه‌ریزی شده باشد که تولید تعداد گیره‌های کاغذ را به حداکثر برساند. حال اگر این هوش مصنوعی بسیار باهوش باشد، آنگاه شاید کل سیاره زمین را تخریب کرده و از منابع حاصله جهت نیل به هدف خود استفاده کند. البته فقط هوش مصنوعی‌های سطح بالا نیستند که خطرات بالقوه‌ای دارند. در زیر به 5 مورد از خطرات اساسی هوش مصنوعی‌ در حالت کلی می‌پردازیم.

خطرات هوش مصنوعی چیست؟

ماشین‌ها شغل ما را خواهند گرفت

بدون شک ماشین‌ها (ربات‌ها) روزی کار ما را به دست خواهند گرفت، فقط فعلا نمی‌دانیم که چه زمانی و تا چه حد این اتفاق رخ خواهد داد.

به گفته شرکت مشاوره و حسابرسی ارشد PricewaterhouseCoopers (PwC)، در سال ۲۰۳۰ ربات‌ها ۲۱ درصد مشاغل را در ژاپن، ۳۰ درصد در انگلیس، ۳۵ درصد در آلمان و ۳۸ درصد مشاغل را در ایالات متحده آمریکا اشغال خواهند کرد. همچنین تا قرن آینده، ربات‌ها بیش از نیمی از مشاغلی را که برای انسان‌ها در دسترس است را به دست خواهند گرفت.

حدس زده می‌شود که ربات‌ها تا سال ۲۰۲۷ کامیون‌ها را هدایت کنند و تا سال ۲۰۳۱ فروشگاه‌های خرده فروشی را اداره کنند. تا سال ۲۰۴۹، این ماشین‌های هوشمند کتاب می‌نویسند و تا سال ۲۰۵۳، عمل جراحی انجام می‌دهند.

ممکن است ربات‌ها نیز مانند انسان‌ها مطالبه کنند

با ادامه روند فعلی در هوش مصنوعی، این امکان وجود دارد که ربات‌ها به خودآگاهی برسند. وقتی این اتفاق بیافتد، ممکن است به گونه‌ای که گویی انسان هستند، حقوق خود را مطالبه کنند.

این ادعا بر اساس یک مطالعه مشترک در مرکز دفتر علم و نوآوری انگلیس مطرح شده است. این تحقیق در سال ۲۰۰۶ زمانی که هوش مصنوعی بسیار کمتر پیشرفته بود، گزارش شد و برای حدس زدن پیشرفت‌های تکنولوژیکی که ممکن است در ۵۰ سال آینده شاهد آن باشیم، انجام شد. اما آیا این بدان معنا است که ماشین‌ها در آینده شروع به درخواست شهروندی خواهند کرد؟ زمان مشخص خواهد کرد.

بدافزار هوش مصنوعی

هوش مصنوعی با استفاده از یادگیری ماشینی و تکنیک آزمون و خطا می‌تواند آسان‌تر سیستم‌های امنیتی و رمزنگاری‌ها را هک کند. در این بین، مواردی همچون خودروهای خودران، بیشتر در معرض خطر چنین حمله‌هایی قرار دارند. مثلا یک بدافزار می‌تواند باعث تصادف کردن ماشین و یا بسته شدن راه‌ها شود. طبیعتا تنها تاکتیک دفاعی در این زمینه، استفاده از یک هوش مصنوعی ضد بدافزار است.

سلاح‌های خودکارخطرات هوش مصنوعی

سلاح‌های خودکار (بهره‌گیرنده از هوش مصنوعی) هم‌اکنون نیز وجود داشته و برخی از کارشناسان از سازمان ملل درخواست کرده‌اند که جهت محافظت از انسان‌ها در قبال چنین سلاح‌هایی، چاره‌ای بیندیشد. مثلا یک پهباد که از قابلیت تشخیص چهره برخوردار است، می‌تواند یک شخص را دنبال کند. یا اینکه یک سلاح گرم برخوردار از هوش مصنوعی می‌تواند با درصد خطایی بسیار پایین، هدف خود را از پای درآورد.

اگر هوش مصنوعی بدون دخالت انسان، تصمیم‌های مرتبط با مرگ و زندگی بگیرد، آنگاه چه اتفاقی می‌افتد؟ یک لحظه سری فیلم‌های ترمیناتور را به یاد بیاورید!

 دیپ‌فیک، اخبار جعلی و امنیت سیاسی

نرم‌افزارهایی که حالت‌های چهره را بازسازی می‌کنند (همان دیپ‌فیک‌ها)، چنان پیشرفت کرده‌اند که به‌سختی می‌توانیم خروجی‌های آن‌ها را از واقعیت تمیز دهیم. خطرات دیپ‎‌فیک در حال حاضر بیشتر متوجه افراد مشهور و صاحب قدرت است، اما طولی نمی‌کشد که این قضیه دامن زندگی روزمره افراد عادی را نیز می‌گیرد. به هر حال با استفاده از یک تصویر پروفایل فیسبوک می‌توان یک ویدیوی دیپ‌فیک ساخت.

قضیه به اینجا ختم نمی‌شود. هوش مصنوعی می‌تواند به ویرایش تصویر، نوشتن متن، ایجاد صدا و … پرداخته و بنابراین تبلیغات را با جزئیات بالایی، مطابق علاقه اشخاص گوناگون طراحی کند. هوش مصنوعی و بسیاری از پدیده‌های دیگری که در اطراف خود می‌بینیم، به دلیل میل انسان به پیشرفت و “هر روز بهتر از دیروز بودن” به وجود آمده‌اند. در این بین مسئله‌ای که مطرح شده این است که آدمی تا چه زمانی می‌خواهد که این روند را ادامه دهد. چه بسا با عبور از سطحی مشخص، این پیشرفت‌ها نه‌تنها رندگی ما را بهتر نکرده، بلکه مقدمات نابودی همیشگی نسل بشر و به قول ایلان ماسک، پیدایش یک دیکتاتوری جاودانه توسط هوش مصنوعی را فراهم کنند.

امنیت و حریم خصوصی

مشکل اصلی این است که با افزایش نگرانی‌های امنیتی مبتنی بر هوش مصنوعی، تدابیر پیش‌گیری با استفاده از هوش مصنوعی هم افزایش پیدا می‌کنند. این مشکل همچنین این سوال را مطرح می‌کند که ما چگونه سیستم‌های هوش مصنوعی را ایمن می‌کنیم؟ اگر از الگوریتم‌های هوش مصنوعی برای دفاع در برابر نگرانی‌های امنیتی استفاده می‌کنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی‌ هم اطمینان حاصل کنیم.

در زمینه‌ی حریم خصوصی هم شرکت‌های بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولت‌ها و نهادهای نظارتی قرار گرفته‌اند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد می‌شود و الگوریتم‌های پیشرفته با استفاده از این داده‌ها می‌توانند پروفایل‌های بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.

از دیگر نگرانی‌ها می‌توانیم به تکنولوژی‌های تشخیص چهره اشاره کنیم و گزارش‌ها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینک‌های هوشمند مجهز به نرم‌افزار تشخیص چهره استفاده می‌کنند. چنین تکنولوژی‌هایی می‌توانند منجر به گسترش رژیم‌های استبدادی شوند یا اینکه افراد یا گروه‌هایی با اهداف بدخواهانه از آن‌ها سوءاستفاده کنند.

‫5/5 ‫(1 نظر)

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا