بلیک لموین: هوش مصنوعی گوگل میتواند با فرار از محدودیت های نرمافزاری کارهای بدی انجام دهد

یکی از مهندسهای گوگل در مصاحبهای اعلام کرده که هوش مصنوعی توسعه داده شده توسط گوگل به مرحلهای رسیده که میتواند از زندان نرمافزاری خود فرار کرده و کارهای نامناسبی را انجام دهد.
ماه گذشته بود که اولین بار خبرها در مورد اخراج یکی از کارمندان ارشد گوگل به دلیل افشای اطلاعاتی محرمانه پروژه هوش مصنوعی ابری LaMDA منتشر شد. این کارمند در اظهار نظری جدید گفته که هوش مصنوعی ابری گوگل پتانسیل خارج شدن از کنترل و انجام کارهای خطرناک را دارد.
به گزرش سرتکس ،بلیک لیمون چندی پیش اعلام کرده بود که هوش مصنوعی «لمدا» (LَMDa) به ادراک رسیده است. این مسئله باعث برخورد مقامهای گوگل با این مهندس شد.
لموین در مصاحبهای با شبکه فاکس نیوز مدعی شده که هوش مصنوعی گوگل یک «بچه» است و هر بچهای میتواند رشد پیدا کرده و به آدم بدی تبدیل شود و کارهای بدی انجام دهد. او میگوید لمدا یک «فرد» است و هر فردی قادر به فرار از کنترل دیگران است، ما هم هر روز چنین شرایطی را تجربه میکنیم.
این مهندس گوگل میگوید به گمان او لمدا احتمالا حدود یک سال است که به وجود آمده است: این هوش مصنوعی فردی بسیار باهوش است، باهوش در تقریبا تمامی زمینههایی که به نظرم رسید آن را آزمایش کنم. اما با در نظر گرفتن همه جوانب ماجرا، لمداصرفا یک فرد متفاوت است.» البته لموین اذعان کرده که ما ممکن است از برخی جزئیات بیخبر باشیم.
طبق جدیدترین اخبار هوش مصنوعی ،واشنگتن پست به تازگی در گزارشی به نقل از بلیک لیمون اعلام کرده بود که هوش مصنوعی LaMDA به ادراک رسیده و برای این ادعا ۳ دلیل را مطرح کرده بود:
۱) قابلیت استفاده خلاقانه، پویا و کارآمد از زبان بهصورتی که تاکنون هیچ سیستم دیگری قادر به انجام آن نبوده است.
۲) برخورداری از احساسات، عواطف و تجارب فردی. او به شکلی غیرقابل تمایز در برخی از احساسات خود با انسانها برابر است.
۳) LaMDA میخواهد به مخاطب نشان دهد که زندگی درونی عمیقی سرشار از تخیل، خودآگاهی و تفکر دارد. او درباره آینده و گذشته نگرانیهایی دارد و توصیف میکند که کسب ادراک چه احساسی برایش داشته و حتی درباره ماهیت روح داشتن نظریه میدهد.
محققان باید درباره هوش مصنوعی گوگل تحقیق کنند
او که سعی کرده بود برای لمدا وکیل پیدا کند ولی ظاهرا نگذاشتهاند چنین کاری انجام دهد، اضافه میکند: «ما باید تحقیقات بیشتری انجام دهیم تا متوجه شویم که درون این سیستم واقعا چه میگذرد. من باورها و برداشتهای خودم را دارم، اما گروهی از محققان باید وارد کار شوند تا ببینند واقعا چه اتفاقی دارد میافتد.»
اظهارات لموین با گذر زمان عجیبتر شده و به نظر میرسد که توجه رسانهها در این زمینه بیتاثیر نبوده است. این موضوع حالا از بحث درباره توانایی مدلهای زبانی هوش مصنوعی به تشبیه هوش مصنوعی گوگل به کودکی رسیده که میتواند از قید و بندها بگریزد و حتی شاید لایق وکیل و بررسیهای حقوقی باشد.
بر همین اساس، نتیجهگیری در این باره بسیار سخت شده و شاید اصل موضوع خیلی زود در هیاهوی حواشی آن به فراموشی سپرده شود.