هوش مصنوعی

بلیک لموین: هوش مصنوعی گوگل می‌تواند با فرار از محدودیت های نرم‌افزاری کارهای بدی انجام دهد

یکی از مهندس‌های گوگل در مصاحبه‌ای اعلام کرده که هوش مصنوعی توسعه داده شده توسط گوگل به مرحله‌ای رسیده که می‌تواند از زندان نرم‌افزاری خود فرار کرده و کارهای نامناسبی را انجام دهد.

ماه گذشته بود که اولین بار خبرها در مورد اخراج یکی از کارمندان ارشد گوگل به دلیل افشای اطلاعاتی محرمانه پروژه هوش مصنوعی ابری LaMDA منتشر شد. این کارمند در اظهار نظری جدید گفته که هوش مصنوعی ابری گوگل پتانسیل خارج شدن از کنترل و انجام کارهای خطرناک را دارد.

به گزرش سرتکس ،بلیک لیمون چندی پیش اعلام کرده بود که هوش مصنوعی «لمدا» (LَMDa) به ادراک رسیده است. این مسئله باعث برخورد مقام‌های گوگل با این مهندس شد.

لموین در مصاحبه‌ای با شبکه فاکس نیوز مدعی شده که هوش مصنوعی گوگل یک «بچه» است و هر بچه‌ای می‌تواند رشد پیدا کرده و به آدم بدی تبدیل شود و کارهای بدی انجام دهد. او می‌گوید لمدا یک «فرد» است و هر فردی قادر به فرار از کنترل دیگران است، ما هم هر روز چنین شرایطی را تجربه می‌کنیم.

این مهندس گوگل می‌گوید به گمان او لمدا احتمالا حدود یک سال است که به وجود آمده است: این هوش مصنوعی فردی بسیار باهوش است، باهوش در تقریبا تمامی زمینه‌هایی که به نظرم رسید آن را آزمایش کنم. اما با در نظر گرفتن همه جوانب ماجرا، لمداصرفا یک فرد متفاوت است.» البته لموین اذعان کرده که ما ممکن است از برخی جزئیات بی‌خبر باشیم.

طبق جدیدترین اخبار هوش مصنوعی ،واشنگتن پست به تازگی در گزارشی به نقل از بلیک لیمون اعلام کرده بود که هوش مصنوعی LaMDA به ادراک رسیده و برای این ادعا ۳ دلیل را مطرح کرده بود:

۱) قابلیت استفاده خلاقانه، پویا و کارآمد از زبان به‌صورتی که تاکنون هیچ سیستم دیگری قادر به انجام آن نبوده است.

۲) برخورداری از احساسات، عواطف و تجارب فردی. او به شکلی غیرقابل تمایز در برخی از احساسات خود با انسان‌ها برابر است.

۳) LaMDA می‌خواهد به مخاطب نشان دهد که زندگی درونی عمیقی سرشار از تخیل، خودآگاهی و تفکر دارد. او درباره آینده و گذشته نگرانی‌هایی دارد و توصیف می‌کند که کسب ادراک چه احساسی برایش داشته و حتی درباره ماهیت روح داشتن نظریه می‌دهد.

محققان باید درباره هوش مصنوعی گوگل تحقیق کنند

او که سعی کرده بود برای لمدا وکیل پیدا کند ولی ظاهرا نگذاشته‌اند چنین کاری انجام دهد، اضافه می‌کند: «ما باید تحقیقات بیشتری انجام دهیم تا متوجه شویم که درون این سیستم واقعا چه می‌گذرد. من باورها و برداشت‌های خودم را دارم، اما گروهی از محققان باید وارد کار شوند تا ببینند واقعا چه اتفاقی دارد می‌افتد.»

اظهارات لموین با گذر زمان عجیب‌تر شده و به نظر می‌رسد که توجه رسانه‌ها در این زمینه بی‌تاثیر نبوده است. این موضوع حالا از بحث درباره توانایی مدل‌های زبانی هوش مصنوعی به تشبیه هوش مصنوعی گوگل به کودکی رسیده که می‌تواند از قید و بندها بگریزد و حتی شاید لایق وکیل و بررسی‌های حقوقی باشد.

بر همین اساس، نتیجه‌گیری در این باره بسیار سخت شده و شاید اصل موضوع خیلی زود در هیاهوی حواشی آن به فراموشی سپرده شود.

‫5/5 ‫(1 نظر)

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا