گوگل برای پیشگیری از خطرات هوش مصنوعی دست به کار شده
آیا ممکن است روزی برسد که ماشینها آنقدر باهوش شوند، که برای حیات انسان یا حتی بشریت تهدید به حساب بیایند؟
در سالهای اخیر، این سوال در درهی سیلیکون باب شده و آن را مدام از چهرههای برجستهی علم و تکنولوژی مثل استیون هاوکینگ و ایلان ماسک میشنویم. هر چند که در این مرحله فعلا رباتها بسیار ساده هستند و دستیارهای مجازی هم ایرادات زیادی دارند. بعضی از کارشناسان حوزهی هوش مصنوعی معتقدند که گمانهزنی دربارهی خطرات نرمافزارهای بسیار باهوش آینده به این زمینهی تحقیقاتی آسیب میزند. به جای آن باید تحقیقات اصولی قابل ملموس و ثمربخش در این حوزه انجام شود.
حالا گوگل به عنوان شرکتی که در هوش مصنوعی سرمایهگذاری زیادی کرده، میخواهد رویکرد متعادلی را در این زمینه پیش بگیرد. گوگل در مقالهی جدیدی که امروز منتشر کرده، پنج مشکل را توصیف میکند که محققان میتوانند با تحقیق و بررسی در مورد آنها، آیندهی نرمافزارهای هوشمند را بیخطر کنند. «کریس اولا»، یکی از محققان گوگل در این مقاله نشان داده است که میتوانیم بحث و مشاجره بر سر امنیت هوش مصنوعی را ملموستر و سودمندتر کنیم.
او میگوید: «اکثر مباحثی که قبلا انجام شده، خیلی نظری و فرضیهای بودهاند، ما معتقدیم انجام تحقیقات بنیادی در زمینهی یادگیری ماشینی اهمیت حیاتی دارد و باید رویکردهای عملی برای مهندسی سیستمهای هوش مصنوعی طراحی کنیم تا این سیستمها به طور بیخطر و قابل اعتبار عمل کنند.»
«اولا» از یک ربات خانگی تمیزکننده استفاده میکند تا این پنج مورد را توضیح دهد. یکی از دغدغهها این است که اجازه ندهیم سیستمها با تقلب کردن به اهدافشان برسند. مثلا ربات تمیزکننده شاید بفهمد که میتواند با پنهان کردن آلودگیها و زبالهها وظیفهای را که برایش برنامه نویسی شده انجام دهد.
مشکل دیگر این است که رباتها بتوانند بدون ایجاد هیچ خطر و مشکلی در محیط اطرافشان کاوش کنند. مثلا یک ربات تمیزکننده باید بتواند راههای جدید را برای استفاده از ابزار پاککننده آزمایش کند، اما نباید یک پریز برق را با پارچهی خیس تمیز کند.
گوگل همچنین میگوید باید تضمین کنیم که نرمافزار هوش مصنوعی عواقب ناخواسته و پیشبینی نشده نداشته باشد. اولین مقالهی تحقیقاتی این شرکت در این باره را ماه گذشته گروه DeepMind منتشر کرد. «دمیس هاسابیس»، سرپرست گروه DeepMind هم یک هیئت اخلاقیات تشکیل داده تا مضرات هوش مصنوعی را زیر نظر بگیرند. البته نام اعضای آن اعلام نشده است.
منبع: MIT Technology Review