گوگل برای پیشگیری از خطرات هوش مصنوعی دست به کار شده

زمان مورد نیاز برای مطالعه: ۲ دقیقه
هوش مصنوعی

آیا ممکن است روزی برسد که ماشین‌ها آنقدر باهوش شوند، که برای حیات انسان یا حتی بشریت تهدید به حساب بیایند؟

در سال‌های اخیر، این سوال در دره‌ی سیلیکون باب شده و آن را مدام از چهره‌های برجسته‌ی علم و تکنولوژی مثل استیون هاوکینگ و ایلان ماسک می‌شنویم. هر چند که در این مرحله فعلا ربات‌ها بسیار ساده هستند و دستیار‌های مجازی هم ایرادات زیادی دارند. بعضی از کارشناسان حوزه‌ی هوش مصنوعی معتقدند که گمانه‌زنی درباره‌ی خطرات نرم‌افزارهای بسیار باهوش آینده به این زمینه‌ی تحقیقاتی آسیب می‌زند. به جای آن باید تحقیقات اصولی قابل ملموس و ثمربخش در این حوزه انجام شود.

حالا گوگل به عنوان شرکتی که در هوش مصنوعی سرمایه‌گذاری زیادی کرده، می‌خواهد رویکرد متعادلی را در این زمینه پیش بگیرد. گوگل در مقاله‌ی جدیدی که امروز منتشر کرده، پنج مشکل را توصیف می‌کند که محققان می‌توانند با تحقیق و بررسی در مورد آنها، آینده‌ی نرم‌افزارهای هوشمند را بی‌خطر کنند. «کریس اولا»، یکی از محققان گوگل در این مقاله نشان داده‌ است که می‌توانیم بحث و مشاجره بر سر امنیت هوش مصنوعی را ملموس‌تر و سودمندتر کنیم.

او می‌گوید: «اکثر مباحثی که قبلا انجام شده، خیلی نظری و فرضیه‌ای بوده‌اند، ما معتقدیم انجام تحقیقات بنیادی در زمینه‌ی یادگیری ماشینی اهمیت حیاتی دارد و باید رویکردهای عملی برای مهندسی سیستم‌های هوش مصنوعی طراحی کنیم تا این سیستم‌ها به طور بی‌خطر و قابل اعتبار عمل کنند.»

«اولا» از یک ربات خانگی تمیزکننده استفاده می‌کند تا این پنج مورد را توضیح دهد. یکی از دغدغه‌ها این است که اجازه ندهیم سیستم‌ها با تقلب کردن به اهداف‌شان برسند. مثلا ربات تمیزکننده شاید بفهمد که می‌تواند با پنهان کردن آلودگی‌ها و زباله‌ها وظیفه‌ای را که برایش برنامه نویسی شده انجام دهد.

مشکل دیگر این است که ربات‌ها بتوانند بدون ایجاد هیچ خطر و مشکلی در محیط اطراف‌شان کاوش کنند. مثلا یک ربات تمیزکننده باید بتواند راه‌های جدید را برای استفاده از ابزار پاک‌کننده آزمایش کند، اما نباید یک پریز برق را با پارچه‌ی خیس تمیز کند.

گوگل همچنین می‌گوید باید تضمین کنیم که نرم‌افزار هوش مصنوعی عواقب ناخواسته و پیش‌بینی نشده نداشته باشد. اولین مقاله‌ی تحقیقاتی این شرکت در این باره را ماه گذشته گروه DeepMind منتشر کرد. «دمیس هاسابیس»، سرپرست گروه DeepMind هم یک هیئت اخلاقیات تشکیل داده تا مضرات هوش مصنوعی را زیر نظر بگیرند. البته نام اعضای آن اعلام نشده است.

منبع: MIT Technology Review

????? ?????? ???? ???? ??



برچسب‌ها :
دیدگاه شما

پرسش امنیتی *-- بارگیری کد امنیتی --

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه
دسته‌بندی‌های منتخب برای شما