آیا هوش مصنوعی می‌تواند باعث انقراض انسان شود؟

زمان مورد نیاز برای مطالعه: ۳ دقیقه
آیا هوش مصنوعی باعث انقراض انسان می‌شود؟

حتما شما هم هشدارهایی که از طرف بعضی از رهبران و مدیران ارشد در حوزه‌ی صنعت رباتیک درباره‌ی هوش مصنوعی داده شده است را شنیده‌اید. این افراد در مورد پتانسیل این فناوری نه برای پیشرفت بشر، بلکه آزار و حتی انقراض انسان هشدار داده‌اند.

نیویورک تایمز می‌گوید: «بعضی از افراد هشدار می‌دهند که هوش مصنوعی می‌تواند به اندازه‌ای قدرتمند شود که اگر کاری برای کاهش سرعت پیشرفت آن انجام نشود، ظرف چند سال اختلال‌هایی در مقیاس اجتماعی ایجاد کند. البته تا امروز محققان توضیحی درباره‌ی چگونگی وقوع آن ارائه نداده‌اند.»

اخیرا گروهی از کارشناسان صنعت هشدار داده‌اند که هوش مصنوعی می‌تواند موجودیت بشر را تهدید کند در نامه‌ی سرگشاده‌ی یک خطی که توسط سازمان غیر انتفاعی مرکز ایمنی هوش مصنوعی آمده است: «کاهش خطر انقراض انسان توسط هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مثل همه‌گیری‌ها و جنگ هسته‌ای قرار بگیرد.»

آلن تورینگ (Alan Mathison Turing) به عنوان پدر علوم کامپیوتر و هوش مصنوعی شناخته می‌شود و مهم‌ترین جایزه‌ی علمی در حوزه‌ی کامپیوتر را به نام او، یعنی جایزه‌ی تورینگ، نام‌گذاری کرده‌اند.

این بیانیه توسط بیش از ۳۵۰ مدیر، محقق و مهندس از بخش هوش مصنوعی مثل سام آلتمن مدیر اجرایی OpenAI و همچنین جفری هینتون و یوشوا بنجیو دو محقق برنده‌ی جایزه‌ی تورینگ امضا شده است. این پیام یک پیشگویی به حساب می‌آید اما جزئیات کافی درباره‌ی چگونگی وقوع آخرالزمان هوش مصنوعی ارائه نداده است.

دن هندریکس، مدیر مرکز ایمنی هوش مصنوعی، می‌گوید: «یکی از سناریوهای قابل قبول این است که هوش مصنوعی به دست افراد خطرناک برسد و از آن برای تولید سلاح‌های زیستی جدید کشنده‌تر از همه‌گیری‌های طبیعی استفاده کنند. یا به جای تولید سلاح، هوش مصنوعی را طوری جهت‌دهی کنند که با انجام فعالیت‌های سرکشانه‌ی مختلف به بشر آسیب برساند.»

هندریکس معتقد است اگر هوش مصنوعی به میزان کافی هوشمند یا توانا باشد ممکن است خطر قابل توجهی برای جامعه ایجاد کند. یک خطر دیگر، استفاده‌ی هکرهای برای از آن برای انجام فعالیت‌های خراب‌کارانه است. اریک اشمیت، مدیر عامل سابق گوگل، در یکی از سخنرانی‌هایش گفت: «سناریوهایی در این مورد برای آینده وجود دارد که از هوش مصنوعی در مسائل سایبری و همچنین زیست‌شناسی استفاده شود.»

اشمیت معتقد است این موضوع در حال حاضر دور از ذهن به نظر می رسد اما پیشرفت سریع هوش مصنوعی احتمال وقوع آن بیشتر خواهد شد. او می‌گوید: «ما از امروز باید برای روزی که این اتفاق پیش می‌آید آماده باشید تا بتوانیم با روش‌هایی مطمئن جلوی سواستفاده‌ی افراد شرور را بگیریم.»

یک نگرانی دیگر در این مورد سرکش شدن خود به خودی هوش مصنوعی است. تام چیورز، روزنامه‌نگار و نویسنده‌ی علمی، در مصاحبه‌ای گفته است: «هوش مصنوعی که برای رهایی از سرطان ساخته شده می‌تواند یاد بگیرد موشک‌های هسته‌ای را برای از بین بردن همه‌ی سلول‌های سرطانی منفجر کند!»

او می‌گوید: «پس ترس این نیست که هوش مصنوعی مخرب شود، بلکه ترس از توانمند شدن آن است. ابزارهای هوش مصنوعی فقط به بالا بردن نتیجه فکر می‌کنند و همین موضوع آن را از چیزی که به آن انسانیت می‌گوییم دور کرده، احتمال بروز اشتباهات وحشتناک را بالا می‌برد.»

با توجه به تمام این موضوعات، این روزها بحث راه‌های تنظیم و مهار هوش مصنوعی بسیار داغ شده است. گروهی از کارشناسان هوش مصنوعی، مدیران صنعت فناوری و دانشمندان پیشنهاد کرده‌اند جلوی رقابت برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمند گرفته شود تا مسیر پیشرفت این فناوری از کنترل خارج نشود.

آن‌ها گفته‌اند که باید آموزش سیستم‌های هوش مصنوعی متوقف شود و دولت موظف به دخالت در این موضوع است. آلتمن در این مورد می‌گوید: «برای اطمینان از اینکه توسعه اَبَر هوشی به گونه‌ای ایمن اتفاق می‌افتد و به صورت روان و ملایم با سیستم‌های موجود در جامعه ادغام می‌شود، باید همه با هم هماهنگ شوند.»

آسوشیتدپرس می‌گوید: «دولت آمریکا به طور علنی در حال سنجش احتمالات و خطرات هوش مصنوعی است. CNN اعلام کرده که بایدن با مدیران ارشد اجرایی فناوری درباره‌ی اهمیت توسعه‌ی اخلاقی و مسئولانه‌ی هوش مصنوعی گفت‌وگو کرده اتس. در ماه می، کاخ سفید از نقشه‌ی راه برای سرمایه‌گذاری فدرال در تحقیق و توسعه رونمایی کرد که نوآوری مسئولانه‌ای را ترویج می‌دهد که در خدمت منافع عمومی است، از حقوق و ایمنی مردم محافظت می‌کند و از ارزش‌های دموکراتیک هم حمایت می‌کند. همچنین دولت به امکان تنظیم صنعت هوش مصنوعی در آینده اشاره کرده است.»

این مطلب صرفا جنبه‌ی آموزش و اطلاع‌رسانی دارد. پیش از استفاده از توصیه‌های این مطلب حتما با پزشک متخصص مشورت کنید. برای اطلاعات بیشتر بیانیه‌ی رفع مسؤولیت دیجی‌کالا مگ را بخوانید.

منبع: theweek



برچسب‌ها :
دیدگاه شما

پرسش امنیتی *-- بارگیری کد امنیتی --

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه
دسته‌بندی‌های منتخب برای شما