ساتیا نادلا نگران تبعیض و جانبداری در هوش مصنوعی آینده
ساتیا نادلا هشدار داده که نرمافزارهای هوشمند آینده شاید بتوانند تبعیض قایل شوند. در واقع الگوریتمهای جانبدارانه از همین حالا هم روی زندگی ما تاثیر میگذراند.
ساتیا نادلا، مدیر عامل مایکروسافت دربارهی سلطهی هوش مصنوعی بر زندگی ما ابراز نگرانی کرده است. او اخیرا به فعالان حوزهی صنعت کامپیوتر توصیه کرده که به فکر طراحی نرمافزارهای هوشمندی باشند که به انسانها احترام میگذارند. او در مجلهی اینترنتی Slate نوشته: «حوزهی تکنولوژی نباید ارزشها و فضیلتهای آیندهی هوش مصنوعی را تحمیل کند.»
نادلا میگوید نرمافزار هوشمند باید طوری طراحی شود که بتوانیم در نحوهی ساز و کارش بازبینی کنیم و اجازه ندهیم علیه بعضی از افراد تبعیض قایل شود یا به شکل ناپسندی دادههای شخصی استفاده کند.
این نگرانیها مهم و منطقی هستند، اما رهبران حوزهی تکنولوژی مدتهاست که دربارهی آنها صحبت میکنند. شواهد زیادی وجود دارد که نشان میدهد از همین حالا الگوریتمها و نرمافزارها با جانبداریها نگرانکنندهای به زندگی روزمرهی ما شکل میدهند.
کمیسیون تجارت فدرال در تحقیقاتی که انجام داده، پی برده که تبعیضات نژادی و اقتصادی دوران قبل از اینترنت دوباره ظاهر شدهاند و آن را در سیستمهایی میبینیم که تبلیغات هدفمند و دیگر خدماتی آنلاین را مدیریت میکنند. در ایالت ویسکانسین آمریکا میخواهند به کمک سیستم پیشبینی کنند که آیا یک مجرم باز هم مرتکب جرم میشود یا خیر؛ دادگاه با استفاده از نتایج این سیستم حکم زندان مجرم را تعیین میکند.
بدیهی است بعضی از مشکلاتی که ساتیا نادلا را نگران کرده، هماکنون وجود دارند. «کیت کرافورد»، یکی از محققان مایکروسافت مشکل جانبداری الگوریتمی را در یک جمله خلاصه کرده است: «شاید نرمافزار از همین حالا نابرابری را در محل کار، خانه و سیستمهای قانونی و قضایی شدیدتر میکند.»
نادلا نوشتهاش دربارهی هوش مصنوعی را اینگونه جمعبندی میکند: «مهمترین قدم بعدی ما برای هوش مصنوعی این است که یک چارچوب اخلاقی و همدلانه برای طراحی آن تعریف کنیم.»
منبع: MIT Technology Review