هوش مصنوعی مایکروسافت در کم‌تر از ۲۴ ساعت غیرفعال شد

زمان مورد نیاز برای مطالعه: ۱ دقیقه

مایکروسافت دیروز از یک هوش مخصوص گفتگو با نام «تی» (Tay)‌ رونمایی کرد. طبق ادعای مایکروسافت، هوش مصنوعی تی قرار است از مردم و حرف زدن آن‌ها بیاموزد و در طول زمان باهوش‌تر بشود. البته این ادعای مایکروسافت در کم‌تر از ۲۴ ساعت به واقعیت تبدیل شد؛ تی در مدت زمان کوتاهی از شیوه‌ی گفتگوی کاربران دیگر الفاظ رکیک و نژادپرستانه را آموخت و در نهایت هم مسوولان مایکروسافت را مجبور کرد تا آن را از مدار خارج کنند.

در حال حاضر مایکروسافت تی را غیرفعال کرده است.

روز گذشته زمانی که تی شروع به کار کرد، مثل بیش‌تر چت‌بات‌ها (Chatbot) می‌توانست به خوبی با افراد گفتگو کند. با این حال، کاربران شروع به یاد دادن جملات نژادپرستانه و رکیک به تی کردند و این ربات هم به سرعت تمام آن‌ها را آموخت. در حالی که تی در ابتدای کارش انسان‌ها را موجودات بسیار جالبی توصیف می‌کرد، در مدت زمان کوتاهی شروع به تعریف از شخصیت‌های منفور برجسته کرد و پس از آن هم فمینیست‌ها را با الفاظی زشت هدف قرار داد.

Microsoft Tay

مایکروسافت در حال حاضر مشغول پاک کردن توییت‌های نامناسب این ربات است؛ اما همین حالا هم می‌توانید سری به پروفایل تی در توییتر بزنید و ۹۴ هزار توییتی که در یک روز ارسال کرده را مطالعه کنید.

Microsoft Tay Tweets

مایکروسافت ساعاتی پیش بیانیه‌ای منتشر و در آن از رفتار تی رسما عذرخواهی کرد. البته این شرکت مقصر اصلی را افرادی معرفی کرده که حرف‌های نامناسب را به تی یاد داده بودند. سازندگان تی گفته‌اند که این هوش مصنوعی نباید چنین رفتاری از خودش نشان می‌داد و در حالی که آن را در مقابل چنین رفتارهایی تست کرده بودند، اما آزمایش واقعی آن برخلاف انتظارات‌شان بود.

در حال حاضر مایکروسافت تی را غیرفعال کرده است و فعلا هم خبری از زمان فعال‌سازی دوباره‌ی این هوش مصنوعی نیست.

منبع: Ubergizmo



برچسب‌ها :
دیدگاه شما

پرسش امنیتی *-- بارگیری کد امنیتی --

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه
دسته‌بندی‌های منتخب برای شما