کامپیوترها چگونه یاد گرفتند مثل انسان واقعی متن بنویسند؟
طی چند سال گذشته پیشرفتهای زیادی در مدلهای زبانی شاهد بودیم. اگر با این عبارت آشنایی نداریم باید بگوییم مدلسازی زبانی در واقع پیشبینی کلمات بعدی در یک دنباله است که باعث میشود یک متن منسجم و طبیعی نوشته شود. این قابلیت طی چند سال گذشته دستخوش تغییرات اساسی قرار گرفت تا اینکه این روزها تا جایی پیشرفت کرده که حتی تشخیص آن از نوشتههای حقیقی هم دشوار شده.
نوشتن یک متن فقط با پیشبینی کلمات و بدون اینکه کاربر نیاز داشته باشد خود آنها را تایپ کند بسیار لذتبخش است. شرایطی را تصور کنید که در آن اصلا چیزی تایپ نمیکنید و گوشی به شما کلمهی بعدی را که باید بنویسید پیشنهاد بدهد. بسیاری از کاربران با مدلهای سادهی اینچنینی سر و کار داشتهاند اما طی چند سال اخیر پیشرفتهای بزرگی در این زمینه صورت گرفته.
محققان و مهندسان کامپیوتر موفق شدند مدلهای زبانی پیشرفتهای نظیر GPT-2 ،Grover و CTRL را طراحی کنند که میتوانند با بالاترین میزان دقت، متنهایی بنویسند که گویا یک انسان واقعی آنها را نوشته. البته شاید کیفیت و انسجام این نوشتهها بالا باشد اما خب نکتهی مهم اینجاست که این نوشتهها بر اساس حقیقت نیستند و صرفا ترکیبی از چند کلمه هستند که به شکل معنادار و منظمی در کنار هم قرار میگیرند. مثل این که شما جملههای زیادی را میتوانید همین حالا در ذهن خود بسازید که از لحاظ معنا و مفهوم و انسجام هیچ مشکلی ندارند اما بر اساس حقیقت نیستند.
اگرچه خلاقیت و نوآوری پشت این فناوری آنقدری پیشرفته و جالب هست و میتواند در بخشهایی از زندگی به کمک کاربران بیاید اما خب یک سری مشکلات هم وجود دارد که نمیتوان آنها را نادیده گرفت. مثلا اینکه از این مدلهای زبانی میتوان در نوشتن متنهایی نژادپرستانه و افراطی استفاده کرد که خب عواقب ناخوشایندی هم خواهد داشت. از یک طرف دیگر عدم صحت متون نوشته شده هم یک سری دردسرهای خاص خود را دارد. البته توسعهدهندگان این مدلها راههایی را برای تشخیص صحت نوشتهها و تمایز آنها به نسبت نوشتههای حقیقی در نظر گرفتهاند اما خب باز هم نمی توان به طور صد درصد به آن اطمینان داشت.
شما عزیزان میتوانید جزئیات بیشتر در این زمینه را در ویدیو بالا مشاهده کنید.