ماجرای ویدیوی جعلی که از مارک زاکربرگ منتشر شد چه بود

زمان مورد نیاز برای مطالعه: ۳ دقیقه

این روزها، ویدئویی جعلی در حال دست به دست شدن در فضای مجازی است که مارک زاکربرگ را در حال ادای صحبت‌های عجیبی نشان می‌دهد. مدیر فیسبوک در این ویدیو اظهار می‌کند که کنترل میلیاردها اطلاعات دزدیده شده از کاربران را در دست دارد. اما معاون اول مارک زاکربرگ، صاحب امتیاز فیس‌بوک اعلام کرده‌‌است که این ویدئوی با فناوری پیشرفته ساخت ویدئو‌های جعلی ساخته شده‌است و این فیلم صحت ندارد.

جالب این‌که این ویدئو دقیقا پس از ممانعت فیس بوک از حذف ویدئوی جعلی نانسی پلوسی، رییس مجلس نمانیدگان آمریکا، از پلتفرم خود منتشر شده‌است. در ماه گذشته، واشنگتن پست گزارش داد که ویدئویی از نانسی پلوسی، سخنگوی مجلس نمایندگان آمریکا منتشر شده‌است. حرفهای پلوسی در این این ویدئو، تقطیع شده است و جوری نشان داده شده‌است که واقعی به نظر برسد.این ویدئو در فیس بوک، یوتیوب و توییتر منتشر شده است. فیس بوک به جای از بین بردن ویدئو، به کاربران اعلام کرده‌است که این ویدئو جعلی و ساختگی است.

اما ویدئوی جعلی زاکربرگ توسط دو هنرمند و یک شرکت تبلیغاتی به عنوان قسمتی از یک مستند برای شرکت در جشنواره‌ای ساخته شده‌بود. معاون اول شرکت فیس بوک، اولین کسی بود که در مورد این ویدئو اظهار نظر کرد. او اعلام کرد که این ویدئو توسط اکانتی به نام @bill_posters_uk منتشر شده‌است. بیل پاسترز و دنیل هو، نام دو هنرمندی است که این ویدئو را ساخته‌اند. شرکت تبلیغاتی کانی، شرکتی است که در ساخت این ویدئو، آنها را همراهی کرده‌است. این ویدئو قرار است در نمایشگاه specter، بخشی از جشنواره مستند شفیلد داک انگلستان به نمایش در بیاید.

این ویدئوی جعلی که از مدیرعامل شرکت فیس بوک در اینستاگرام منتشر شد، با استفاده از تکنولوژی دیپ‌فیک ساخته شده‌است. این ویدئوبه سادگی نشان می‌دهد که چگونه هوش مصنوعی می‌تواند اطلاعات غلط را به راحتی نشر دهد و در شبکه‌های اجتماعی منتشر سازد.

زاکربرگ غیرواقعی، ابتدای این ویدئو را این‌گونه شروع می‌کند: “یک لحظه تصور کنید”.

فکر کنید کسی بر میلیاردها اطلاعات دزدیده شده از کاربران تسلط دارد. زندگی آنها، اسرارشان، لحظه‌هایشان. من این را به اسپکتر مدیونم. اسپکتر به من نشان داد کنترل کسی که بر اطلاعات دیگران تسلط دارد، بر آینده مسلط است.

البته این ویدئو، نکاتی دارد که به سادگی می‌توان ساختگی بودنش را تشخیص داد. صدای زاکربرگ، حرکات دهان او و نوع بیانش. اما انتشار آن، نگرانی‌های زیادی را به وجود آورده‌است. تکنولوژی روبه گسترش هوش مصنوعی، یکی از بزرگترین نگرانی‌های امروز ماست. سادگی ساخت اطلاعات غیرواقعی، از مسائلی است که هوش مصنوعی به‌وجود آورده‌است.

هرچند سخنگوی اینستاگرام در تماس با رسانه‌ها اعلام کرده‌است که این شرکت، ویدئوی جعلی را مانند تمام اطلاعات ساختگی در اینستاگرام بررسی خواهد کرد. او اعلام کرده‌است که اگر بررسی کنندگان صحت اطلاعات شخص ثالث، این ویدئو را ویدئویی ساختگی اعلام کنند، آن را از همه سطوح توصیه در اینستاگرام حذف خواهند کرد. منظور از سطوح توصیه‌کننده اینستاگرام، صفحات اکسپلور و هشتگ است.

ویدئوی جعلی پلوسی، تنها نمونه کوچکی از ویدئوهای دستکاری شده در راستای رسیدن به اهداف مخرب است. غیرواقعی بودن فیلم نانسی پلوسی، به سادگی قابل تشخیص است. اما مساله زمانی بغرنج‌تر می‌شود که بدانیم در سال گذشته، صدها بار از تکنولوژی دیپ فیک برای ساخت ویدئوهای غیرواقعی استفاده شده‌است. فیلم‌هایی که معمولا سلبریتی‌ها و بازیگران مطرح، قربانی آنها هستند. در بسیاری از این ویدئوها، سر قربانی بر بدن افراد در فیلم‌ها پورن کارگذاشته می‌شود. تصور کنید که چقدر وحشتناک است.

بیایید خیلی هم بدبین نباشیم. گاهی تکنولوژی دیپ فیک برای کاربران مفید بوده‌است. بسیاری از افراد از تکنولوژی دیپ‌فیک، برای برجسته کردن خطرات استفاده کرده اند. سال گذشته یک ویدئوی جعلی در فضای مجازی منتشر شد. این ویدئو نشان می‌دهد که باراک اوباما، رئیس جمهور سابق آمریکا، در حال صحبت کردن و توهین به رئیس جمهور، دونالد ترامپ است.، آنلاین است. این ویدیو که به پروژه‌ای برای شرکت تولیدی مانکی‌پاو تبدیل شد، تلاشی برای نشان دادن خطرات فناوری دیپ‌فیک بود.

البته می‌توان ویدئوی اخیر را هم درراستای آگاه‌سازی عمومی برای نشان دادن خطرات این فناوری بدانیم.

عمر بن امی، یکی از موسسین شرکت کانی می‌گوید: “این فناوری روش‌هایی که ما با آن داستان‌هایمان را به اشتراک می‌گذاریم، عزیزانمان را به یاد می‌اوریم و محتوا تولید می‌کنیم را تغییر می‌دهد.” البته او به این مساله، به عنوان قدم بعدی در راستای تکامل تکنولوژی نگاه می‌کند. شما چطور؟ توانایی ساخت این ویدیوها را خطرناک می‌دانید یا پیشرفت فناوری؟



برچسب‌ها :
دیدگاه شما

پرسش امنیتی *-- بارگیری کد امنیتی --

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه
دسته‌بندی‌های منتخب برای شما