به خاطر این ۵ ابزار هوش مصنوعی بهتر است به چشمانتان اعتماد نکنید!
اینترنت سرشار از اطلاعات گمراهکننده است که گاهی اوقات حتی متخصصان و حرفهای هم فریب میخورند. در چند سال گذشته تعداد ابزارهای هوش مصنوعی به طور قابل توجهی افزایش پیدا کرده و بهشدت پیچیدهتر شدهاند. در ادامه به ۵ مورد از این ابزارها میپردازیم که میتوانند افراد زیادی را فریب دهند.
دیپفیک
دیپفیک به ابزارهای هوش مصنوعی گفته میشود که با استفاده از ویدیوها و تصاویر افراد واقعی، ویدیوهای جعلی ایجاد میکنند. به لطف این تکنولوژی و با صرف کمی زمان، هرکسی میتواند ویدیوهای جعلی با استفاده از چهرهی افراد مختلف درست کند. به همین خاطر مثلا میتوانند چهرهی یک بازیگر را روی چهرهی رییس جمهور آمریکا قرار دهند یا اینکه صرفا با جایگزین کردن دهان، حرف موردنظر خود را از طرف یک چهرهی مشهور مطرح کنند.
تا چند سال قبل امکان شبیهسازی صدای افراد با هوش مصنوعی وجود نداشت ولی حالا برای این کار هم ابزارهایی وجود دارد. این ابزارها میتوانند به صورت زنده صدای فرد موردنظر را شبیهسازی کنند و این یعنی مثلا هکرها میتوانند در تماسهای تلفنی، از صدای افراد سوءاستفاده کنند. بنابراین در اینترنت بسیاری از ویدیوها و صداهای حاشیهساز را به عنوان دیپفیک در نظر بگیرید مگر اینکه خلاف این موضوع ثابت شود.
ابزارهای هوش مصنوعی برای ایجاد تصاویر
در ماههای اخیر ابزارهای هوش مصنوعی که برای ایجاد تصاویر استفاده میشوند، سروصدای زیادی راه انداختهاند. به عنوان مثال نقاشان و دیگر هنرمندان نگران این موضوع هستند که بهزودی و با پیشرفت حیرتانگیز این ابزارها، تعداد زیادی از آنها بهزودی بیکار خواهند شد.
این ابزارهای هوش مصنوعی در کنار نقاشیها و طراحیهای حیرتانگیز، در زمینهی ایجاد تصاویر واقعی هم عملکرد خیلی خوبی دارند. به عنوان مثال این ابزارها به کاربران اجازه میدهند که فقط بخشی از تصویر موردنظر را با توجه به محیط تصویر، تغییر دهند. به همین خاطر مثلا اگر یک نفر عروسک در دست خود گرفته، میتوانید با هوش مصنوعی میتوانید به راحتی این عروسک را به اسلحه تبدیل کنید. بنابراین این ابزارها هم امکانات زیادی را برای سوءاستفاده ایجاد میکنند.
ایجاد ویدیو با هوش مصنوعی
بعد از همهگیری ابزارهای هوش مصنوعی برای ایجاد تصاویر، حالا شرکتها میخواهند از همین روش برای ایجاد ویدیوها استفاده کنند. به عنوان مثال شرکت متا موفق به توسعهی ابزاری شده که میتواند با استفاده از هوش مصنوعی، ویدیوهای کوتاه چند ثانیهای ایجاد کند. اگرچه این ویدیوها در حال حاضر با محدودیتهای زیادی روبرو هستند، ولی در گذر زمان کیفیت و زمان آنها به طور قابل توجهی افزایش پیدا میکند.
با وجود اینکه همین حالا هم ایجاد ویدیوهای جعلی کار خیلی سختی نیست، اما در هر صورت با استفاده از این نوع ابزارها، بدون شک تعداد ویدیوهای جعلی چندین برابر خواهد شد.
چتبات
در حال حاضر بسیاری از شرکتها در سرتاسر جهان برای بخش قابل توجهی از ارتباط با مشتری، از چتباتهای مبتنی بر هوش مصنوعی استفاده میکنند. مدلهای هوش مصنوعی به حدی پیشرفته شدهاند که این سیستمها میتوانند در زمینههای مختلف مکالمات طبیعی با افراد برقرار کنند. زمانی که سوال در حوزههای مشخصی باشد، این سیستمهای هوش مصنوعی عملکرد بسیار خوبی دارند. به عنوان مثال اگر کاربران در حوزههای خاصی سوال فنی دارند، هوش مصنوعی میتواند تا حد زیادی به پرسشهای آنها پاسخ دهد.
در حال حاضر در شبکههای اجتماعی مانند توییتر، هزاران بات وجود دارد که البته این باتها چندان پیچیده نیستند. اما حالا تکنولوژی هوش مصنوعی به حدی رسیده که یک بات در شبکه اجتماعی میتواند افراد زیادی را فریب دهد. حتی ممکن است هکرها با استفاده از تکنولوژیهای مختلف، تصاویر، ویدیوها و صداهایی را ایجاد کنند تا نشان دهند بات موردنظر یک فرد واقعی است.
نویسندگی با هوش مصنوعی
سیستمهای هوش مصنوعی در زمینهی نوشتن متنهای مختلف هم روزبهروز بهتر میشوند. در کنار احتمال کنار گذاشتن انسانها و استفاده از این ابزارها برای نوشتن متون، باید به پتانسیل این ابزارها برای ایجاد خبرهای جعلی هم اشاره کنیم. این یعنی کافی است یک بات هوش مصنوعی را به عنوان یک شخصیت واقعی در شبکههای اجتماعی رها کنید و سپس با استفاده از همین ابزارهای پیشرفته، روزانه خبرهای جعلی جذابی را تولید کنید.
سخن آخر
با پیشرفت این نوع ابزارها، تشخیص تصاویر، ویدیوها، نوشتهها و صداهای جعلی بسیار سختتر از گذشته میشود. همین حالا ویدیوهای دیپفیک به حدی پیشرفت کردهاند که بسیاری از کاربران معمولی نمیتوانند جعلی بودن آنها را تشخیص دهند. به همین خاطر همین حالا ابزارهای هوش مصنوعی مختلفی برای تشخیص این موارد توسعه پیدا میکند. این یعنی از هوش مصنوعی برای مقابله با این فناوری استفاده میشود.
احتمالا این رویکرد فقط تا مدتی جواب میدهد و از سوی دیگر ممکن است همین روش سرعت پیشرفت ابزارهای دردسرساز را افزایش دهد. بنابراین با توجه به این موضوع، بهتر است در اینترنت تمام اطلاعات را با شک و تردید در نظر بگیرید و فقط در صورت تایید از سوی منابع معتبر، آنها را باور کنید.
منبع: MakeUseOf