به خاطر این ۵ ابزار هوش مصنوعی بهتر است به چشمانتان اعتماد نکنید!

زمان مورد نیاز برای مطالعه: ۳ دقیقه
هوش مصنوعی

اینترنت سرشار از اطلاعات گمراه‌کننده است که گاهی اوقات حتی متخصصان و حرفه‌ای هم فریب می‌خورند. در چند سال گذشته تعداد ابزارهای هوش مصنوعی به طور قابل توجهی افزایش پیدا کرده و به‌شدت پیچیده‌تر شده‌اند. در ادامه به ۵ مورد از این ابزارها می‌پردازیم که می‌توانند افراد زیادی را فریب دهند.

دیپ‌فیک

دیپ‌فیک به ابزارهای هوش مصنوعی گفته می‌شود که با استفاده از ویدیو‌ها و تصاویر افراد واقعی، ویدیو‌های جعلی ایجاد می‌کنند. به لطف این تکنولوژی و با صرف کمی زمان، هرکسی می‌تواند ویدیو‌های جعلی با استفاده از چهره‌ی افراد مختلف درست کند. به همین خاطر مثلا می‌توانند چهره‌ی یک بازیگر را روی چهره‌ی رییس جمهور آمریکا قرار دهند یا اینکه صرفا با جایگزین کردن دهان، حرف موردنظر خود را از طرف یک چهره‌ی مشهور مطرح کنند.

هوش مصنوعی

تا چند سال قبل امکان شبیه‌سازی صدای افراد با هوش مصنوعی وجود نداشت ولی حالا برای این کار هم ابزارهایی وجود دارد. این ابزارها می‌توانند به صورت زنده صدای فرد موردنظر را شبیه‌سازی کنند و این یعنی مثلا هکرها می‌توانند در تماس‌های تلفنی، از صدای افراد سوءاستفاده کنند. بنابراین در اینترنت بسیاری از ویدیو‌ها و صداهای حاشیه‌ساز را به عنوان دیپ‌فیک در نظر بگیرید مگر اینکه خلاف این موضوع ثابت شود.

ابزارهای هوش مصنوعی برای ایجاد تصاویر

در ماه‌های اخیر ابزارهای هوش مصنوعی که برای ایجاد تصاویر استفاده می‌شوند، سروصدای زیادی راه‌ انداخته‌اند. به عنوان مثال نقاشان و دیگر هنرمندان نگران این موضوع هستند که به‌زودی و با پیشرفت حیرت‌انگیز این ابزارها، تعداد زیادی از آن‌ها به‌زودی بیکار خواهند شد.

هوش مصنوعی

این ابزارهای هوش مصنوعی در کنار نقاشی‌‌ها و طراحی‌های حیرت‌انگیز، در زمینه‌ی ایجاد تصاویر واقعی هم عملکرد خیلی خوبی دارند. به عنوان مثال این ابزارها به کاربران اجازه می‌دهند که فقط بخشی از تصویر موردنظر را با توجه به محیط تصویر، تغییر دهند. به همین خاطر مثلا اگر یک نفر عروسک در دست خود گرفته، می‌توانید با هوش مصنوعی می‌توانید به راحتی این عروسک را به اسلحه تبدیل کنید. بنابراین این ابزارها هم امکانات زیادی را برای سوء‌استفاده ایجاد می‌کنند.

ایجاد ویدیو با هوش مصنوعی

بعد از همه‌گیری ابزارهای هوش مصنوعی برای ایجاد تصاویر، حالا شرکت‌ها می‌خواهند از همین روش برای ایجاد ویدیو‌ها استفاده کنند. به عنوان مثال شرکت متا موفق به توسعه‌ی ابزاری شده که می‌تواند با استفاده از هوش مصنوعی، ویدیو‌های کوتاه چند ثانیه‌ای ایجاد کند. اگرچه این ویدیو‌ها در حال حاضر با محدودیت‌های زیادی روبرو هستند، ولی در گذر زمان کیفیت و زمان آن‌ها به طور قابل توجهی افزایش پیدا می‌کند.

با وجود اینکه همین حالا هم ایجاد ویدیو‌های جعلی کار خیلی سختی نیست، اما در هر صورت با استفاده از این نوع ابزارها، بدون شک تعداد ویدیو‌های جعلی چندین برابر خواهد شد.

چت‌بات

در حال حاضر بسیاری از شرکت‌ها در سرتاسر جهان برای بخش قابل توجهی از ارتباط با مشتری، از چت‌بات‌های مبتنی بر هوش مصنوعی استفاده می‌کنند. مدل‌های هوش مصنوعی به حدی پیشرفته‌ شده‌اند که این سیستم‌ها می‌توانند در زمینه‌های مختلف مکالمات طبیعی با افراد برقرار کنند. زمانی که سوال در حوزه‌های مشخصی باشد، این سیستم‌های هوش‌ مصنوعی عملکرد بسیار خوبی دارند. به عنوان مثال اگر کاربران در حوزه‌های خاصی سوال فنی دارند، هوش مصنوعی می‌تواند تا حد زیادی به پرسش‌های آن‌ها پاسخ دهد.

در حال حاضر در شبکه‌های اجتماعی مانند توییتر، هزاران بات وجود دارد که البته این بات‌ها چندان پیچیده نیستند. اما حالا تکنولوژی هوش مصنوعی به حدی رسیده که یک بات در شبکه اجتماعی می‌تواند افراد زیادی را فریب دهد. حتی ممکن است هکرها با استفاده از تکنولوژی‌های مختلف، تصاویر، ویدیو‌ها و صداهایی را ایجاد کنند تا نشان دهند بات موردنظر یک فرد واقعی است.

نویسندگی با هوش مصنوعی

سیستم‌های هوش‌ مصنوعی در زمینه‌ی نوشتن متن‌های مختلف هم روز‌به‌روز بهتر می‌شوند. در کنار احتمال کنار گذاشتن انسان‌ها و استفاده از این ابزارها برای نوشتن متون، باید به پتانسیل این ابزارها برای ایجاد خبرهای جعلی هم اشاره کنیم. این یعنی کافی است یک بات هوش‌ مصنوعی را به عنوان یک شخصیت واقعی در شبکه‌های اجتماعی رها کنید و سپس با استفاده از همین ابزارهای پیشرفته، روزانه خبرهای جعلی جذابی را تولید کنید.

سخن آخر

با پیشرفت این نوع ابزارها، تشخیص تصاویر، ویدیو‌ها، نوشته‌ها و صداهای جعلی بسیار سخت‌تر از گذشته می‌شود. همین حالا ویدیو‌های دیپ‌فیک به حدی پیشرفت کرده‌اند که بسیاری از کاربران معمولی نمی‌توانند جعلی بودن آن‌ها را تشخیص دهند. به همین خاطر همین حالا ابزارهای هوش‌ مصنوعی مختلفی برای تشخیص این موارد توسعه پیدا می‌کند. این یعنی از هوش‌ مصنوعی برای مقابله با این فناوری استفاده می‌شود.

احتمالا این رویکرد فقط تا مدتی جواب می‌دهد و از سوی دیگر ممکن است همین روش سرعت پیشرفت ابزارهای دردسرساز را افزایش دهد. بنابراین با توجه به این موضوع، بهتر است در اینترنت تمام اطلاعات را با شک و تردید در نظر بگیرید و فقط در صورت تایید از سوی منابع معتبر، آن‌ها را باور کنید.

منبع: MakeUseOf



برچسب‌ها :
دیدگاه شما

پرسش امنیتی *-- بارگیری کد امنیتی --

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه
دسته‌بندی‌های منتخب برای شما