هنرمندان شاکی دسترسی غیرقانونی به هوش مصنوعی Sora را فراهم کردند

زمان مورد نیاز برای مطالعه: ۲ دقیقه
هوش مصنوعی Sora

شرکت OpenAI، پیشگام در عرصه هوش مصنوعی، زمستان گذشته از Sora، مدل هوشمند تبدیل متن به ویدیو، رونمایی کرد. مدتی بعد، این شرکت به تعداد محدودی از کاربران اجازه داد تا این مدل را مورد آزمایش قرار دهند. روز گذشته خبر رسید که گروهی از این آزمایش‌کنندگان، در اقدامی اعتراضی، این فناوری را برای عموم فاش کرده‌اند.

اخیراً، جمعی از افرادی که به مدل هوش مصنوعی تولید ویدیوی Sora دسترسی داشتند، گفته‌اند که این دسترسی را برای عموم فاش کرده‌اند. آنان در پلتفرم Hugging Face پروژه‌ای را عرضه کردند که ظاهراً به API مدل Sora متصل بود. این پروژه با تکیه بر توکن‌های احراز هویتی که احتمالاً پیش‌تر به منظور آزمایش این هوش مصنوعی در اختیارشان قرار داده شده بود، عمل می‌کرد و به کاربران اجازه می‌داد ویدیوهایی را تولید کنند.

این پروژه مدت کوتاهی پس از انتشار غیرفعال شد، اما شماری از کاربران در شبکه اجتماعی ایکس اعلام کرده‌اند که موفق به استفاده از آن شده‌اند و خروجی‌های آن، ویژگی‌های شناخته شده محصولات OpenAI را دارا بوده است. گروه افشاگر ادعا می‌کند که OpenAI پس از سه ساعت، دسترسی تمام هنرمندان به مدل Sora را قطع کرد.

اما چه چیزی باعث این افشاگری شد؟ این گروه می‌گوید OpenAI از آزمایش‌کنندگان اولیه Sora خواسته بود تا تصویری مثبت از این مدل ارائه دهند، اما در مقابل، هیچ گونه قدردانی از زحمات آن‌ها به عمل نیاورده بود. در بخشی از یادداشتی که این گروه منتشر کرده، آمده است: «صدها هنرمند با تلاش در جهت یافتن باگ‌ها، ارائه بازخورد و انجام کارهای آزمایشی بدون دریافت دستمزد برای برنامه دسترسی اولیه Sora که متعلق به یک شرکت با ارزش ۱۵۰ میلیارد دلار است، فعالیت کرده‌اند. ظاهراً این برنامه بیشتر به منظور تبلیغات و روابط‌عمومی بوده تا بیان خلاقانه و ارزیابی منتقدانه.»

افشاگران ادعا می‌کنند که OpenAI در مورد قابلیت‌های Sora به مردم اطلاعات نادرستی داده و با محدود نگه داشتن دسترسی به این مدل، سعی در پنهان کردن واقعیت داشته است. تمامی ویدیوهای تولید شده توسط این مدل، پیش از انتشار باید توسط OpenAI تأیید شوند و این شرکت تنها خروجی‌های گروه کوچکی از آزمایش‌کنندگان را بررسی می‌کند. در واکنش به این اقدام، OpenAI طی بیانیه‌ای اعلام کرد که مشارکت در این پروژه داوطلبانه بوده و شرکت‌کنندگان هیچ الزامی به ارائه بازخورد یا استفاده از این ابزار نداشته‌اند.

منبع: TechCrunch



برچسب‌ها :
دیدگاه شما

پرسش امنیتی *-- بارگیری کد امنیتی --

loading...
بازدیدهای اخیر
بر اساس بازدیدهای اخیر شما
تاریخچه بازدیدها
مشاهده همه
دسته‌بندی‌های منتخب برای شما
X