در دنیایی که هوش مصنوعی هر روز به سرعت در حال پیشرفت است، Sora به شما این امکان را میدهد که کنترل بیشتری بر ویدیوهای هوش مصنوعی خود داشته باشید. با ظهور Sora، شما میتوانید خود را در ویدیوهای عمیقتقویت (deepfake) به شکلی که میخواهید ارائه دهید و این موضوع اهمیت جلوگیری از گسترش نقصهای مربوط به اطلاعات نادرست را افزایش میدهد. در ادامه این مقاله به بررسی ویژگیهای جدید Sora و تأثیر آن بر استفاده از سلفیهای مجازی میپردازیم.
Sora به تازگی بهروزرسانیهایی را ارائه داده است که به کاربران اجازه میدهد تا کنترل بیشتری بر روی نمایههای هوش مصنوعی خود داشته باشند. این بهروزرسانی در شرایطی عرضه شده است که OpenAI به دنبال نشان دادن اهمیت به نگرانیهای کاربران است. با افزایش روزافزون ویدیوهای عمیقتقویت که حاوی اطلاعات نادرست هستند، این کنترلها به شکلی الزامی به نظر میرسند.
Sora به نوعی “تیکتاک عمیقتقویت” محسوب میشود، جایی که شما میتوانید ویدیوهایی 10 ثانیهای از خود یا دیگران ایجاد کنید. OpenAI این سلفیهای مجازی را “cameos” مینامد، اما منتقدان بر این باورند که این فناوری میتواند به یک فاجعه بزرگ در زمینه اطلاعات نادرست تبدیل شود.
بیل پیبلز، که رهبری تیم Sora را بر عهده دارد، اعلام کرد که کاربران اکنون میتوانند محدودیتی برای نحوه استفاده از نسخههای هوش مصنوعی خود در اپلیکیشن ایجاد کنند. به عنوان مثال، شما میتوانید جلوگیری کنید که خود هوش مصنوعیتان در ویدیوهای سیاسی ظاهر شود یا از گفتن برخی کلمات منع شود. اگر به سس خردل علاقهای ندارید، میتوانید مانع از نشان داده شدن در نزدیکی این چاشنی شوید.

همچنین، به گفته توماس دیمن، یکی از اعضای OpenAI، کاربران میتوانند تنظیمات دلخواهی برای نسخههای مجازی خود اضافه کنند، مانند قرار دادن کلاهی با نوشته “طرفدار شماره 1 گوجهفرنگی” در هر ویدیو. این تدابیر امنیتی خوشایند هستند، اما تاریخچه رباتهای هوش مصنوعی مانند ChatGPT و Claude نشان میدهد که ممکن است راههایی برای دور زدن این محدودیتها پیدا شود.
برای مثال، افراد قبلاً به آسانی از یکی دیگر از ویژگیهای ایمنی Sora، که به شکلی ضعیف به عنوان علامت آبی شناخته میشود، عبور کردهاند. پیبلز افزود که شرکت “در حال کار بر روی” بهبود این مسئله است. همچنین او گفت که Sora به دنبال “افزایش سختی محدودیتها” و “اضافه کردن روشهای جدید برای حفظ کنترل” خواهد بود.
پس از راهاندازی اپلیکیشن در مدت یک هفته، Sora در پر کردن اینترنت با محتوای عمیقتقویت همدست بوده است. کنترلهای نامشخص cameo — که به کاربران گزینههای بسیار مهمی مانند “دوستان”، “افرادی که تأیید میکنید” یا “همه” را ارائه میدهد — با مشکلاتی مواجه بوده است. این مسأله خطرناک با مثالهایی از سام آلتمن، مدیر OpenAI، که در ویدیوهای تمسخرآمیز به نمایش درآمد، بیشتر بر طرف میشود. او در ویدیوهایی در حال دزدی، رپخوانی یا حتی کباب کردن یک پایکاچوی مرده دیده شده است.
نتیجهگیری
کنترل ویدیوهای هوش مصنوعی Sora با ارائه گزینههای جدید برای کاربران، به آنها این امکان را میدهد که در استفاده از سلفیهای مجازی خود دقت بیشتری داشته باشند. با توجه به واقعیت افزایش استفاده از deepfakeها و اهمیت مقابله با اطلاعات نادرست، این بهروزرسانیهای جدید میتواند گام مهمی در راستای حفظ امنیت کاربران باشد.
پرسشهای متداول
با استفاده از Sora، شما میتوانید قوانین و محدودیتهای خاصی برای ورود نسخههای هوش مصنوعی خود تعیین کنید و نظارت دقیقی بر آنچه که در ویدیوهایتان نمایش داده میشود داشته باشید.
کنترل ویدیوهای هوش مصنوعی Sora میتواند به کاهش گسترش اطلاعات نادرست کمک کند، اما نیاز به اقدامات مؤثرتر در سطح جهانی دارد.
