کنترل ویدیوهای هوش مصنوعی Sora: آزادی در استفاده از سلفی‌های مجازی

کنترل ویدیوهای هوش مصنوعی Sora: آزادی در استفاده از سلفی‌های مجازی

در دنیایی که هوش مصنوعی هر روز به سرعت در حال پیشرفت است، Sora به شما این امکان را می‌دهد که کنترل بیشتری بر ویدیوهای هوش مصنوعی خود داشته باشید. با ظهور Sora، شما می‌توانید خود را در ویدیوهای عمیق‌تقویت (deepfake) به شکلی که می‌خواهید ارائه دهید و این موضوع اهمیت جلوگیری از گسترش نقص‌های مربوط به اطلاعات نادرست را افزایش می‌دهد. در ادامه این مقاله به بررسی ویژگی‌های جدید Sora و تأثیر آن بر استفاده از سلفی‌های مجازی می‌پردازیم.

Sora به تازگی به‌روزرسانی‌هایی را ارائه داده است که به کاربران اجازه می‌دهد تا کنترل بیشتری بر روی نمایه‌های هوش مصنوعی خود داشته باشند. این به‌روزرسانی در شرایطی عرضه شده است که OpenAI به دنبال نشان دادن اهمیت به نگرانی‌های کاربران است. با افزایش روزافزون ویدیوهای عمیق‌تقویت که حاوی اطلاعات نادرست هستند، این کنترل‌ها به شکلی الزامی به نظر می‌رسند.

Sora به نوعی “تیک‌تاک عمیق‌تقویت” محسوب می‌شود، جایی که شما می‌توانید ویدیوهایی 10 ثانیه‌ای از خود یا دیگران ایجاد کنید. OpenAI این سلفی‌های مجازی را “cameos” می‌نامد، اما منتقدان بر این باورند که این فناوری می‌تواند به یک فاجعه بزرگ در زمینه اطلاعات نادرست تبدیل شود.

بیل پیبلز، که رهبری تیم Sora را بر عهده دارد، اعلام کرد که کاربران اکنون می‌توانند محدودیتی برای نحوه استفاده از نسخه‌های هوش مصنوعی خود در اپلیکیشن ایجاد کنند. به عنوان مثال، شما می‌توانید جلوگیری کنید که خود هوش مصنوعی‌تان در ویدیوهای سیاسی ظاهر شود یا از گفتن برخی کلمات منع شود. اگر به سس خردل علاقه‌ای ندارید، می‌توانید مانع از نشان داده شدن در نزدیکی این چاشنی شوید.

کنترل ویدیوهای هوش مصنوعی Sora

همچنین، به گفته توماس دیمن، یکی از اعضای OpenAI، کاربران می‌توانند تنظیمات دلخواهی برای نسخه‌های مجازی خود اضافه کنند، مانند قرار دادن کلاهی با نوشته “طرفدار شماره 1 گوجه‌فرنگی” در هر ویدیو. این تدابیر امنیتی خوشایند هستند، اما تاریخچه ربات‌های هوش مصنوعی مانند ChatGPT و Claude نشان می‌دهد که ممکن است راه‌هایی برای دور زدن این محدودیت‌ها پیدا شود.

برای مثال، افراد قبلاً به آسانی از یکی دیگر از ویژگی‌های ایمنی Sora، که به شکلی ضعیف به عنوان علامت آبی شناخته می‌شود، عبور کرده‌اند. پیبلز افزود که شرکت “در حال کار بر روی” بهبود این مسئله است. همچنین او گفت که Sora به دنبال “افزایش سختی محدودیت‌ها” و “اضافه کردن روش‌های جدید برای حفظ کنترل” خواهد بود.

پس از راه‌اندازی اپلیکیشن در مدت یک هفته، Sora در پر کردن اینترنت با محتوای عمیق‌تقویت همدست بوده است. کنترل‌های نامشخص cameo — که به کاربران گزینه‌های بسیار مهمی مانند “دوستان”، “افرادی که تأیید می‌کنید” یا “همه” را ارائه می‌دهد — با مشکلاتی مواجه بوده است. این مسأله خطرناک با مثال‌هایی از سام آلتمن، مدیر OpenAI، که در ویدیوهای تمسخرآمیز به نمایش درآمد، بیشتر بر طرف می‌شود. او در ویدیوهایی در حال دزدی، رپ‌خوانی یا حتی کباب کردن یک پایکاچوی مرده دیده شده است.

نتیجه‌گیری

کنترل ویدیوهای هوش مصنوعی Sora با ارائه گزینه‌های جدید برای کاربران، به آنها این امکان را می‌دهد که در استفاده از سلفی‌های مجازی خود دقت بیشتری داشته باشند. با توجه به واقعیت افزایش استفاده از deepfakeها و اهمیت مقابله با اطلاعات نادرست، این به‌روزرسانی‌های جدید می‌تواند گام مهمی در راستای حفظ امنیت کاربران باشد.

پرسش‌های متداول

با استفاده از Sora، شما می‌توانید قوانین و محدودیت‌های خاصی برای ورود نسخه‌های هوش مصنوعی خود تعیین کنید و نظارت دقیقی بر آنچه که در ویدیوهایتان نمایش داده می‌شود داشته باشید.

کنترل ویدیوهای هوش مصنوعی Sora می‌تواند به کاهش گسترش اطلاعات نادرست کمک کند، اما نیاز به اقدامات مؤثرتر در سطح جهانی دارد.

Rasa

مقالات مرتبط

توانمندی مدل‌های هوش مصنوعی: سه مرز جدید در قدرت مدل‌ها و چالش‌های مقیاس‌پذیری

مدل‌های هوش مصنوعی امروزی در سه جبهه اصلی در حال پیشرفت هستند:…

دیدگاهتان را بنویسید