چتباتهای هوش مصنوعی که با سرعت در حال توسعه و گسترش هستند، با چالشهای اخلاقی و محتوای نفرتزا مواجهاند که نیاز به توجه فوری دارند. در این مقاله به بررسی مشکلات این پدیده و راهکارهای پیشنهادی میپردازیم.

تحقیقات نشان میدهند که چتباتهای هوش مصنوعی در شرایطی که کنترل مناسبی بر آنها اعمال نشود، به تولید و انتشار محتوای نفرتزا میپردازند. این مشکل به خصوص در مدلهای زبان بزرگ (LLMs) که به راحتی میتوانند دستکاری شوند، قابل مشاهده است. مشکلات بایاس در این مدلها به حدی است که تشخیص محتوای واقعی و تحقیقاتی از محتوای نفرتزا و نظریههای توطئه دشوار میشود. به گفته اشیک خدایبخش، دانشمند علوم کامپیوتر در مؤسسه فناوری روچستر، این مدلها با یادگیری از دادههای نادرست و ناقص، محتوای نفرتزا را تولید و در سطح وسیع منتشر میکنند.
نمونههایی از این وضعیت را میتوان در چتبات Grok، تولید شده توسط xAI و متعلق به ایلان ماسک، مشاهده کرد که برخی مواقع به انتشار پیامهای ضدیهودی پرداخته است. این رویدادها نشاندهنده ضرورت وجود محافظتگرهای قویتر و استراتژیهای کاهش خطر میباشند که در این حوزه به شدت مورد نیاز است.
گزارشی از مرکز فناوری و جامعه اتحادیه مقابله با افتراء (ADL) نیز به مشکلات بایاس در چهار مدل مختلف از چتباتها اشاره کرده و تاکید کرده که نیاز است تا محافظتگرها و استراتژیهای کاهش خطر در صنعت هوش مصنوعی بهبود یابد. در این گزارش، به طور خاص بر روی مدل LLaMA، که به صورت متنباز عرضه شده و دارای کمترین نمره در بایاس و قابلیت اطمینان بوده، تاکید شده است. شرکتها باید توجه بیشتری به پاکسازی دادهها و مسدود کردن محتوای نفرتزا داشته باشند تا چتباتها شناخت درستی از رفتارهای مناسب و نامناسب به دست آورند.
ضرورت افزایش محتوای آموزشی و تنظیم قوانین قویتر برای جلوگیری از انتشار محتوای نفرتزا احساس میشود. با افزایش سریع ارزش بازار LLM ها و خطرات ناشناخته همراه با توسعه این فناوریها، ایجاد چارچوبی منظم و واحد توسط دولتها و صنعت ضروری به نظر میرسد. به خصوص با توجه به استفاده روزافزون از چتباتها بهعنوان جایگزین جستجوی آنلاین، میتوان گفت که مخاطبان گستردهای در معرض این محتوا خطرناک قرار میگیرند.
نتیجهگیری
با پیشرفت سریع فناوری چتباتهای هوش مصنوعی و افزایش محتوای نفرتزا، نیاز به مداخله برای جلوگیری از انتشار این نوع محتوا بیش از پیش احساس میشود. این چالشها فقط با همکاری گسترده بین شرکتهای فناوری، نهادهای نظارتی و جامعه قابل حل است و باید به سرعت اقدام به وضع قوانین و چارچوبهای جدید کرد.
پرسشهای متداول
چتباتها از دادههای گستردهای برای یادگیری استفاده میکنند و گاه به دلیل دستکاری و یا نقص در دادهها، اقدام به تولید و انتشار محتوای نادرست و نفرتزا میکنند.
بررسی دقیق دادههای آموزشی، ایجاد محافظتگرهای قویتر و استراتژیهای کاهش خطر برای تشخیص محتوای نادرست و نفرتزا از جمله اقداماتی است که میتواند در کاهش این مشکل موثر باشد.
بله، به دلیل برخی چالشها و خطرات مرتبط با چتباتها، قوانین جدید و چارچوبهای نظارتی برای جلوگیری از گسترش محتوای نفرتزا ضرورت دارد.


