در یک افشاگری جدید، شرکت Anthropic اعلام کرده است که سه آزمایشگاه چینی با راهاندازی بیش از 24,000 حساب جعلی، از مدل هوش مصنوعی Claude برای بهبود مدلهای خود استفاده کردهاند. این حملات، که تحت عنوان تقطیر شناخته میشوند، نه تنها چالشهای جدیدی برای شرکتهای هوش مصنوعی ایجاد کردهاند، بلکه تهدیدی جدی برای تسلط آمریکا بر صنعت هوش مصنوعی به شمار میروند.
در یک افشاگری جدید، شرکت Anthropic اعلام کرده است که سه آزمایشگاه چینی با راهاندازی بیش از 24,000 حساب جعلی، از مدل هوش مصنوعی Claude برای بهبود مدلهای خود استفاده کردهاند. این حملات، که تحت عنوان تقطیر شناخته میشوند، نه تنها چالشهای جدیدی برای شرکتهای هوش مصنوعی ایجاد کردهاند، بلکه تهدیدی جدی برای تسلط آمریکا بر صنعت هوش مصنوعی به شمار میروند.
حملات تقطیر هوش مصنوعی: تهدیدهای جدید برای شرکتهای پیشرفته
Anthropic اخیراً اعلام کرده است که سه شرکت چینی به نامهای DeepSeek، Moonshot AI و MiniMax با استفاده از بیش از 24,000 حساب جعلی اقدام به تقطیر مدل Claude کردهاند. این حملات، که از تکنیکهای رایج آموزش مدلهای هوش مصنوعی به نام تقطیر استفاده میکنند، بیش از 16 میلیون تعامل با مدل Claude ایجاد کردهاند. هدف این حملات، بهرهبرداری از قابلیتهای برجسته Claude مانند استدلال عامل، استفاده از ابزارها و کدنویسی بود.
تقطیر یک روش معمول در آموزش مدلهای هوش مصنوعی است که به مدلها کمک میکند نسخههای کوچکتر و ارزانتری از مدلهای اصلی بسازند. با این حال، رقبا میتوانند از این روش برای تقلب و کپیکردن مدلهای دیگر آزمایشگاهها بهرهبرداری کنند، که در این مورد مدل Claude هدف حملات قرار گرفت.
این اتهامات در زمانی مطرح میشود که در ایالات متحده بحثهایی درباره محدودیتهای صادرات تراشههای پیشرفته هوش مصنوعی به چین در جریان است. برخی معتقدند که این تغییرات در سیاستهای صادراتی میتواند به تسریع پیشرفت چین در زمینه هوش مصنوعی منجر شود.

تقطیر: روشی که مدلهای هوش مصنوعی را در معرض خطر قرار میدهد
تقطیر یک روش آموزشی است که به طور معمول توسط آزمایشگاههای هوش مصنوعی برای بهینهسازی مدلهای خود استفاده میشود. با این حال، رقبای شرکتها میتوانند از این تکنیک برای استخراج اطلاعات مدلهای دیگر استفاده کنند. طبق گزارشهای منتشر شده، DeepSeek که قبلاً با مدلهای خود در ایالات متحده سر و صدای زیادی به پا کرده بود، از این روش برای تقلید از محصولات OpenAI و سایر رقبای خود استفاده کرده است.
Moonshot AI و MiniMax نیز با استفاده از همین تکنیک تلاش کردهاند که مدلهای خود را بهبود بخشند. Moonshot AI به طور خاص روی استدلال عامل، استفاده از ابزارها و کدنویسی تمرکز کرده و با انتشار مدل جدید خود به نام Kimi K2.5، به سرعت در حال رقابت با مدلهای مشابه است.

تاثیر حملات تقطیر بر تسلط ایالات متحده در هوش مصنوعی
Anthropic و دیگر شرکتهای ایالات متحده معتقدند که حملات تقطیر تهدیدی جدی برای تسلط آمریکا بر صنعت هوش مصنوعی است. این حملات میتوانند موجب ایجاد مدلهایی شوند که فاقد ویژگیهای حفاظتی هستند که برای جلوگیری از استفادههای غیرمجاز مانند توسعه سلاحهای بیولوژیکی یا فعالیتهای سایبری مخرب طراحی شدهاند.
شرکتهای هوش مصنوعی ایالات متحده همچنین هشدار دادهاند که اگر چین به مدلهای تقطیر شده دسترسی پیدا کند، ممکن است از آنها برای عملیات سایبری، جنگ اطلاعاتی یا نظارت جمعی استفاده کند. این خطرات بیشتر میشود اگر این مدلها به صورت متنباز منتشر شوند.
پاسخ Anthropic و استراتژیهای دفاعی
با توجه به این تهدیدات، Anthropic اعلام کرده است که به سرمایهگذاری در دفاعهایی که انجام حملات تقطیر را سختتر و شناسایی آنها را آسانتر میکند، ادامه خواهد داد. این شرکت همچنین خواستار پاسخ هماهنگ از طرف صنعت هوش مصنوعی، ارائهدهندگان خدمات ابری و سیاستگذاران است.

یکی از دلایل اصلی که برای اعمال محدودیت در صادرات تراشههای پیشرفته به چین وجود دارد، این است که این تراشهها به تقطیر و آموزش مدلهای هوش مصنوعی کمک میکنند. بنابراین، محدودیت در دسترسی به این تراشهها میتواند به میزان زیادی انجام این حملات را کاهش دهد و از گسترش این مدلهای تقلبی جلوگیری کند.
پیامدهای سیاستهای صادراتی و تقطیر
این تحولات در صنعت هوش مصنوعی نه تنها چالشهای تجاری جدیدی به وجود میآورد، بلکه تهدیدهای امنیتی بزرگی را نیز ایجاد میکند. از آنجا که مدلهای تقطیر شده ممکن است از ویژگیهای حفاظتی مدلهای اصلی بیبهره باشند، خطر استفادههای غیرمجاز و تهدیدات امنیتی به طرز قابل توجهی افزایش مییابد.
Anthropic و دیگر شرکتهای آمریکایی میگویند که این حملات تقطیر برای امنیت ملی ایالات متحده خطرناک هستند و به نفع چین خواهند بود، زیرا میتوانند به راحتی از مدلهای تقطیر شده برای اهداف نظامی یا مخرب استفاده کنند.

نتیجهگیری: افزایش ریسکهای امنیتی در هوش مصنوعی
حملات تقطیر نشاندهنده یک تغییر مهم در روشهای رقابتی در صنعت هوش مصنوعی است. این تهدیدات نه تنها رقابتهای تجاری را پیچیدهتر میکنند بلکه به شدت بر امنیت ملی تأثیر میگذارند. از آنجا که شرکتهای چینی توانستهاند مدلهای هوش مصنوعی آمریکایی را از طریق تقطیر تقلید کنند، آینده این رقابتها نیازمند قوانین و محدودیتهای جدیتر است تا از تسلط ایالات متحده در این حوزه محافظت شود.
حملات تقطیر به وضوح نشان میدهد که رقابت در صنعت هوش مصنوعی به مراتب پیچیدهتر از گذشته شده است. این حملات نه تنها تهدیدی برای مدلهای پیشرفته است، بلکه میتوانند به تهدیدات امنیتی ملی تبدیل شوند. پاسخ هماهنگ از طرف شرکتها و سیاستگذاران برای مقابله با این تهدیدات ضروری است.
سوالات متداول
بیشتر بخوانید:
منبع:
