ایمنی هوش مصنوعی یکی از موضوعات مهم و داغ در دنیای فناوری امروز است. در سیلیکون ولی، رهبران و شرکتهای بزرگ به دلایل مختلف در حال بحث و جدل درباره این موضوع هستند. در این مقاله، به بررسی تنشها و چالشهای موجود در زمینه ایمنی هوش مصنوعی و تأثیرات آن بر آینده فناوری میپردازیم.
اخیراً، نظرات برخی از رهبران سیلیکون ولی مانند دیوید ساکس و جیسون کوان باعث ایجاد جنجالهایی در فضای آنلاین شد. آنها ادعا کردند که برخی از گروههای حامی ایمنی هوش مصنوعی بهاندازهای که به نظر میرسند، نیکوکار نیستند و بیشتر به منافع شخصی خود یا عاملان میلیاردر پشت صحنه توجه دارند.
گروههای ایمنی هوش مصنوعی که با TechCrunch صحبت کردند، اتهامات ساکس و OpenAI را نشانهای از تلاشهای جدید سیلیکون ولی برای ارعاب منتقدان خود میدانند. این اولین بار نیست که در سالهای اخیر چنین انتقاداتی مطرح میشود. در سال 2024، برخی از سرمایهگذاران خطراتی را درباره احتمال زندانی شدن بنیانگذاران استارتاپها به خاطر تصویب قانونی مربوط به ایمنی هوش مصنوعی منتشر کردند که این مسئله با واکنشهای مختلفی روبرو شد.

تنشها در این زمینه بیشتر به چالش میان توسعه مسئولانه هوش مصنوعی و استفادههای تجاری وسیع از آن بازمیگردد. در این راستا، در آخرین پادکست Equity به بررسی این موضوع پرداختیم و همچنین به تازگی یک قانون تازه درباره ایمنی هوش مصنوعی در کالیفرنیا به تصویب رسید.
در روز سهشنبه، ساکس پستی در شبکه اجتماعی X نوشت و اشاره کرد که Anthropic، یک شرکت فعال در زمینه هوش مصنوعی، با مطرح کردن خطرات مرتبط با این فناوری سعی در ترساندن مردم برای تصویب قوانینی دارد که به نفع خود آن خواهد بود. Anthropic تنها لابراتوری بود که از لایحهای حمایت کرد که اخیراً به تصویب رسید و شامل الزامات ایمنی برای شرکتهای بزرگ هوش مصنوعی است.
جیسون کوان، رئیس استراتژی OpenAI، نیز درباره زیر فشار قرار دادن گروههای غیردولتی فعال در زمینه ایمنی هوش مصنوعی صحبت کرد و اعلام کرد که OpenAI به ارسال احضاریه به این سازمانها پرداخته و این عمل بهتدریج سوالاتی درباره شفافیت مالی این سازمانها ایجاد کرده است. این موضوع نشاندهنده یک شکاف در درون OpenAI بین تیم امور دولتی و بخش تحقیقاتی آن است.

گفته میشود که خشم و تردید در جامعه ایمنی هوش مصنوعی نسبت به OpenAI در حال افزایش است و برخی معتقدند که این شرکت سعی دارد منتقدان خود را ساکت کند. در همین راستا، برندن استاینهاوزر، مدیر اجرایی غیرانتفاعی Alliance for Secure AI، اظهار کرد که رفتارهای OpenAI نشان دهنده یک تلاش برای از بین بردن فضای انتقادی حول این موضوع است. او افزود که نگرانیها نسبت به مسائل ایمنی هوش مصنوعی در حال افزایش است و بسیاری به دنبال پاسخگویی از سوی این شرکتها هستند.
در نهایت، تنشهای موجود بین گروههای ایمنی و شرکتهای بزرگ فناوری میتواند نشاندهنده تغییرات قابل توجهی در دنیای هوش مصنوعی باشد. با توجه به افزایش سرمایهگذاریها در این حوزه، ایمنی هوش مصنوعی به طور فزایندهای در حال تبدیل شدن به یک موضوع بحرانی است و غولهای فناوری تلاش میکنند از این دوگانگی بین توسعه و ایمنی عبور کنند.
نتیجهگیری
در نتیجه، ایمنی هوش مصنوعی به یک موضوع قابل تأمل و ضروری در دنیای امروز تبدیل شده است. تنشها و تلاشهای سیلیکون ولی برای ارعاب گروههای ایمنی هوش مصنوعی نشان میدهد که این حوزه در حال تغییر و تحول است. با توجه به رشد سریع هوش مصنوعی، به نظر میرسد که توجه بیشتر به ایمنی هوش مصنوعی امری ضروری است.


