استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز و چالش‌های آن

در دنیای مدرن امروز، با افزایش استفاده از ابزارهای هوش مصنوعی، موضوع “استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز” به دغدغه‌ای جدی برای سازمان‌ها تبدیل شده است. کارمندان به دلیل عدم وجود ابزارهای مناسب و سیاست‌های شفاف، به سمت استفاده از ابزارهای غیرمجاز می‌روند که این امر می‌تواند موجب به خطر افتادن داده‌های حساس و اطلاعات محرمانه شود.

استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز

تحقیقات اخیر نشان می‌دهد که سه نفر از هر پنج کارمند (59 درصد) از ابزارهای هوش مصنوعی غیرمجاز استفاده می‌کنند. این موضوع به نام “هوش مصنوعی سایه” شناخته می‌شود و هیچ شکی در این نیست که این امر می‌تواند ریسک‌های زیادی برای شرکت‌ها به همراه داشته باشد.

جالب است که 75 درصد از کارمندان استفاده‌کننده از ابزارهای هوش مصنوعی سایه، به اشتراک‌گذاری داده‌های حساس خود اعتراف می‌کنند. همچنین 57 درصد از مدیران مستقیم این کارکنان نیز از استفاده از این ابزارها حمایت می‌کنند. به عبارات دیگر، بیشتر این مشکل نه تنها از طرف کارمندان، بلکه از سمت مدیران ارشد نیز دامن‌گیر سازمان‌ها است.

بیشترین اطلاعات حساس به اشتراک گذاشته شده شامل داده‌های کارمندان (35 درصد)، داده‌های مشتریان (32 درصد)، مستندات داخلی (27 درصد) و اطلاعات حقوقی و مالی (21 درصد) است. این در حالی است که 89 درصد کارمندان هنوز هم هوش مصنوعی را با ریسک‌ها و خطرات مرتبط می‌دانند. تقریباً دو سوم (64 درصد) بر این باورند که نقض داده‌ها می‌تواند ناشی از استفاده از هوش مصنوعی سایه باشد.

با این حال، تنها 57 درصد از این کارمندان موافق هستند که در صورت بروز نقض داده‌ها، استفاده از ابزارهای غیرمجاز را متوقف خواهند کرد، در حالی که اقدام‌های پیشگیرانه در حال حاضر به ندرت در حال انجام است. “زمانی که یک داده حساس وارد یک ابزار هوش مصنوعی بدون امنیت می‌شود، کنترل بر روی آن از دست می‌رود. این داده می‌تواند ذخیره، مجدداً استفاده یا به روشی که هرگز متوجه نخواهید شد، افشا شود”، این گفته‌ای است از رئیس تولید Nexos.ai، ژیلویناس گیرناس.

استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز - بخش 4

متأسفانه، یک چهارم (23 درصد) از شرکت‌ها هنوز سیاست رسمی هوش مصنوعی ندارند و تنها نیمی (52 درصد) از کارفرمایان ابزارهای هوش مصنوعی تایید شده را برای کار ارائه می‌دهند. بیشتر کارمندان (یک سوم) این ابزارها را مطابق با نیازهای خود نمی‌دانند.

به وضوح باید شرکت‌ها به ایجاد سیاست‌های قوی‌تر و ارائه ابزارهای مناسب‌تر که نیازهای کارمندانشان را برآورده‌کند، اقدام کنند. “شرکت‌ها باید به دنبال راه‌هایی برای ادغام هوش مصنوعی به روش‌های امن، مؤثر و مسئولانه باشند”، نتیجه‌گیری پژوهشگر امنیت سایبر، مانتاس سابه‌کیس است.

نتیجه‌گیری

در نهایت، موضوع “استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز” مسئله‌ای جدی و نگران‌کننده برای سازمان‌ها به شمار می‌آید. لازم است شرکت‌ها به سرعت به این نیاز پاسخ دهند و با اجرای سیاست‌های منطقی و تهیه ابزارهای مناسب، از ریسک‌های جدی جلوگیری کنند.

پرسش‌های متداول


با ایجاد سیاست‌های رسمی و ارائه ابزارهای تایید‌شده، می‌توان از ریسک‌های استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز جلوگیری کرد.


داده‌های حساس مانند اطلاعات کارمندان، مشتریان و مستندات داخلی معمولاً در ابزارهای هوش مصنوعی غیرمجاز به اشتراک گذاشته می‌شود.

Rasa

مقالات مرتبط

خلاصه‌ هوش مصنوعی پرایم ویدیو متوقف شد؛ اشتباه بزرگ درباره فال‌اوت

مطالب مرتبط: چرا مشاهده‌پذیری در فناوری‌های مدرن ضروری است؟ خلاصه‌ هوش مصنوعی…

دسامبر 14, 2025

چت جی‌پی‌تی 5.2؛ مدل جدید OpenAI که برخی آن را «پسرفت» می‌دانند

مطالب مرتبط: چرا سونوس نمی‌تواند در رقابت هوش مصنوعی موسیقی عقب بماند؟…

دسامبر 14, 2025

چت‌بات هوش مصنوعی: ورود به بافت کامل زندگی انسان‌ها

مطالب مرتبط: چگونگی تهدید سم‌پاشی مدل زبانی بزرگ و پیامدهای آن چت‌بات…

دسامبر 14, 2025

دیدگاهتان را بنویسید