در دنیای مدرن امروز، با افزایش استفاده از ابزارهای هوش مصنوعی، موضوع “استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز” به دغدغهای جدی برای سازمانها تبدیل شده است. کارمندان به دلیل عدم وجود ابزارهای مناسب و سیاستهای شفاف، به سمت استفاده از ابزارهای غیرمجاز میروند که این امر میتواند موجب به خطر افتادن دادههای حساس و اطلاعات محرمانه شود.

تحقیقات اخیر نشان میدهد که سه نفر از هر پنج کارمند (59 درصد) از ابزارهای هوش مصنوعی غیرمجاز استفاده میکنند. این موضوع به نام “هوش مصنوعی سایه” شناخته میشود و هیچ شکی در این نیست که این امر میتواند ریسکهای زیادی برای شرکتها به همراه داشته باشد.
جالب است که 75 درصد از کارمندان استفادهکننده از ابزارهای هوش مصنوعی سایه، به اشتراکگذاری دادههای حساس خود اعتراف میکنند. همچنین 57 درصد از مدیران مستقیم این کارکنان نیز از استفاده از این ابزارها حمایت میکنند. به عبارات دیگر، بیشتر این مشکل نه تنها از طرف کارمندان، بلکه از سمت مدیران ارشد نیز دامنگیر سازمانها است.
بیشترین اطلاعات حساس به اشتراک گذاشته شده شامل دادههای کارمندان (35 درصد)، دادههای مشتریان (32 درصد)، مستندات داخلی (27 درصد) و اطلاعات حقوقی و مالی (21 درصد) است. این در حالی است که 89 درصد کارمندان هنوز هم هوش مصنوعی را با ریسکها و خطرات مرتبط میدانند. تقریباً دو سوم (64 درصد) بر این باورند که نقض دادهها میتواند ناشی از استفاده از هوش مصنوعی سایه باشد.
با این حال، تنها 57 درصد از این کارمندان موافق هستند که در صورت بروز نقض دادهها، استفاده از ابزارهای غیرمجاز را متوقف خواهند کرد، در حالی که اقدامهای پیشگیرانه در حال حاضر به ندرت در حال انجام است. “زمانی که یک داده حساس وارد یک ابزار هوش مصنوعی بدون امنیت میشود، کنترل بر روی آن از دست میرود. این داده میتواند ذخیره، مجدداً استفاده یا به روشی که هرگز متوجه نخواهید شد، افشا شود”، این گفتهای است از رئیس تولید Nexos.ai، ژیلویناس گیرناس.

متأسفانه، یک چهارم (23 درصد) از شرکتها هنوز سیاست رسمی هوش مصنوعی ندارند و تنها نیمی (52 درصد) از کارفرمایان ابزارهای هوش مصنوعی تایید شده را برای کار ارائه میدهند. بیشتر کارمندان (یک سوم) این ابزارها را مطابق با نیازهای خود نمیدانند.
به وضوح باید شرکتها به ایجاد سیاستهای قویتر و ارائه ابزارهای مناسبتر که نیازهای کارمندانشان را برآوردهکند، اقدام کنند. “شرکتها باید به دنبال راههایی برای ادغام هوش مصنوعی به روشهای امن، مؤثر و مسئولانه باشند”، نتیجهگیری پژوهشگر امنیت سایبر، مانتاس سابهکیس است.
نتیجهگیری
در نهایت، موضوع “استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز” مسئلهای جدی و نگرانکننده برای سازمانها به شمار میآید. لازم است شرکتها به سرعت به این نیاز پاسخ دهند و با اجرای سیاستهای منطقی و تهیه ابزارهای مناسب، از ریسکهای جدی جلوگیری کنند.
پرسشهای متداول
با ایجاد سیاستهای رسمی و ارائه ابزارهای تاییدشده، میتوان از ریسکهای استفاده کارکنان از ابزارهای هوش مصنوعی غیرمجاز جلوگیری کرد.
دادههای حساس مانند اطلاعات کارمندان، مشتریان و مستندات داخلی معمولاً در ابزارهای هوش مصنوعی غیرمجاز به اشتراک گذاشته میشود.


