مطالب مرتبط:
کارمندان هوش مصنوعی به ما میگویند که در مورد هوش مصنوعی چه احساسی دارند. آنها بر این باورند که مدلهای هوش مصنوعیای که روی آنها کار میکنند نه تنها غیر قابل اعتماد هستند، بلکه تأکید بر زمان تحویل سریع به قیمت کیفیت نیز مسئلهساز شده است. این نگرانیها ما را به سمت بازنگری در استفاده از این فناوری مدرن میبرد.
تاثیرات منفی سرعت بر کیفیت در هوش مصنوعی
در روزگار حاضر، هنگامی که مفهوم هوش مصنوعی (AI) به سرعت در حال گسترش است، کارکنان به سرعت متوجه شدهاند که تأکید بر زمان تحویل سریع عمدتاً کیفیت را قربانی میکند. کارمندان هوش مصنوعی شغف خود را برای ارائه بهترین خدمات و دادهها در حین کار با مدلهای هوش مصنوعی گزارش میدهند، ولی همزمان از کیفیت نازل خروجیهای این مدلها ابراز نگرانی میکنند.
مثلاً، کریستا پائولوسکی به عنوان یک کارمند هوش مصنوعی در آمازون مکانیکال ترک، برای ارزیابی و نظارت بر کیفیت متون، تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی مشغول به کار است. در میان شغلهای مختلف، او متوجه شده که اخلاقیات در استفاده از این مدلها بسیار اهمیت دارد. وی یوین به یاد دارد که چگونه با یک توییت نژادپرستانه روبهرو شد و به خاطر عدم درک اصطلاحات، به این نتیجه رسید که ممکن است دیگران نیز چنین اشتباهی مرتکب شوند. تا بهحال، این نوع تجارب از کارمندان هوش مصنوعی مانند پائولوسکی، آنها را به سمت اجتناب از استفاده شخصی از این فناوری سوق داده است.

عدم اعتماد در بین کارمندان
کارمندان هوش مصنوعی تنها نیستند. تعداد دیگری از تحلیلگران هوش مصنوعی و رایتکنندگان به دقت به این موضوع پرداختهاند که با توجه به کارهایی که انجام میدهند، چگونه ممکن است دوستان و خانوادهشان را از استفاده از هوش مصنوعی منصرف کنند. یکی از کارمندان گوگل در این زمینه گفت که او و همکارانش پس از آگاهی از واقعیت کارکرد مدلهای هوش مصنوعی، به کار با این ابزارها با احتیاط بیشتری مینگرند.
بسیاری از آنها به این مشکل اشاره میکنند که عدم آموزش مناسب و کمبود منابع و مدت زمان نامناسب برای انجام وظایف باعث میشود که خروجیها غیرقابل اعتماد و حتی خطرناک باشند. به عنوان مثال، یکی از رایتکنندگان IQ را در زمینههای پزشکی تحلیل کرده است، و اشاره کرده که بدون هرگونه زمینه پزشکی، مسئولیتهایی برای ارزشیابی پاسخها به او واگذار شده بود. این ترسها موجب میشود که بسیاری از کارمندان، فضای هوشمند مصنوعی را نه به عنوان یک دستاورد، بلکه به عنوان یک ابزار خطرناک بنگرند.
مسئولیت اجتماعی و محیطی
کارمندان هوش مصنوعی در تلاشاند تا نسبت به اثرات اجتماعی و محیطی این فناوری آگاهسازی کنند. آنها در مجموعههای مختلف، از جمله کنفرانسها و کلینیکهای آموزشی، سعی در انتقال مفهوم کیفیت و مسئولیت اجتماعی در استفاده از هوش مصنوعی دارند. برای مثال، پائولوسکی در یک کنفرانس هیئت امنای مدارس میشیگان، شرایط اخلاقی و زیستمحیطی مرتبط با هوش مصنوعی را به اشتراک گذاشت و سعی کرد تا گروهی از تصمیمگیرندگان را به سمت پرسشگری از الگوریتمها و مدلهای هوش مصنوعی هدایت کند.
به طور کلی، کارمندان هوش مصنوعی همچنین از نکات ضعف موجود در عرضه خدمات این فناوری صحبت میکنند و بر این باورند که دائماً باید درباره کیفیت و دقت اطلاعاتی که این سیستمها ارائه میدهند، با احتیاط عمل کرد.
در نهایت، کارمندان هوش مصنوعی به دلایل بسیار شفاف، از کیفیت و اخلاق در این زمینه ابراز نگرانی میکنند. آنها به ما یادآوری میکنند که هوش مصنوعی نه تنها به عنوان یک دستاورد تکنولوژیک باید نگریسته شود، بلکه باید بر روی دادهها و کیفیت آنها تأکید بیشتری شود. “کارمندان هوش مصنوعی” باید به طور فعال در گفتمانهای مرتبط با آینده این فناوری دخیل باشند تا در توسعهای مناسب و صحیح کمک کنند.
منبع (Source):


