[ad_1]

Alexandra Givens ، مدیر اجرایی مرکز دموکراسی و فناوری ، یک سازمان متمرکز بر مدنی ، می گوید دسترسی به کارمندی در دسترس به معنای اطمینان از این است که متقاضی می تواند از این فن آوری استفاده کند و مهارت هایی که او اندازه گیری می کند نامناسب نامزدهای معلولیت را از مطالعه خارج نمی کند. دوران دیجیتال.

وی گفت ، ابزارهای استخدام هوش مصنوعی اغلب نتوانند افراد معلول را در تولید داده های آموزشی خود مشارکت دهند. چنین افرادی مدتهاست که از نیروی کار مستثنی شده اند ، بنابراین الگوریتم های مدل سازی شده پس از استخدام های قبلی این شرکت منعکس کننده پتانسیل آنها نیست.

حتی اگر مدل ها بتوانند مقادیر خارق العاده ای را گزارش دهند ، نحوه ارائه معلولیت به طور گسترده ای از فردی به فرد دیگر متفاوت است. به عنوان مثال ، دو فرد مبتلا به اوتیسم می توانند نقاط قوت و چالش های بسیار متفاوتی داشته باشند.

گیونز گفت: “در حالی كه ما این سیستم ها را خودكار می كنیم و كارفرمایان برای سریعترین و كارآیی تلاش می كنند ، این شانس را برای افراد از دست می دهند تا در واقع مهارت و توانایی خود را برای انجام كار نشان دهند.” “و این ضرر بزرگی است.”

رویکرد مناسب

نهادهای نظارتی دولت در نظارت بر ابزارهای استخدام هوش مصنوعی مشکل دارند. در دسامبر سال 2020 ، 11 سناتور با ارسال نامه ای به کمیسیون فرصت های شغلی برابر ایالات متحده ، ابراز نگرانی در مورد استفاده از فن آوری های اشتغال پس از همه گیری covid-19 کردند. در این نامه در مورد اختیارات آژانس برای تحقیق درمورد اینکه آیا این ابزارها تبعیض آمیز است ، به ویژه درمورد افراد دارای معلولیت ، س asksال می شود.

EEOC با نامه ای در ژانویه به آن پاسخ داد که قبل از بررسی فناوری MIT منقضی شده است. در این نامه ، کمیسیون اظهار داشت که نمی تواند ابزارهای استخدام هوش مصنوعی را بدون ادعای خاص تبعیض بررسی کند. در این نامه همچنین نگرانی ها در مورد تردید صنعت در به اشتراک گذاشتن داده ها برجسته شده و می گوید که تفاوت بین نرم افزارهای شرکت های مختلف از ارائه سیاست های گسترده EEOC جلوگیری می کند.

رولاند بم ، وکیل دادگستری و مدافع افرادی که دارای مشکلات بهداشتی رفتاری هستند ، گفت: “من از دیدن پاسخ متعجب و ناامید شدم.” “به نظر می رسد کل متن این نامه EEOC را بیش از آنکه یک سازمان اجرای قانون باشد ، به عنوان یک ناظر منفعل نشان می دهد.”

آژانس معمولاً پس از طرح ادعای تبعیض از سوی شخصی ، تحقیقات را آغاز می کند. با این حال ، با استفاده از فناوری هوش مصنوعی ، بیشتر متقاضیان نمی دانند که چرا برای این کار رد شده اند. کیت سوندرلینگ ، کمیسیونر EEOC گفت: “من معتقدم که دلیل اینکه ما شاهد اجرای بیشتر یا دعاوی خصوصی در این زمینه نبودیم ، به این دلیل است که متقاضیان نمی دانند که توسط رایانه ارزیابی یا ارزیابی شده اند.”

Sonderling می گوید که او معتقد است هوش مصنوعی روند استخدام را بهبود می بخشد و امیدوار است که آژانس راهنمایی هایی را برای کارفرمایان در مورد چگونگی اجرای بهتر آن صادر کند. وی می گوید از نظارت کنگره استقبال می کند.

[ad_2]

منبع: unbox-khabar.ir