[ad_1]

تجزیه و تحلیل محققان همچنین نشان می دهد که چهره های برچسب زده در طبیعت (LFW) ، مجموعه ای از داده ها که در سال 2007 معرفی شد و اولین موردی بود که از تصاویر شخصی که از اینترنت خارج شده بود استفاده کرد ، طی 15 سال استفاده چندین بار تغییر کرده است. در حالی که به عنوان منبعی برای ارزیابی مدلهای تحقیقاتی تشخیص چهره آغاز شد ، اکنون تقریباً به طور انحصاری برای ارزیابی سیستمهای طراحی شده برای استفاده در دنیای واقعی استفاده می شود. این علیرغم برچسب هشدار دهنده در وب سایت مجموعه داده است که در مورد چنین استفاده ای هشدار می دهد.

اخیراً ، مجموعه داده به یک مشتق به نام SMFRD هدایت شد ، که ماسک صورت را به هر یک از تصاویر اضافه می کند تا سرعت تشخیص چهره در طول همه گیری را تسریع کند. نویسندگان خاطرنشان می کنند که این ممکن است چالش های اخلاقی جدیدی ایجاد کند. به عنوان مثال ، طرفداران حریم خصوصی از چنین برنامه هایی برای افزایش نظارت – و به ویژه به دولت اجازه می دهند تا معترضان نقاب دار را شناسایی کند.

مارگارت میچل ، محقق اخلاق هوش مصنوعی و رهبر در زمینه داده های مسئولانه که در این مطالعه شرکت نمی کند ، می گوید: “این یک سند واقعاً مهم است ، زیرا چشم افراد معمولاً به پیچیدگی و آسیب ها و خطرات احتمالی مجموعه داده ها باز نیست.”

وی افزود: مدتهاست فرهنگ جامعه هوش مصنوعی این است که بپذیرد داده ها برای استفاده وجود دارد. این مقاله نشان می دهد که چگونه این می تواند منجر به مشکلات پایین شود. او می گوید: “واقعا مهم است که مقادیر مختلفی را که یک مجموعه داده کد می کند ، و همچنین مقادیری که یک مجموعه داده موجود را رمزگذاری می کند ، در نظر بگیریم.”

تصحیح

نویسندگان مطالعه چندین توصیه برای جامعه هوش مصنوعی که در حال حرکت است ارائه می دهند. ابتدا ، سازندگان باید به طور واضح تری در مورد هدف مجموعه داده های خود ، هم از طریق مجوزها و هم مستندات دقیق ، با یکدیگر ارتباط برقرار کنند. آنها همچنین باید محدودیت های بیشتری را برای دسترسی به داده های خود اعمال کنند ، شاید با درخواست از محققان برای امضای توافق نامه یا درخواست از آنها برای تکمیل یک برنامه ، به ویژه اگر قصد ایجاد مجموعه ای از داده های مشتق شده را دارند.

دوم ، کنفرانس های تحقیقاتی باید استانداردهایی را برای نحوه جمع آوری ، برچسب گذاری و استفاده از داده ها تعیین کنند و باید انگیزه هایی برای ایجاد داده های مسئولانه ایجاد کنند. NeurIPS ، بزرگترین کنفرانس تحقیقاتی هوش مصنوعی ، اکنون لیستی از بهترین شیوه ها و دستورالعمل های اخلاقی را شامل می شود.

میچل پیشنهاد می کند که فراتر بروید. به عنوان بخشی از پروژه BigScience ، همکاری بین محققان هوش مصنوعی برای توسعه یک مدل هوش مصنوعی که بتواند زبان طبیعی را با یک استاندارد اخلاقی دقیق تجزیه و تحلیل و تولید کند ، او ایده ایجاد سازمان های مدیریت مجموعه داده را آزمایش کرد – تیم هایی از افراد که نه تنها مراقبت از ذخیره ، نگهداری و استفاده از داده ها ، و همچنین همکاری با وکلا ، فعالان و عموم مردم برای اطمینان از رعایت استانداردهای قانونی ، تنها با رضایت جمع آوری می شوند و در صورت تصمیم گیری برای برداشتن اطلاعات شخصی ، قابل حذف هستند. به چنین سازمان های مدیریتی برای همه مجموعه داده ها مورد نیاز نیست – اما مطمئناً برای داده های حذف شده که می توانند حاوی اطلاعات بیومتریک یا شخصی یا مالکیت معنوی باشند.

او می گوید: “جمع آوری و نظارت بر مجموعه داده ها برای یک یا دو نفر یکبار کار نیست.” “اگر این کار را با مسئولیت انجام دهید ، به کارهای مختلفی تبدیل می شود که نیاز به تفکر عمیق ، تجربه عمیق و افراد مختلف دارد.”

در سال های اخیر ، این زمینه به طور فزاینده ای بر این باور متمرکز شده است که مجموعه داده های دقیق تر انتخاب شده کلیدی برای غلبه بر بسیاری از چالش های فنی و اخلاقی در صنعت خواهد بود. اکنون واضح است که ایجاد مجموعه داده های مسئولتر کافی نیست. کارکنان هوش مصنوعی همچنین باید تعهد بلند مدتی برای حفظ و استفاده اخلاقی از آنها داشته باشند.

[ad_2]

منبع: unbox-khabar.ir

ایندکسر