[ad_1]

در دفاع از خود ، بسیاری از توسعه دهندگان ابزار پیش بینی پلیس می گویند که آنها برای به دست آوردن تصویر دقیق تری از میزان جرم و جنایت در محله های مختلف ، از گزارش های قربانیان استفاده می کنند. از نظر تئوری ، گزارش های قربانیان باید کمتر مغرضانه عمل کنند ، زیرا تحت تأثیر سوگیری پلیس یا چرخه بازخورد قرار نمی گیرند.

اما Nile-Jana Akpinar و Alexandra Chuldehova از دانشگاه Carnegie Mellon نشان می دهند که نظرات گزارش شده توسط قربانیان نیز تحریف شده است. این زوج الگوریتم پیش بینی خود را با استفاده از همان مدل موجود در چندین ابزار محبوب ، از جمله PredPol ، پرکاربردترین سیستم در ایالات متحده ، ساخته اند. آنها در حال آموزش مدل مدل داده های قربانی برای بوگوتا در کلمبیا ، یکی از معدود شهرهایی هستند که داده های مستقل گزارش جرم در سطح منطقه در دسترس است.

هنگامی که آنها پیش بینی ابزار خود را با داده های واقعی جرم و جنایت برای هر منطقه مقایسه کردند ، متوجه شدند که اشتباهات مهمی مرتکب شده است. به عنوان مثال ، در منطقه ای که جرایم کمی گزارش شده است ، این ابزار فقط حدود 20٪ از نقاط واقعی را پیش بینی می کند – نرخ بالای جرم و جنایت. از طرف دیگر ، در منطقه ای با تعداد زیادی گزارش ، این ابزار 20٪ نقاط داغ بیشتر از آنچه در واقع بود پیش بینی می کند.

برای راشیدا ریچاردسون ، یک حقوقدان و محققی که تعصبات الگوریتمی را در انستیتوی AI Now در نیویورک مطالعه می کند ، این نتایج کارهای موجود را تقویت می کند که مشکلات مجموعه داده های مورد استفاده در پیش بینی پلیس را برجسته می کند. وی گفت: “آنها منجر به نتایج مغرضانه ای می شوند که امنیت عمومی را بهبود نمی بخشد.” “من فکر می کنم بسیاری از ارائه دهندگان پلیس قابل پیش بینی مانند PredPol واقعاً نمی فهمند که چگونه شرایط ساختاری و اجتماعی مغرضانه است یا اشکال زیادی از داده های جرم را تحریف می کند.”

پس چرا الگوریتم اینقدر اشتباه فهمیده است؟ مشکل گزارشات قربانیان این است که سیاه پوستان بیشتر سفید گزارش می شوند. سفیدپوستان ثروتمندتر احتمالاً یک سیاهپوست فقیرتر را گزارش می دهند تا بالعکس. و همچنین سیاه پوستان بیشتر گزارش می دهند سیاه پوستان دیگر. همانند داده های دستگیری ، این امر باعث می شود که محله های سیاه پوست بیشتر از حد مجاز به عنوان نقاط جرم شناخته شوند.

عوامل دیگر نیز تصویر را تحریف می کنند. ریچاردسون گفت: “گزارش قربانیان نیز به اعتماد یا عدم اعتماد جامعه به پلیس مربوط می شود.” “بنابراین ، اگر در جامعه ای با پلیس فاسد تاریخی یا مغرض نژادی باشید ، این امر بر نحوه و اینکه افراد جرم را گزارش می کنند تأثیر می گذارد.” در این حالت ، یک ابزار پیش بینی ممکن است سطح جرم را در یک منطقه دست کم بگیرد و منجر به این شود که وی انجام می دهد پلیس لازم را دریافت نکنید

هیچ راهکاری سریع وجود ندارد

از آن بدتر ، هنوز هیچ اصلاح فنی واضحی وجود ندارد. آكپینار و چولدهوا سعی كردند مدل بوگوتای خود را برای در نظر گرفتن تعصباتی كه مشاهده كردند ، تنظیم كنند ، اما اطلاعات كافی در مورد این تغییرات را نداشتند تا تفاوت زیادی ایجاد كنند – اگرچه داده های بوگوتا در سطح منطقه بیشتر از هر شهر در ایالات متحده است. . آكپینار گفت: “در نهایت ، روشن نیست كه آیا كاهش سوگیری در این مورد از تلاش های قبلی برای متوقف كردن سیستم های مبتنی بر داده آسان تر است”.

چه کاری می توان انجام داد؟ ریچاردسون معتقد است که فشار عمومی برای از بین بردن ابزارهای نژادپرستانه و سیاست های پشت سر آنها تنها پاسخ است. وی گفت: “این فقط مسئله اراده سیاسی است.” وی خاطرنشان كرد كه متولدین اولیه ابزارهای پیش بینی پلیس ، مانند سانتا كروز ، اعلام كرده اند كه دیگر از آنها استفاده نخواهند كرد و گزارشهای رسمی واضحی از استفاده LAPD و PD شیكاگو از پلیس پیش بینی وجود دارد. وی گفت: “اما پاسخ ها در هر شهر متفاوت بود.”

شیکاگو استفاده از پلیس پیش آگهی را متوقف کرد ، اما سرمایه گذاری مجدد را در پایگاه داده باندهای پلیس انجام داد ، که به گفته ریچاردسون بسیاری از مشکلات مشابه بود.

وی گفت: “این نگران کننده است که حتی وقتی تحقیقات و گزارش های دولت مشکلات قابل توجهی را در این فن آوری ها نشان می دهد ، فقط کافی نیست که سیاستمداران و افسران پلیس بگویند از آنها استفاده نمی شود.”

[ad_2]

منبع: unbox-khabar.ir