تعصب تنها مشکل در امتیازات اعتباری نیست – و نه ، هوش مصنوعی نمی تواند کمکی کند


اما در بزرگترین مطالعه داده های رهن در دنیای واقعی تاکنون ، اقتصاددانان لورا بلاتنر از دانشگاه استنفورد و اسکات نلسون از دانشگاه شیکاگو نشان داده اند که تفاوت در تصویب وام مسکن بین گروه های اقلیت و اکثریت محدود به تعصب نیست ، بلکه به واقعیت محدود است. که گروه های اقلیت و گروه های کم درآمد داده های کمتری در تاریخ اعتبار خود دارند.

این بدان معناست که وقتی از این داده ها برای محاسبه رتبه بندی اعتباری و از رتبه اعتباری برای پیش بینی نکول وام استفاده می شود ، آن پیش بینی دقیق تر نخواهد بود. همین عدم دقت است که منجر به نابرابری می شود ، نه فقط تعصب.

عواقب آن واضح است: الگوریتم های منصفانه مشکلی را حل نمی کنند.

اشش رامباچان ، که در دانشگاه هاروارد در حال یادگیری ماشین و اقتصاد است ، اما در این مطالعه شرکت نکرد ، گفت: “این یک نتیجه واقعا شگفت انگیز است.” سوگیری و سوابق اعتباری ناهموار برای مدتی موضوع داغ بوده است ، اما این اولین آزمایش گسترده است که به درخواست های وام از میلیون ها انسان واقعی نگاه می کند.

امتیازات اعتباری مجموعه ای از داده های اقتصادی – اجتماعی مانند سابقه اشتغال ، سوابق مالی و عادات خرید را در یک واحد قرار می دهد. علاوه بر تصمیم گیری در مورد درخواست های وام ، اکنون از امتیازات اعتباری برای تصمیم گیری های تغییر دهنده زندگی ، از جمله تصمیمات مربوط به بیمه ، اجاره و اسکان استفاده می شود.

برای درک اینکه چرا وام دهندگان وام مسکن متفاوت با اقلیت ها و اکثریت رفتار می کنند ، بلاتنر و نلسون گزارش های اعتباری را برای 50 میلیون کاربر ناشناس در ایالات متحده تهیه کرده و هر یک از این کاربران را با جزئیات اقتصادی اجتماعی خود از داده های بازاریابی ، دارایی های آنها و معاملات رهنی مرتبط کردند و اطلاعات مربوط به طلبکاران رهنی که به آنها وام داده اند.

یک دلیل که این اولین مطالعه در نوع خود است این است که این مجموعه داده ها اختصاصی هستند و در دسترس عموم محققان نیستند. بلاتنر گفت: “ما به یک دفتر اعتباری مراجعه کردیم و به طور کلی مجبور بودیم برای این کار هزینه زیادی به آنها بپردازیم.”

داده های پر سر و صدا

آنها سپس الگوریتم های مختلف پیش بینی را آزمایش کردند تا نشان دهند که امتیازات اعتباری فقط مغرضانه نبوده بلکه “پر سر و صدا” است ، اصطلاح آماری برای داده هایی که نمی توان برای پیش بینی های صحیح استفاده کرد. یک نامزد اقلیت را با نمره اعتباری 620 در نظر بگیرید. در یک سیستم مغرضانه ، ما می توانیم انتظار داشته باشیم که این امتیاز همیشه خطر آن نامزد را بیش از حد ارزیابی کند و به عنوان مثال رتبه دقیق تر 625 باشد. در تئوری ، این تعصب می تواند توسط نوعی اعتبارسنجی الگوریتمی ، مانند کاهش آستانه تأیید برای برنامه های اقلیت ، محاسبه شود.


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>