الگوریتم های هوش مصنوعی می توانند جذابیت شما را ارزیابی کنند


مقایسه دو عکس از بیانسه نولز از مطالعه لورن روکس با استفاده از Face ++. هوش مصنوعی وی پیش بینی می کند که تصویر سمت چپ 74.776٪ برای مردان و 77.914٪ برای زنان تخمین زده شود. در همین حال ، تصویر سمت راست 87.468٪ برای مردان و 91.14٪ برای زنان در مدل خود نشان داده شده است.

نتایج زیبایی ، او می گوید ، بخشی از پویایی نگران کننده بین فرهنگ زیبایی ناسالم و الگوریتم های ارجاعی است که هر روز بصورت آنلاین با آن روبرو می شویم. برای مثال ، وقتی ده ها نفر برای تصمیم گیری در مورد پست های خود در سیستم عامل های رسانه های اجتماعی استفاده می شوند ، تعریف آنچه را جذاب می دانند تقویت می کند و توجه کسانی را که ایده آل دقیق دستگاه را ندارند ، جلب می کند. Rue می گوید: “ما در حال کاهش انواع عکس هایی هستیم که در دسترس همه باشد.”

این یک چرخه معیوب است: با نمایش بیشتر مطالب درگیر افراد جذاب ، این تصاویر می توانند جذابیت بیشتری به دست آورند به طوری که حتی برای افراد بیشتری نمایش داده می شوند. از این گذشته ، حتی وقتی نمره زیبایی بالا دلیل مستقیمی برای نشان دادن پست شما نباشد ، این یک عامل غیرمستقیم است.

وی در تحقیقی که در سال 2019 منتشر شد ، وی بررسی کرد که چگونه دو الگوریتم ، یکی برای ارزیابی زیبایی و دیگری برای پیش بینی سن ، بر عقاید افراد تأثیر می گذارد. به شرکت کنندگان تصاویر مردم نشان داده شد و از آنها خواسته شد که زیبایی و سن سایت ها را ارزیابی کنند. به برخی از شرکت کنندگان قبل از پاسخ دادن نتیجه تولید شده توسط هوش مصنوعی نشان داده شد ، در حالی که به دیگران دیگر نتیجه هوش مصنوعی نشان داده نشد. وی دریافت که شرکت کنندگانی که از رتبه بندی AI اطلاعاتی نداشتند تعصب بیشتری نشان ندادند. با این حال ، دانستن اینکه هوش مصنوعی چگونه میزان جذابیت افراد را رتبه بندی می کند ، باعث می شود افراد به نتایج نزدیک به نتیجه الگوریتمی نزدیک شوند. Rhue این را “اثر تثبیت” می نامد.

او می گوید: “الگوریتم های توصیه در واقع آنچه را که ما ترجیح می دهیم تغییر می دهند.” “و البته چالش از نظر فناوری این است که زیاد آنها را محدود نکنیم. در مورد زیبایی ، ما بسیار باریک تر از آنچه که انتظار داشتم ، مشاهده می کنیم. “

“من دلیلی نمی دیدم که از کمبودهای شما قدردانی نکنم ، زیرا روشهایی برای اصلاح آنها وجود دارد.”

شفیع حسن ، استودیو Qoves

حسن در کاووس می گوید که سعی کرده است با مشکل نژادی کنار بیاید. هنگام تهیه گزارش دقیق تجزیه و تحلیل چهره – گزارشی که مشتری برای آن هزینه می کند – استودیوی وی سعی می کند از داده ها برای طبقه بندی چهره با توجه به قومیت استفاده کند تا همه به سادگی در برابر ایده آل اروپا قضاوت نشوند. وی گفت: “شما فقط می توانید با تبدیل شدن به بهترین نسخه از خود ، بهترین نسخه از قومیت خود ، بهترین نسخه از نژاد خود ، از این تعصب Eurocentric جلوگیری كنید.”

اما Rue می گوید که او نگران است که این نوع طبقه بندی قومی در زیرساخت های فناوری ما عمیق تر باشد. وی گفت: “مسئله این است که مردم این کار را انجام می دهند ، مهم نیست که چطور به آن نگاه کنیم و هیچ نوع نظارتی و نظارتی وجود ندارد.” “اگر اختلاف نظر وجود داشته باشد ، مردم سعی می کنند بفهمند چه کسی به کدام گروه تعلق دارد.”


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>