[ad_1]

تعجب آور نیست که این فیلم ها خبرساز می شوند. مردم فیلم هایشان را می سازند چون کار می کنند. دریافت بازخورد یکی از موثرترین استراتژی ها برای اجرای یک سیستم عامل بزرگ برای رفع مشکل سالهاست. تیکتوک ، توییتر و فیس بوک گزارش تخلف و نقض قوانین توسط سایر کاربران را برای کاربران آسان تر کرده است. اما هنگامی که به نظر می رسد این شرکت ها سیاست های خود را نقض می کنند ، مردم معمولاً می دانند که بهترین راه پیش روی این است که به سادگی سعی کنند در این زمینه پست خود را منتشر کنند ، به این امید که ویروسی شود و مورد توجه قرار گیرد و منجر به نوعی وضوح شود. به عنوان مثال ، دو فیلم تایلر در bios Marketplace بیش از 1 میلیون بازدید دارند.

“این محتوا سیگنال شده است زیرا آنها افرادی از یک گروه حاشیه ای هستند که در مورد تجربیات خود با نژادپرستی صحبت می کنند. گفتار متنفر و نفرت می تواند شباهت زیادی به الگوریتم داشته باشد.

کیسی فیسلر ، دانشگاه کلرادو ، بولدر

کیسی فیسلر ، استادیار دانشگاه کلرادو ، بولدر ، که در زمینه اخلاق فناوری و جوامع آنلاین تحصیل می کند ، گفت: “من احتمالاً هفته ای یک بار در چیزی برچسب گذاری می شوم.” او در TikTok فعال است ، با بیش از 50،000 دنبال کننده ، اما اگرچه همه چیزهایی که او می بیند احساس نگرانی قانونی نیست ، او می گوید که رژه منظم برنامه ها واقعی است. در چند ماه گذشته چندین مورد از این قبیل خطاها را داشته است ، همه اینها بر گروههای حاشیه نشین نامتناسب در سیستم عامل تأثیر گذاشته است.

بررسی فناوری MIT از TikTok هر یک از این مثالهای اخیر را پرسید و پاسخها مشابه است: پس از تحقیق TikTok متوجه شد که این مشکل به اشتباه ایجاد شده است ، تأکید کرد که محتوای مسدود شده مورد بحث نقض خط مشی ها و پیوندهای آنها برای حمایت از شرکتی نیست که چنین گروه هایی را ارائه می دهد.

سوال این است که آیا این چرخه – برخی خطاهای فنی یا خط مشی ، پاسخ ویروسی و عذرخواهی – قابل تغییر است.

قبل از بروز مشکلات آنها را حل کنید

فیسلر می گوید: “احتمالاً دو نوع آسیب از این تعدیل الگوریتمی محتوایی است که مردم مشاهده می کنند.” “یکی انکارهای دروغین است. مردم مانند “چرا این همه سخنان نفرت در این سیستم عامل وجود دارد و چرا از بین نمی رود؟”

دیگری مثبت کاذب است. وی گفت: “محتوای آنها مشخص شده است زیرا آنها افرادی از یک گروه حاشیه ای هستند که در مورد تجربه نژادپرستی خود صحبت می کنند.” “گفتار متنفر و نفرت می تواند بسیار شبیه الگوریتم باشد.

وی خاطرنشان کرد ، هر دو دسته به یک افراد آسیب می رسانند: کسانی که بطور نامتناسبی سو ab استفاده می کنند در نهایت از نظر الگوریتمی سانسور می شوند تا در مورد آن صحبت کنند.

الگوریتم های مرموز توصیه شده TikTok بخشی از موفقیت آن است ، اما مرزهای مبهم و همیشه در حال تغییر بر روی برخی از کاربران تأثیر مهمی دارند. Fiesler خاطرنشان می کند که بسیاری از سازندگان TikTok برای جلوگیری از ایجاد یک بررسی ، کلمات خود را سانسور می کنند. و گرچه او مطمئن نیست که دقیقاً چقدر به این تاکتیک دست یافته است ، اما Filzer نیز شروع به انجام آن کرده است ، به هر حال. ممنوعیت های حساب ، معماهای الگوریتمی و راه حل های تعدیل عجیب و غریب بخشی ثابت از مکالمه درون برنامه ای است.

[ad_2]

منبع: unbox-khabar.ir