حقوق داده های جمعی می تواند از محرمانه نگه داشتن فناوری های بزرگ جلوگیری کند


افراد نباید برای حقوق حفظ حریم خصوصی داده های خود بجنگند و در قبال عواقب اقدامات دیجیتالی خود مسئول هستند. یک قیاس را در نظر بگیرید: مردم حق دارند از آب آشامیدنی سالم استفاده کنند ، اما هر بار که در شیر آب می نوشند با بررسی کیفیت آب لوله کشی ، آنها را ترغیب نمی کنند که این حق را به کار گیرند. در عوض ، آژانس های نظارتی به نمایندگی از همه برای اطمینان از سالم بودن آب ما اقدام می کنند. برای حریم خصوصی دیجیتال نیز باید همین کار انجام شود: این چیزی نیست که مصرف کننده عادی از آن استفاده کند یا باید انتظار داشته باشد که شخصاً صلاحیت محافظت از آن را داشته باشد.

دو رویکرد موازی وجود دارد که باید برای محافظت از مردم دنبال شود.

یکی استفاده بهتر از اقدامات گروهی یا گروهی است که در غیر این صورت به عنوان جبران جمعی شناخته می شود. از نظر تاریخی ، آنها در اروپا محدود بوده اند ، اما در نوامبر سال 2020 ، پارلمان اروپا اقدامی را تصویب کرد که طبق آن 27 کشور عضو اتحادیه اروپا باید اقدامات مجاز برای جبران خسارت جمعی را در سراسر منطقه انجام دهند. در مقایسه با ایالات متحده ، اتحادیه اروپا قوانین سختگیرانه تری برای محافظت از داده های مصرف کننده و ارتقا competition رقابت دارد ، بنابراین اقدامات طبقاتی یا طبقاتی در اروپا می تواند ابزاری قدرتمند برای وکلا و فعالان باشد تا شرکت های بزرگ فناوری را مجبور به تغییر رفتار خود حتی در مواردی که آسیب می کند ، کنند. به مردم بسیار کم خواهد شد

دعاوی جبران خسارت دسته جمعی معمولاً در ایالات متحده برای جبران خسارت مالی مورد استفاده قرار می گیرد ، اما همچنین می تواند برای تحمیل تغییراتی در سیاست و عملکرد مورد استفاده قرار گیرد. آنها می توانند دست به دست هم بدهند و برنامه هایی را برای تغییر افکار عمومی به ویژه در موارد مصرف کننده (به عنوان مثال ، با اجبار Big Tobacco برای تشخیص ارتباط بین سیگار کشیدن و سرطان یا هموار کردن قوانین ایجاد کمربند) انجام دهند. این ابزارها هنگامی قدرتمند هستند که هزاران ، اگر نه میلیون ها خسارت فردی مشابه داشته باشند که برای اثبات پیوند علی و معلولی جمع می شوند. بخشی از مشکل در وهله اول دریافت اطلاعات مناسب برای قضاوت است. تلاش های دولت مانند دادخواست شکایت علیه فیس بوک در ماه دسامبر توسط کمیسیون تجارت فدرال (FTC) و گروهی از 46 ایالت بسیار مهم است. همانطور که روزنامه نگار فناوری ، گیلاد ادلمن می گوید ، “طبق دادخواستها ، از بین بردن حریم خصوصی مصرف کننده با گذشت زمان نوعی آسیب رساندن به مصرف کنندگان است – یک شبکه اجتماعی که از داده های مصرف کننده محافظت کمتری می کند ، محصول بدتری است – که فیس بوک را از یک انحصار صرف هدایت می کند. غیر مجاز. در ایالات متحده ، همانطور که اخیراً نیویورک تایمز گزارش کرده است ، موارد خصوصی ، از جمله اقدامات طبقاتی ، اغلب “براساس شواهد یافته شده توسط تحقیقات دولت است.” ، با این حال ، در اتحادیه اروپا برعکس است: پرونده های خصوصی می توانند اقدامات نظارتی را باز کنند ، که محدود است. از شکاف بین قوانین اتحادیه اروپا و نهادهای نظارتی ملی.

که ما را به رویکرد دوم می رساند: قانون کمی شناخته شده فرانسه از سال 2016 به نام لایحه جمهوری دیجیتال. لایحه جمهوری دیجیتال یکی از معدود قوانین مدرنی است که بر تصمیم گیری خودکار متمرکز است. در حال حاضر ، این قانون فقط در مورد تصمیمات اداری گرفته شده توسط سیستم های الگوریتمی بخش دولتی اعمال می شود. اما او طرحی از قوانین آینده را ارائه می دهد. این مقاله می گوید که کد منبع پشت چنین سیستم هایی باید در دسترس عموم قرار گیرد. هرکسی می تواند این کد را درخواست کند.

نکته مهم ، این قانون به بنگاه های حقوقی اجازه می دهد تا اطلاعات مربوط به عملکرد الگوریتم و کد منبع پشت آن را درخواست کنند ، حتی اگر آنها نماینده شخص یا مدعی خاصی نباشند که آسیب دیده است. نیاز به یافتن یک “شاکی کامل” برای اثبات آسیب به منظور طرح شکایت ، حل مشکلات سیستمی را که باعث آسیب رساندن به داده های جمعی می شود ، دشوار می کند. لوره لورزی ، مدیر Etalab ، یک آژانس دولتی فرانسه مسئول نظارت بر این لایحه ، می گوید تمرکز این قانون در گزارش الگوریتمی زودتر از زمان خود است. قوانین دیگر ، مانند مقررات عمومی حفاظت از داده های اروپا (GDPR) ، بیش از حد بر رضایت و محرمانه بودن فرد تمرکز دارند. اما هر دو داده و الگوریتم ها باید تنظیم شوند.

نیاز به یافتن یک “شاکی کامل” برای اثبات ضرر به منظور طرح شکایت ، حل مشکلات سیستمی را که باعث آسیب رساندن به داده های جمعی می شود دشوار می کند.

اپل در یک تبلیغ قول می دهد: “در حال حاضر ، تلفن شما اطلاعات شخصی بیشتری نسبت به خانه شما دارد. مکان ها ، پیام ها ، ضربان قلب شما بعد از دویدن. اینها چیزهای خصوصی است. و آنها باید متعلق به شما باشند. اپل تصور غلط این فردگرایانه را تقویت می کند: با ذکر نکردن اینکه تلفن شما بیش از اطلاعات شخصی شما را ذخیره می کند ، این واقعیت را پنهان می کند که داده های واقعاً ارزشمند از تعاملات شما با ارائه دهندگان خدمات و دیگران حاصل می شود. این ایده که تلفن شما معادل دیجیتالی پرونده شما است ، یک توهم راحت است. شرکت ها واقعاً به اطلاعات شخصی شما اهمیتی نمی دهند. به همین دلیل آنها می توانند وانمود کنند که آن را در یک جعبه قفل می کنند. ارزش در نتیجه گیری حاصل از تعاملات شما است که در تلفن شما نیز ذخیره شده است ، اما این داده ها متعلق به شما نیست.

کسب Fitbit توسط گوگل مثال دیگری است. Google قول داده است “از داده های Fitbit برای تبلیغات استفاده نكند” ، اما پیش بینی های سودآوری مورد نیاز به اطلاعات فردی بستگی ندارد. همانطور که گروهی از اقتصاددانان اروپایی در مقاله اخیر منتشر شده توسط مرکز تحقیقات سیاست اقتصادی ، یک اتاق فکر در لندن ، گفتند: “کافی است Google نتایج کلی بهداشت را با نتایج غیر بهداشتی حتی برای زیر مجموعه ای از کاربران Fitbit مقایسه کند که از استفاده از داده های آنها برای پیش بینی پیامدهای سلامتی (و در نتیجه هدف قرار دادن تبلیغات) برای همه کاربران غیر Fitbit (میلیاردها نفر) استفاده نکرده اند. “معامله با Google-Fitbit اساساً یک معامله داده ای گروهی است. این شرکت Google را در یک بازار کلیدی داده های مراقبت های بهداشتی قرار می دهد ، در حالی که به آن امکان می دهد مجموعه داده های مختلف را مثلثی کرده و از بینش های بازارهای بهداشت و بیمه استفاده کند.

کاری که سیاستمداران باید انجام دهند

لوایح به دنبال پر کردن این خلا gap در ایالات متحده هستند. در سال 2019 ، سناتورهای کوری بوکر و رون ویدن قانون حسابداری الگوریتمی را ارائه دادند که متعاقباً در کنگره متوقف شد. این قانون شرکت ها را ملزم به ارزیابی ارزیابی الگوریتمی در برخی شرایط برای بررسی سوگیری یا تبعیض می کند. اما در ایالات متحده ، این مسئله کلیدی به احتمال زیاد ابتدا در قوانین خاص بخش مانند مراقبت های بهداشتی ، جایی که خطر سوگیری الگوریتمی با اثرات مختلف بیماری همه گیر بر جمعیت ایالات متحده افزایش می یابد ، مورد توجه قرار می گیرد.

در پایان ژانویه ، قانون سناریوی بهداشت عمومی اضطراری توسط سناتورهای مارک وارنر و ریچارد بلومنتال در مجلس سنا و مجلس نمایندگان مجدداً مطرح شد. این قانون اطمینان می دهد که داده های جمع آوری شده برای اهداف بهداشت عمومی برای اهداف دیگر استفاده نمی شوند. این امر استفاده از داده های بهداشتی را برای اهداف تبعیض آمیز ، غیرمرتبط یا سرزده ، از جمله تبلیغات تجاری ، تجارت الکترونیکی یا تلاش برای کنترل دسترسی به اشتغال ، امور مالی ، بیمه ، مسکن یا آموزش و پرورش منع می کند. این یک شروع عالی خواهد بود. علاوه بر این ، قانونی که برای همه راه حل های الگوریتمی اعمال می شود ، باید با الهام از مثال فرانسوی ، بر مسئولیت پذیری دقیق ، نظارت شدید نظارتی بر تصمیم گیری مبتنی بر داده ، و توانایی بررسی و تأیید تصمیمات الگوریتمی و تأثیر آنها بر جامعه متمرکز باشد.

برای اطمینان از پاسخگویی صحیح به سه عنصر نیاز است: (1) شفافیت واضح درباره اینکه کجا و چه وقت تصمیمات خودکار گرفته می شود و چگونه آنها بر افراد و گروهها تأثیر می گذارند ، (2) حق جامعه برای سهم قابل توجه و درخواست مقامات برای توجیه آنها تصمیمات و (3) توانایی تحمیل مجازات ها. این بسیار مهم است که سیاستمداران باید تصمیم بگیرند ، همانطور که اخیراً در اتحادیه اروپا پیشنهاد شده است ، الگوریتم “ریسک بالا” چیست ، که باید یک استاندارد کنترل بالاتر داشته باشد.


شفافیت روشن

تمرکز باید بر بررسی عمومی تصمیم گیری خودکار و انواع شفافیت منجر به پاسخگویی باشد. این شامل آشکار کردن وجود الگوریتم ها ، هدف آنها و داده های آموزشی پشت سر آنها ، و همچنین تأثیرات آنها است – آیا منجر به نتایج متفاوتی شده است و در کدام گروه ها ، اگر چنین باشد.

مشارکت عمومی

عموم مردم حق اساسی دارند که از صاحبان قدرت بخواهند تصمیمات خود را توجیه کنند. این “حق جستجوی پاسخ” نباید به مشارکت مشورتی ، که در آن از مردم خواسته می شود در آن شرکت کنند و کارمندان به جلو می روند ، محدود شود. این باید شامل مشارکت مجاز باشد ، جایی که مشارکت عمومی قبل از معرفی الگوریتم های پر خطر در بخش های دولتی و خصوصی اجباری است.

تحریم ها

سرانجام ، قدرت تحریم کلید موفقیت این اصلاحات و پاسخگویی است. ایجاد الزامات حسابرسی برای هدف گذاری ، تأیید و نظارت بر داده ها ، ارائه این دانش پایه به حسابرسان و توانمند ساختن ناظران برای اعمال مجازات ، نه تنها برای اصلاح خسارات پس از واقعیت بلکه برای جلوگیری از آنها ، باید اجباری باشد.


مسئله آسیب جمعی داده محور همه را تحت تأثیر قرار می دهد. قانون حریم خصوصی بهداشت عمومی اضطراری اولین قدم است. سپس کنگره باید از درسهایی که از کاربرد این قانون آموخته است برای تدوین قوانینی استفاده کند که بطور خاص بر حقوق داده های جمعی متمرکز باشد. تنها از طریق چنین اقداماتی ، ایالات متحده می تواند از شرایطی كه در آن یافته های شركت های داده ، افرادی را كه توانایی افراد برای دستیابی به مسكن ، مشاغل ، اعتبار و سایر فرصت ها را برای سالهای آینده دنبال می كنند ، دور كند.


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>