“الگوریتم” چیست؟ به این وابسته است که از که میپرسید


به همین ترتیب ، نیویورک در حال بررسی Int 1894 است ، قانونی که ممیزی اجباری “ابزارهای تصمیم گیری خودکار” را تعیین می کند ، به عنوان “هر سیستمی که عملکرد آن توسط نظریه آماری اداره می شود یا سیستم هایی که پارامترهای آنها توسط چنین سیستم هایی تعیین می شود” تعریف شده است. . قابل توجه است که هر دو لایحه به ممیزی احتیاج دارند ، اما فقط راهنمایی های سطح بالایی را در مورد ممیزی ارائه می دهند.

در حالی که تصمیم گیرندگان هم در دولت و هم در صنعت استانداردهای ممیزی الگوریتمی را تعیین می کنند ، اما در مورد آنچه الگوریتم در نظر گرفته می شود اختلاف نظر وجود دارد. ما به جای تلاش برای دستیابی به توافق کلی در مورد تعریف “الگوریتم” یا یک تکنیک ویژه حسابرسی جهانی ، پیشنهاد می کنیم سیستم های خودکار را اساساً بر اساس تأثیر آنها ارزیابی کنیم. با تمرکز بر نتیجه و نه ورودی ، از بحث های غیرضروری در مورد پیچیدگی فنی جلوگیری می کنیم. مهم پتانسیل آسیب است ، خواه در مورد یک فرمول جبری بحث کنیم یا یک شبکه عصبی عمیق.

تأثیر در زمینه های دیگر یک فاکتور ارزیابی حیاتی است. این در چارچوب کلاسیک DREAD در امنیت سایبری تعبیه شده است که اولین بار توسط مایکروسافت در اوایل دهه 2000 رواج یافت و هنوز هم در برخی از شرکت ها مورد استفاده قرار می گیرد. “A” در DREAD به ارزیابی کنندگان تهدید نیاز دارد تا “کاربران تحت تأثیر” را با پرسیدن اینکه چه تعداد از افراد تحت تأثیر این آسیب پذیری قرار می گیرند کمی تعیین کنند. ارزیابی تأثیرات نیز در تجزیه و تحلیل حقوق بشر و پایداری رایج است و ما دیده ایم که برخی از توسعه دهندگان اولیه ارزیابی تأثیر AI عناوین مشابهی را ایجاد می کنند. به عنوان مثال ، ارزیابی تأثیر الگوریتمی کانادایی ارزیابی بر اساس سوالات کیفی از جمله “آیا مشتریان در این تجارت به ویژه آسیب پذیر هستند؟” (آره یا نه).”

مهم پتانسیل آسیب است ، خواه در مورد یک فرمول جبری بحث کنیم یا یک شبکه عصبی عمیق.

در معرفی اصطلاح آزادانه تعریف شده به عنوان “تأثیر” در هر ارزیابی قطعاً مشکلاتی وجود دارد. چارچوب DREAD بعداً توسط STRIDE تکمیل یا جایگزین شد ، تا حدی به دلیل چالش هایی که با سازگاری باورهای مختلف در مورد آنچه که شامل مدل سازی تهدید است ، ایجاد شد. مایکروسافت استفاده از DREAD را در سال 2008 متوقف کرد.

در زمینه هوش مصنوعی ، کنفرانس ها و مجلات قبلاً اظهارات تأثیر را با درجات مختلف موفقیت و جنجال معرفی کرده اند. این کاملاً قابل اعتماد نیست: ارزیابی تأثیرات که کاملاً تدوین شده اند می توانند به راحتی دور زده شوند ، در حالی که تعریف بسیار مبهم می تواند به ارزیابی های خودسرانه یا غیرممکن طولانی منجر شود.

هنوز هم ، این یک گام مهم به جلو است. اصطلاح “الگوریتم” ، اگرچه تعریف شده است ، نباید سپری برای آزاد کردن افرادی باشد که هرگونه مسئولیت را برای عواقب استفاده از آن طراحی و اجرا کرده اند. به همین دلیل است که مردم به طور فزاینده ای به پاسخگویی الگوریتمی نیاز دارند – و مفهوم تأثیر زمینه مشترک مفیدی را برای گروه های مختلفی که برای پاسخگویی به این تقاضا کار می کنند ، ارائه می دهد.

کریستین لوم استادیار گروه علوم کامپیوتر و اطلاعات در دانشگاه پنسیلوانیا است.

رومن چودوری مدیر تیم اخلاق ماشین ، شفافیت و پاسخگویی (META) در توییتر است. پیش از این ، او مدیر عامل و بنیانگذار Parity بود ، یک سیستم حسابرسی الگوریتمی و رهبر جهانی هوش مصنوعی مسئول در Accenture.




منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>