[ad_1]

نه اینکه مدلهای مقیاس بزرگ هرگز نتوانند به عقل سلیم برسند. این هنوز یک سوال باز است. اما فرصت های تحقیقاتی دیگری نیز وجود دارد که سزاوار سرمایه گذاری بیشتر است. برخی از متخصصان به هوش مصنوعی عصبی ، که ترکیبی از یادگیری عمیق و سیستم های نمادین دانش است ، اعتماد کرده اند. دیگران تکنیک های محتمل تری را آزمایش می کنند که از داده های بسیار کمتری الهام گرفته از توانایی کودک انسان برای یادگیری از نمونه های بسیار کمی استفاده می کنند.

در سال 2021 ، امیدوارم این رشته انگیزه های خود را برای اولویت بندی درک نسبت به پیش بینی تنظیم کند. این نه تنها می تواند به سیستم های فنی قابل اطمینان تری منجر شود ، بلکه پیشرفت ها پیامدهای عمده اجتماعی نیز به همراه خواهد داشت. حساسیت سیستم های آموزش عمیق فعلی در برابر گمراه شدن ، به عنوان مثال ، ایمنی وسایل نقلیه خودران را تضعیف می کند و فرصت های خطرناکی را برای سلاح های خودمختار ایجاد می کند. عدم توانایی سیستم ها در تمایز بین همبستگی و علیت نیز در قلب تبعیض الگوریتمی است.

محققان حاشیه ای را فراهم کنید

اگر الگوریتم ها ارزش ها و چشم اندازهای سازندگان آنها را رمزنگاری می کنند ، هنگام توسعه باید بخش گسترده ای از بشریت در جدول باشند. من از دسامبر 2019 ، زمانی که در NeurIPS شرکت کردم ، شاهد بهتری در این مورد ندیدم. در همان سال ، با داشتن تعداد بی سابقه ای از زنان و اقلیت ها و شرکت کنندگان ، احساس می کردم که روند کار به طور قابل توجهی تغییر کرده است. گفتگوها بیشتر از هر زمان دیگری بوده است که با تأثیر AI در جامعه دست و پنجه نرم می کنند.

در آن زمان ، من جامعه را به خاطر پیشرفت آن تحسین کردم. اما نگرش Google نسبت به Gebru ، یکی از معدود زنان برجسته سیاه پوست در صنعت ، نشان داده است که کارهای بیشتری باید انجام شود. اگر این افراد مجاز نباشند تجربه خود را در کار خود وارد کنند ، تنوع در اعداد بی معنی است. با این حال ، من خوشبین هستم که جزر و مد در حال تغییر است. نقطه اشتعال مشخص شده توسط تیراندازی Gebru به لحظه ای مهم برای تأمل در صنعت تبدیل شده است. امیدوارم این حرکت منجر به یک تغییر پایدار و سیستمی شود.

دیدگاه های جوامع آسیب دیده را کانون دهید

گروه دیگری نیز هستند که باید روی میز بیاورند. یکی از جذاب ترین روندهای سال گذشته ظهور یادگیری ماشین با مشارکت بود. این تحریک کشف مجدد فرآیند توسعه هوش مصنوعی است تا شامل کسانی شود که در نهایت به الگوریتم تبدیل می شوند.

در ماه جولای ، اولین سمینار کنفرانس در مورد این رویکرد طیف وسیعی از ایده ها را در مورد شکل ظاهری آن گرد هم آورد. این پیشنهادها شامل روشهای مدیریتی جدید برای جلب نظرات جامعه است. روش های جدید برای حسابرسی مدل ها برای اطلاع رسانی و جذب مردم ؛ و طرح جدیدی از سیستمهای هوش مصنوعی را پیشنهاد داد تا کاربران بتوانند کنترل بیشتری بر تنظیمات خود داشته باشند.

امیدوارم بیشتر از این ایده ها در سال 2021 بررسی و جدی گرفته شود. فیس بوک در حال شروع کار است: اگر این کار را انجام دهد ، با اجازه دادن به هیئت نظارت خارجی خود برای اعمال تغییرات اجباری در سیاست های تعدیل محتوای پلت فرم ، ساختار حاکمیت می تواند به مکانیزم بازخورد شایسته تقلید تبدیل شود.

ریل های ایمنی را به صورت تنظیم شده تنظیم کنید

تاکنون ، تلاش های گسترده باعث شده است که جنبش کاهش آسیب الگوریتمی را بر عهده بگیرد و غول های فناوری را مجبور به پاسخگویی کند. اما نهادهای نظارتی ملی و بین المللی باید نرده های دائمی تری ایجاد کنند. خبر خوب این است که قانونگذاران در سراسر دنیا قوانین را تحت نظر داشته و در حال توسعه هستند. در ایالات متحده ، اعضای کنگره قبلاً لوایحی را با هدف شناسایی چهره ، تعصب AI و جعل عمیق ارائه کرده اند. همچنین تعداد زیادی از آنها در ماه دسامبر نامه ای به Google ارسال كردند و در آن قصد خود را برای ادامه پیروی از این آیین نامه ابراز داشتند.

بنابراین آخرین امید من به سال 2021 این است که شاهد برخی از این قبض ها هستیم. وقت آن است که آنچه را که طی چند سال اخیر آموخته ایم ، مدون کنیم و از داستان خودتنظیمی دور شویم.

[ad_2]

منبع: unbox-khabar.ir