در حال پیشرفت به هوش مصنوعی عادلانه تر


همه گیری که در طول سال گذشته در سراسر جهان بیداد کرده است ، نوری سرد و سخت را بر بسیاری از موارد روشن کرده است – سطوح مختلف آمادگی برای واکنش. نگرش جمعی نسبت به بهداشت ، فناوری و علم ؛ و نابرابری های عظیم مالی و اجتماعی. از آنجایی که جهان همچنان در بحران سلامت covid-19 جهت گیری می کند و بعضی از مناطق حتی بازگشت تدریجی به محل کار ، مدرسه ، مسافرت و اوقات فراغت را آغاز می کنند ، پرداختن به اولویت های رقابتی برای محافظت از بهداشت عمومی در عین حفظ محرمانگی بسیار مهم است. تضمین شده است

بحران طولانی مدت منجر به تغییرات سریع در کار و رفتار اجتماعی و همچنین وابستگی بیشتر به فناوری شده است. اکنون هوشیاری بیشتر شرکت ها ، دولت ها و جامعه در استفاده از فناوری و پردازش اطلاعات شخصی از هر زمان دیگری مهمتر است. پذیرش گسترده و سریع هوش مصنوعی (AI) نشان می دهد که چگونه فن آوری های انطباقی به طور بالقوه خطرناک یا ناعادلانه با مردم و نهادهای اجتماعی تلاقی می کنند.

جوآو شلسینگر ، رئیس اخلاق هوش مصنوعی در Salesforce گفت: “رابطه ما با فناوری به طور کلی پس از همه گیری به طور قابل توجهی تغییر خواهد کرد.” “یک فرایند مذاکره بین مردم ، مشاغل ، دولت و فناوری وجود خواهد داشت. چگونه داده های آنها بین همه این کشورها در یک پیمان جدید داده های اجتماعی مورد بحث و گفتگو قرار می گیرد. “

هوش مصنوعی در عمل

با آغاز بحران کووید -19 در اوایل سال 2020 ، محققان به دنبال هوش مصنوعی برای پشتیبانی از انواع برنامه های پزشکی مانند شناسایی کاندیداهای احتمالی دارویی برای واکسن یا درمان ، کمک به شناسایی علائم بالقوه کووید بودند. -19 و تخصیص منابع کمیاب مانند به عنوان تختخوابهای فشرده و طرفداران. به طور خاص ، آنها برای تولید واکسن ها و درمان های پیشرفته به قدرت تحلیلی سیستم های تکمیل شده با هوش مصنوعی اعتماد کردند.

اگرچه ابزارهای پیشرفته تجزیه و تحلیل داده ها می توانند به برداشت بینش از حجم گسترده ای از داده ها کمک کنند ، اما همیشه نتیجه منصفانه تر نبوده است. در حقیقت ، ابزارهای مدیریت شده توسط هوش مصنوعی و مجموعه داده هایی که با آنها کار می کنند ، می توانند تعصب ذاتی یا نابرابری سیستمی را تداوم بخشند. در طول همه گیری ، آژانس هایی مانند مراکز کنترل و پیشگیری از بیماری ها و سازمان بهداشت جهانی مقدار زیادی داده جمع آوری کردند ، اما داده ها لزوماً جمعیت هایی را نشان نمی دهد که به طور نامتناسبی و منفی تحت تأثیر قرار گرفته اند – از جمله افراد سیاه پوست ، قهوه ای و محلی – و نه برخی شلزینگر می گوید ، از دستاوردهای تشخیصی که به دست آورده اند.

به عنوان مثال ، پوشیدنی های بیومتریک مانند Fitbit یا Apple Watch نویدبخش توانایی تشخیص علائم بالقوه covid-19 مانند تغییرات دما یا اشباع اکسیژن است. با این حال ، این تجزیه و تحلیل به مجموعه داده های اغلب معیوب یا محدود متکی است و می تواند تعصبات یا بی عدالتی هایی را ایجاد کند که به طور نامتناسبی بر افراد و جوامع آسیب پذیر تأثیر می گذارد.

شلسینگر با اشاره به منبع نور نیمه هادی می گوید: “برخی مطالعات نشان می دهد که نور LED سبز برای خواندن ضربان قلب و اشباع اکسیژن در رنگ های تیره تر پوست دشوارتر است.” “بنابراین ممکن است به همان اندازه کار خوبی در ابتلا به علائم واضح برای کسانی که پوست سیاه و قهوه ای دارند انجام ندهد.”

هوش مصنوعی کارایی بیشتری در پشتیبانی از تجزیه و تحلیل مجموعه های عظیم داده نشان داده است. تیمی از دانشکده فنی دانشگاه کالیفرنیای جنوبی یک چارچوب هوش مصنوعی برای کمک به تجزیه و تحلیل نامزدهای واکسن covid-19 ایجاد کرده اند. وی پس از شناسایی 26 نامزد احتمالی ، حوزه را به 11 نفر محدود كرد كه احتمالاً موفق خواهند شد. منبع داده های تجزیه و تحلیل ، پایگاه داده اپی توپ ایمنی بود که شامل بیش از 600000 عامل تعیین کننده عفونت از بیش از 3600 گونه است.

سایر محققان ویتربی از هوش مصنوعی برای رمزگشایی دقیق تر کدهای فرهنگی و درک بهتر هنجارهای اجتماعی حاکم بر رفتار گروه های قومی و نژادی استفاده می کنند. این امر می تواند به دلیل تشریفات مذهبی ، سنت ها و سایر آداب و رسوم اجتماعی که می تواند شیوع ویروس را تسهیل کند ، در نحوه حرکت یک جمعیت خاص در طی بحرانی مانند همه گیری تأثیر بسزایی داشته باشد.

محققان برجسته کریستینا لرمن و فرد مورستاتر مطالعه خود را بر اساس نظریه مبانی اخلاقی بنا نهادند ، که “اخلاق شهودی” را توصیف می کند که ساختارهای اخلاقی فرهنگ مانند مراقبت ، عدالت ، وفاداری و اقتدار را شکل می دهد ، و به اطلاع رسانی رفتارهای فردی و گروهی .

مورستاتر در گزارشی که توسط USC منتشر شد گفت: “هدف ما ایجاد چارچوبی است که به ما امکان درک پویایی فرآیند تصمیم گیری یک فرهنگ را به سطح عمیق تری برساند.” “و از این طریق ما پیش بینی های آگاهانه تر از نظر فرهنگی ایجاد می کنیم.”

این مطالعه همچنین چگونگی استفاده از هوش مصنوعی را به روشی اخلاقی و منصفانه بررسی می کند. شلزینگر می گوید: “بیشتر مردم ، اما نه همه ، علاقه مند به ایجاد جهان بهتر هستند.” “اکنون ما باید به سطح بعدی برویم – چه اهدافی را می خواهیم بدست آوریم و دوست داریم چه نتایجی را ببینیم؟” چگونه موفقیت را اندازه گیری خواهیم کرد و چگونه به نظر می رسد؟ “

تسکین دهنده مسائل اخلاقی

شلسینگر می گوید ، بسیار مهم است که فرضیات مربوط به داده های جمع آوری شده و فرآیندهای AI را زیر سال ببریم. “ما در مورد دستیابی به عدالت از طریق آگاهی صحبت می کنیم. در هر مرحله از فرآیند ، شما قضاوت یا پیش فرض های ارزشی می کنید که نتایج شما را در یک جهت خاص وزن کند. ” “این چالش اصلی در ایجاد هوش مصنوعی اخلاقی است که عبارت است از بررسی همه مکانهایی که مردم در آن تعصب دارند.”

بخشی از این چالش بررسی انتقادی مجموعه داده هایی است که به سیستم های هوش مصنوعی اطلاع می دهند. درک منابع داده و ترکیب آنها و پاسخ به س questionsالاتی از قبیل: نحوه جمع آوری داده ها ضروری است؟ آیا دامنه متنوعی از ذینفعان را شامل می شود؟ بهترین روش برای ادغام این داده ها در یک مدل برای به حداقل رساندن تعصب و افزایش عدالت چیست؟

تا زمان بازگشت افراد به کار ، کارفرمایان اکنون می توانند از فناوری حسگر با هوش مصنوعی داخلی ، از جمله دوربین های حرارتی برای تشخیص دمای بالا استفاده کنند. حسگرهای صوتی برای تشخیص سرفه یا صدای بلند ، که به گسترش قطرات تنفسی کمک می کنند. و جریان های ویدئویی برای نظارت بر روش های شستن دست ، مقررات فاصله فیزیکی و نیازهای ماسک.

چنین سیستمهای نظارتی و نظارتی نه تنها با دقت فنی با چالشهایی روبرو هستند ، بلکه خطرات عمده ای را برای حقوق بشر ، حریم خصوصی ، امنیت و اعتماد به همراه دارند. حرکت برای افزایش نظارت یک اثر جانبی نگران کننده از همه گیری است. آژانس های دولتی برای کمک به ردیابی حرکات افرادی که ممکن است قرارداد منعقد کرده اند یا در معرض covid-19 قرار گرفته اند و ایجاد ویروس از تصاویر نظارتی ، داده های مکان تلفن های هوشمند ، سوابق خرید کارت اعتباری و حتی اسکن دمای غیر فعال در مناطق عمومی شلوغ مانند فرودگاه ها استفاده کرده اند زنجیر انتقال

شلزینگر می گوید: “اولین سوالی که باید به آن پاسخ داده شود این نیست که آیا ما می توانیم این کار را انجام دهیم ، بلکه آیا باید این کار را انجام دهیم؟” “اسکن کردن افراد برای دریافت داده های بیومتریک آنها بدون رضایت آنها نگرانی های اخلاقی را ایجاد می کند ، حتی اگر به عنوان یک مزیت برای بهتر قرار گیرد. ما به عنوان یک جامعه باید گفتگوی محکمی داشته باشیم که آیا در ابتدا دلیل خوبی برای پیاده سازی این فناوری ها وجود دارد یا خیر. “

آینده چگونه است

با بازگشت جامعه به چیزی نزدیک به حالت عادی ، وقت آن است که اساساً رابطه با داده ها را دوباره ارزیابی کنیم و هنجارهای جدیدی را برای جمع آوری داده ها ، و همچنین استفاده مناسب – و سو mis استفاده بالقوه – از داده ها را تعیین کنیم. هنگام ساخت و بکارگیری فناوری های هوش مصنوعی ، آنها فرضیات لازم در مورد داده ها و فرایندها را ادامه می دهند ، اما باید مبانی این داده ها را زیر سال برد. آیا داده ها به طور قانونی تولید می شوند؟ چه کسی آن را کنار هم قرار داده است؟ بر اساس چه فرضیاتی است؟ آیا به درستی ارائه شده است؟ چگونه می توان حریم خصوصی شهروندان و مصرف کنندگان را حفظ کرد؟

از آنجا که هوش مصنوعی به طور گسترده تری استفاده می شود ، در نظر گرفتن چگونگی اعتماد سازی نیز ضروری است. استفاده از هوش مصنوعی برای افزایش تصمیم گیری انسان ، به جای جایگزینی همه ورودی های انسانی ، یک روش است.

شلسینگر می گوید: “س questionsالات بیشتری در مورد نقشی که هوش مصنوعی باید در جامعه ایفا کند ، ارتباط آن با مردم و اینکه چه وظایفی مناسب برای افراد و چه وظایف صحیحی برای هوش مصنوعی وجود دارد ، وجود خواهد داشت.” “مناطق خاصی وجود دارد که در آنها توانایی های AI و توانایی آن در افزایش توانایی های انسانی اعتماد و اطمینان ما را تسریع می کند. در جاهایی که هوش مصنوعی جای افراد را نمی گیرد ، اما تلاش آنها را افزایش می دهد ، این افق بعدی است. “

همیشه شرایطی پیش می آید که فرد باید در تصمیم گیری مشارکت کند. شلزینگر می گوید: “در صنایع نظارتی ، مانند مراقبت های بهداشتی ، بانکی و مالی ، باید فردی وجود داشته باشد که از نحوه رعایت آن آگاه باشد.” “شما فقط نمی توانید هوش مصنوعی را برای تصمیم گیری در زمینه مراقبت بدون کمک پزشک انجام دهید. همانقدر که می خواهیم باور کنیم که هوش مصنوعی توانایی انجام این کار را دارد ، هوش مصنوعی هنوز همدلی ندارد و احتمالاً هرگز نخواهد داشت. “

بسیار مهم است که داده های جمع آوری شده و ایجاد شده توسط هوش مصنوعی باعث تشدید نباشد و نابرابری را به حداقل برساند. باید توازنی بین یافتن راه هایی برای هوش مصنوعی برای کمک به تسریع پیشرفت انسانی و اجتماعی ، ترویج اقدامات و واکنش های عادلانه وجود داشته باشد و صرفاً تشخیص اینکه برخی از مشکلات به راه حل های انسانی نیاز دارند.

این محتوا توسط Insights ، بازوی کاربر بررسی فناوری MIT ایجاد شده است. توسط MIT Technology Review نوشته نشده است.


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>