راهنمای گفتگوی اخلاقی هوش مصنوعی Big Tech


محققان هوش مصنوعی اغلب می گویند که یادگیری ماشینی خوب در واقع بیشتر یک هنر است تا یک علم. همین امر را می توان برای روابط عمومی موثر نیز بیان کرد. انتخاب کلمات مناسب برای ایجاد لحن مثبت یا تغییر شکل مکالمه در مورد هوش مصنوعی کاری ظریف است: خوب انجام شده است ، می تواند باعث تقویت تصویر مارک شود ، اما اگر بد انجام شود ، می تواند واکنش بیشتری ایجاد کند.

غول های فنی می دانند. در چند سال گذشته ، آنها مجبور شدند این هنر را به سرعت بیاموزند ، زیرا با بی اعتمادی روزافزون مردم نسبت به اقدامات خود و انتقادات روزافزون نسبت به تحقیقات و فناوری هوش مصنوعی مواجه هستند.

آنها در حال حاضر واژگان جدیدی برای استفاده به کار گرفته اند که می خواهند به مردم اطمینان دهند که با پیشرفت مسئولیت پذیری عمیقاً به هوش مصنوعی اهمیت می دهند – اما می خواهند اطمینان حاصل کنند که کنترل بیش از حد را دعوت نمی کنند. در اینجا راهنمای اطلاعات داخلی برای رمزگشایی زبان آنها و به چالش کشیدن فرضیات و ارزشهای پخته شده در اینجا وجود دارد.

مسئوليت (n) – عمل مسئولیت پذیر دانستن شخص دیگری در قبال عواقب هنگام خرابی سیستم هوش مصنوعی شما.

دقت (n) – صحت فنی. مهمترین معیار موفقیت در ارزیابی عملکرد مدل AI. نگاه کن اعتبار سنجی.

دشمن (n) – یک مهندس تنها که می تواند سیستم قدرتمند درآمدزایی هوش مصنوعی شما را مختل کند. نگاه کن استحکام – قدرت، امنیت.

هم ترازی (n) – چالش طراحی سیستم های هوش مصنوعی است که آنچه را به آنها می گوییم انجام می دهد و آنچه را که برای آن ارزش قائل هستیم قدر می داند. با هدف انتزاعی از استفاده از مثالهای واقعی عواقب ناخواسته مضر پرهیز کنید. نگاه کن ایمنی.

هوش عمومی مصنوعی (عبارت) – خدای فرضی AI ، که احتمالاً در آینده دور است ، اما ممکن است اجتناب ناپذیر باشد. این واقعاً می تواند خوب یا واقعاً بد باشد ، هر کدام که از نظر بلاغی مفیدتر باشد. شما بدیهی است که در حال ساخت خوب هستید. که گران است. بنابراین ، شما به پول بیشتری نیاز دارید. نگاه کن خطرات طولانی مدت.

حسابرسی (n) – نقدی که به شخص دیگری پرداخت می کنید تا در شرکت یا سیستم هوش مصنوعی شما انجام دهد تا بدون نیاز به تغییر چیزی شفاف تر به نظر برسید. نگاه کن ارزیابی اثرات.

بزرگ شدن (v) – افزایش بهره وری کارگر. اثر جانبی: اتوماسیون کارها با یقه آبی. غمگین اما اجتناب ناپذیر.

مفید (برنامه.) – یک توصیف کننده کلی برای آنچه می خواهید بسازید. به راحتی تعریف نشده است. نگاه کن مقدار.

توسط طراحی (ph) – همانند “انصاف طراحی” یا “پاسخگویی در طراحی”. عبارتی برای نشان دادن این که از همان ابتدا به سختی به چیزهای مهم فکر می کنید.

انطباق (n) – عمل رعایت قانون. هر چیزی که غیرقانونی نباشد از بین می رود.

برچسب های داده (ph) – افرادی که ادعا می شوند در پشت رابط آمازون مکانیک ترک برای انجام کارهای پاک کردن داده های ارزان هستند. اطمینان حاصل کنید که آنها چه کسانی هستند. من هرگز آنها را ملاقات نکرده ام.

دموکراتیک کردن (v) – فناوری مقیاس گذاری به هر قیمتی. توجیه تمرکز منابع. نگاه کن مقیاس.

تنوع ، عدالت و شمول (ph) – عمل استخدام مهندسین و محققان از گروه های حاشیه ای ، به طوری که بتوانید آنها را برای عموم رژه ببرید. اگر آنها وضعیت موجود را به چالش می کشند ، آنها را اخراج کنید.

بهره وری (n) – استفاده از داده ها ، حافظه ، پرسنل یا انرژی کمتر برای ساخت سیستم AI.

توصیه اخلاقی (ph) – گروهی از مشاوران بدون قدرت واقعی ، برای ایجاد ظاهری که شرکت شما به طور فعال از آن گوش می دهد ، تشکیل جلسه دادند. مثالها: هیئت اخلاقی هوش مصنوعی Google (لغو شده) ، هیئت نظارت فیس بوک (هنوز هم دائمی).

اصول اخلاقی (ph) – مجموعه ای از طلسم هایی که برای نشان دادن حسن نیت شما استفاده می شود. آن را در سطح بالا نگه دارید. هرچه زبان مبهم باشد ، بهتر است. نگاه کن هوش مصنوعی مسئول.

قابل توضیح (برنامه.) – برای توصیف یک سیستم هوش مصنوعی است که شما ، توسعه دهنده و کاربر می توانید آن را درک کنید. دستیابی به آن برای افرادی که از آنها استفاده می شود بسیار دشوارتر است. احتمالاً ارزش تلاش را ندارد. نگاه کن تفسیر می کنیم.

عدالت (n) – مفهوم پیچیده ای از بی طرفی برای توصیف الگوریتم های بی طرف استفاده می شود. براساس ترجیحات شما می توان آن را به ده ها روش تعریف کرد.

برای همیشه (ph) – همانطور که در “AI for good” یا “data for good” وجود دارد. ابتکاری که کاملاً فعالیت اصلی شما را تحت تأثیر قرار می دهد و به شما در تولید تبلیغات خوب کمک می کند.

آینده نگری (n) – توانایی نگاه کردن به آینده. در اصل غیرممکن: بنابراین ، یک توضیح کاملاً منطقی درباره این که چرا نمی توانید سیستم هوش مصنوعی خود را از عواقب ناخواسته خلاص کنید.

قاب (n) – مجموعه ای از دستورالعمل ها برای تصمیم گیری. یک روش خوب برای دقیق و سنجیده شدن هنگام کاهش سرعت تصمیم گیری واقعی.

خلاصه کردن (برنامه) – نشانه یک مدل هوش مصنوعی خوب است. کسی که تحت شرایط متغیر به کار خود ادامه می دهد. نگاه کن دنیای واقعی.

مدیریت (n) – بوروکراسی اداری.

طراحی انسان محور (ph) – فرایندی که شامل استفاده از “افراد” برای تصور آنچه کاربر متوسط ​​ممکن است از سیستم هوش مصنوعی شما بخواهد ، است. ممکن است درخواست بازخورد از کاربران واقعی باشد. فقط در صورت وجود وقت. نگاه کن سهامداران.

انسان در چرخه (ph) – هر شخصی که بخشی از یک سیستم AI باشد. مسئولیت ها از جعل توانایی های سیستم تا جلوگیری از اتهامات اتوماسیون است.

ارزیابی اثرات (ph) – بررسی ای که شما در شرکت یا سیستم هوش مصنوعی خود انجام می دهید تا نشان دهد تمایل شما برای در نظر گرفتن کاستی ها بدون تغییر چیزی است. نگاه کن حسابرسی.

تفسیر می کنیم (برنامه.) – توصیف یک سیستم هوش مصنوعی است که شما ، توسعه دهنده ، می توانید محاسبه آن را گام به گام دنبال کنید تا بفهمید چگونه پاسخ شما به وجود آمده است. در واقع ، احتمالاً فقط یک رگرسیون خطی است. هوش مصنوعی بهتر به نظر می رسد.

تمامیت (n) – مشکلاتی که خصوصیات فنی مدل شما یا توانایی شرکت شما را در مقیاس بندی تضعیف می کند. با مشکلاتی که برای جامعه مضر است اشتباه گرفته نشود. با صداقت اشتباه نشود.

بین رشته ای (برنامه.) – اصطلاحی که برای هر تیم یا پروژه ای استفاده می شود و شامل افرادی می شود که کد نمی سازند: محققان مصرف کننده ، مدیران محصول ، فیلسوفان اخلاق. مخصوصاً فلاسفه اخلاق.

خطرات طولانی مدت (n) – چیزهای بدی که می تواند عواقب فاجعه باری در آینده دور به همراه داشته باشد. این احتمالاً هرگز اتفاق نخواهد افتاد ، اما مطالعه و جلوگیری از آسیب فوری به سیستم های هوش مصنوعی موجود از اهمیت بیشتری برخوردار است.

شرکا (n) – سایر گروه های نخبه که جهان بینی شما را به اشتراک می گذارند و می توانند برای حفظ وضعیت موجود با شما همکاری کنند. نگاه کن سهامداران.

سازش رازداری (ph) – قربانی نجیب کنترل فردی بر اطلاعات شخصی برای منافع گروهی ، افزایش یافته توسط پیشرفت های بهداشتی AI ، که همچنین بسیار سودآور است.

پیش رفتن (n) – پیشرفت علمی و فناوری. خوب ذاتی

دنیای واقعی (ph) – نقطه مقابل دنیای شبیه سازی شده است. یک محیط فیزیکی پویا مملو از شگفتی های غیرمنتظره که مدل های هوش مصنوعی برای زنده ماندن آموزش دیده اند. با مردم و جامعه اشتباه گرفته نشود.

مقررات (n) – آنچه شما خواستار آن هستید این است که مسئولیت کاهش هوش مصنوعی مضر را به عهده سیاستمداران بگذارید. با سیاست هایی که مانع رشد شما می شود اشتباه گرفته نشود.

هوش مصنوعی مسئول (n) – هر کاری را در شرکت خود نظارت کنید که می تواند توسط عموم مردم به عنوان تلاش صادقانه برای کاهش آسیب به سیستم های هوش مصنوعی شما تعبیر شود.

استحکام – قدرت (n) – توانایی مدل AI برای عملکرد مداوم و دقیق در صورت تلاش نادرست برای ارائه داده های خراب.

ایمنی (n) – چالش ساخت سیستم های هوش مصنوعی که فریب اهداف طراح را نخورند. با ساخت سیستم های هوش مصنوعی خراب اشتباه نشود. نگاه کن هم ترازی.

مقیاس (n) – نتیجه نهایی واقعی که هر سیستم AI خوب باید تلاش کند.

امنیت (n) – عملی برای محافظت از داده های ارزشمند یا حساس و مدل های هوش مصنوعی در برابر نقض شرکت کنندگان بد. نگاه کن دشمن.

سهامداران (n) – سهامداران ، تنظیم کنندگان ، مصرف کنندگان. صاحبان قدرت که می خواهند شما خوشبخت بمانید.

شفافیت (n) – افشای داده ها و کد شما. اطلاعات محرمانه و محرمانه بد است. خیلی سخت است صادقانه بگویم ، حتی غیرممکن است. با ارتباط واضح درباره نحوه کارکرد سیستم شما اشتباه گرفته نشود.

قابل اعتماد (برنامه) – ارزیابی سیستم AI که می تواند با تبلیغات کاملاً هماهنگ تولید شود.

درآمد پایه جهانی (ph) – این ایده که پرداخت حقوق ثابت به همه ، آشفتگی اقتصادی گسترده ناشی از اتوماسیون را برطرف می کند که منجر به از دست دادن شغل گسترده می شود. آندرو یانگ نامزد انتخابات ریاست جمهوری در سال 2020 تبلیغ کرد. مشاهده کنید توزیع مجدد ثروت.

اعتبار سنجی (n) – روند آزمایش یک مدل هوش مصنوعی بر روی داده های دیگر به غیر از داده هایی که در آن آموزش داده شده است تا بررسی کند که هنوز دقیق است.

مقدار (n) – سود ناملموس ارائه شده به کاربران شما که هزینه زیادی برای شما به همراه دارد.

ارزش های (n) – شما آنها را دارید. به مردم یادآوری کنید.

توزیع مجدد ثروت (ph) – ایده مفیدی برای معاشرت با افرادی که در مورد شما تحقیق می کنند زیرا از منابع زیادی استفاده می کنید و درآمد زیادی کسب می کنید. توزیع مجدد ثروت چگونه کار می کند؟ درآمد پایه جهانی ، البته. و همچنین چیزی نیست که بتوانید برای خود رقم بزنید. نیاز به تنظیم دارد. نگاه کن مقررات.

نگهداری پست (ph) – عمل خیرخواهانه انتخابی این است که کد خود را باز نکنید زیرا ممکن است به دست یک بازیگر بد بیفتد. بهتر است دسترسی به شرکایی که توانایی خرید آن را دارند محدود شود.


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>