[ad_1]
بنابراین در مورد سوال اول شما، فکر می کنم حق با شماست. این سیاست گذاران در واقع باید گاردریل ها را تعریف کنند، اما من فکر نمی کنم آنها برای همه چیز نیازی به انجام این کار داشته باشند. من فکر می کنم ما باید آن مناطقی را انتخاب کنیم که حساس ترین هستند. اتحادیه اروپا آنها را پرخطر نامیده است. و شاید بتوانیم از آن استفاده کنیم، برخی از مدلهایی که به ما کمک میکنند در مورد اینکه چه چیزی ریسک بالاست و کجا باید زمان بیشتری را صرف کنیم و به طور بالقوه سیاستگذاران، کجا باید زمان را با هم بگذرانیم فکر کنیم؟
وقتی صحبت از طراحی مشترک و تکامل بازخورد به میان میآید، من از طرفداران زیادی از جعبههای شنی نظارتی هستم. اوه، من مقاله ای دارم که در یک کتاب مطبوعاتی دانشگاه آکسفورد در مورد یک سیستم رتبه بندی مبتنی بر انگیزه منتشر می شود که می توانم در یک لحظه در مورد آن صحبت کنم. اما من همچنین از طرف دیگر فکر می کنم که همه شما باید ریسک شهرت خود را در نظر بگیرید.
همانطور که ما به یک جامعه دیجیتالی بسیار پیشرفته تر می رویم، بر توسعه دهندگان موظف است که سعی و کوشش خود را نیز انجام دهند. شما نمی توانید به عنوان یک شرکت از عهده این کار برآیید و الگوریتمی را که فکر می کنید، یا سیستم مستقلی که فکر می کنید بهترین ایده است، قرار دهید و سپس در صفحه اول روزنامه قرار بگیرید. زیرا کاری که انجام می دهد این است که اعتماد مصرف کنندگان شما به محصول شما را کاهش می دهد.
و بنابراین، آنچه من می گویم، می دانید، هر دو طرف این است که فکر می کنم ارزش یک گفتگو را دارد که در آن نرده های محافظ خاصی در مورد فناوری تشخیص چهره به میان می آید، زیرا ما دقت فنی آن را در مورد همه جمعیت ها نداریم. وقتی صحبت از تأثیر متفاوت بر محصولات و خدمات مالی میشود، مدلهای خوبی وجود دارد که من در کارم، در صنعت بانکداری، پیدا کردهام، که در واقع محرکهایی دارند، زیرا دارای نهادهای نظارتی هستند که به آنها کمک میکنند بفهمند چه پروکسیها واقعاً تأثیر متفاوتی دارند. . حوزههایی وجود دارد که ما بهتازگی این موضوع را در بازار مسکن و ارزیابی مشاهده کردیم، جایی که هوش مصنوعی برای جایگزینی تصمیمگیری ذهنی استفاده میشود، اما بیشتر به نوع تبعیض و ارزیابیهای غارتگرانه ای که میبینیم کمک میکند. موارد خاصی وجود دارد که ما در واقع به سیاست گذاران برای تحمیل نرده های محافظ نیاز داریم، اما بیشتر فعال باشید. من همیشه به سیاست گذاران می گویم، شما نمی توانید دانشمندان داده را مقصر بدانید. اگر داده ها وحشتناک است.
آنتونی گرین: درست.
نیکول ترنر لی: پول بیشتری در تحقیق و توسعه قرار دهید. به ما کمک کنید مجموعه داده های بهتری ایجاد کنیم که در مناطق خاصی بیش از حد معرفی شده اند یا از نظر جمعیت اقلیت کمتر ارائه شده اند. نکته کلیدی این است که باید با هم کار کنند. فکر نمیکنم اگر سیاستگذاران واقعاً این را رهبری کنند یا دانشمندان داده خودشان در حوزههای خاصی آن را رهبری کنند، فکر نمیکنم راهحل برنده خوبی داشته باشیم. فکر میکنم شما واقعاً به افرادی نیاز دارید که با هم کار کنند و در مورد این اصول همکاری کنند. ما این مدل ها را ایجاد می کنیم. کامپیوترها این کار را نمی کنند. وقتی در حال ایجاد الگوریتمها یا سیستمهای مستقل یا هدفیابی تبلیغات هستیم، میدانیم که با این مدلها چه میکنیم. ما میدانیم! ما در این اتاق، نمیتوانیم بنشینیم و بگوییم، نمیفهمیم چرا از این فناوریها استفاده میکنیم. ما می دانیم زیرا آنها در واقع سابقه ای برای گسترش آنها در جامعه ما دارند، اما ما نیاز به پاسخگویی داریم. و این واقعاً چیزی است که من سعی می کنم به آن برسم. چه کسی ما را در قبال این سیستم هایی که ایجاد می کنیم مسئول می کند؟
خیلی جالب است، آنتونی، در این چند هفته گذشته، همانطور که بسیاری از ما درگیری ها را در اوکراین تماشا کرده ایم. دخترم، چون من یک بچه 15 ساله دارم، با انواع TikToks و چیزهای دیگر به سراغ من آمده است تا بگوید: “سلام مامان، آیا می دانستی که این اتفاق می افتد؟” و من مجبور شدم خود را به نوعی عقب بکشم، زیرا واقعاً درگیر گفتگو شده ام، بدون اینکه بدانم از برخی جهات، وقتی با او در آن مسیر رفتم. من عمیق تر و عمیق تر و عمیق تر به آن چاه می روم.
آنتونی گرین: آره
[ad_2]
منبع: unbox-khabar.ir