چگونه جلوی تشخیص هوش مصنوعی چهره شما در یک سلفی گرفته شود


فاکس قبلاً نزدیک به نیم میلیون بار از وب سایت پروژه بارگیری شده است. یک کاربر همچنین یک نسخه آنلاین ایجاد کرده است ، که استفاده از آن را برای مردم راحت تر می کند (اگرچه ونگر برای اشخاص ثالث استفاده از کد را تضمین نمی کند ، هشدار می دهد: “شما نمی دانید که اطلاعات مربوط به داده های شما در هنگام پردازش آن شخص چیست آی تی”). ونگر گفت هنوز هیچ برنامه تلفنی وجود ندارد ، اما هیچ کس مانع این کار نمی شود.

فاکس می تواند مانع شناسایی سیستم جدید شناسایی چهره شما شود – Clearview بعدی را بگویید. اما این سیستم های موجود را که قبلاً روی تصاویر محافظت نشده شما آموزش دیده اند خرابکاری نمی کند. با این حال ، فناوری همیشه در حال پیشرفت است. ونگر معتقد است ابزاری که توسط والریا چرپنوا و همکارانش در دانشگاه مریلند ، یکی از تیم های ICLR در این هفته تهیه شده است ، می تواند این مشکل را حل کند.

این ابزار که LowKey نامیده می شود ، با استفاده از تداخل تصویر مبتنی بر نوع قویتر حمله اتومبیلرانی ، که همچنین مدلهای تجاری از قبل آموزش دیده را فریب می دهد ، تا فاکس گسترش می یابد. LowKey نیز مانند فاکس به صورت آنلاین در دسترس است.

ما و همکارانش پیچ و تاب بیشتری را اضافه کرده اند. رویکرد آنها ، که تصاویر را به نمونه هایی که آنها نمونه های کشف نشده می نامند ، تبدیل می کند و باعث می شود هوش مصنوعی سلفی های شما را کاملاً نادیده بگیرد. ونگر می گوید: “من فکر می کنم عالی است.” “فاکس یک مدل را آموزش می دهد تا چیز اشتباهی در مورد شما بیاموزد ، و این ابزار یک مدل را آموزش می دهد تا چیزی درباره شما یاد نگیرد.”

تصاویر خراشیده شده من (در بالا) به نمونه های غیرقابل توضیحی تبدیل می شوند (در زیر) که سیستم تشخیص چهره آنها را نادیده می گیرد. (اعتبار توسط دانیل ما ، سارا مونازام عرفانی و همکاران)

برخلاف فاکس و پیروانش ، نمونه های یاد گرفته نشده مبتنی بر حملات مسابقه ای نیستند. تیم Ma به جای ایجاد تغییرات تصویری که هوش مصنوعی را مجبور به اشتباه می کند ، تغییرات کوچکی اضافه می کند که باعث می شود هوش مصنوعی در حین آموزش از آن چشم پوشی کند. وقتی بعداً تصویر با آن ارائه شود ، ارزیابی آن از آنچه در آن است بهتر از حدس تصادفی نخواهد بود.

مثالهای یاد نگرفته می توانند از حملات مسابقه ای مثرتر باشند زیرا نمی توان آنها را آموزش داد. هرچه نمونه های رقابتی بیشتری هوش مصنوعی ببیند ، در شناخت آنها بهتر است. اما از آنجا که ما و همکارانش در وهله اول آموزش هوش مصنوعی را روی تصاویر متوقف کردند ، آنها استدلال کردند که این امر با مثالهای غیرممکن اتفاق نخواهد افتاد.

ونگر اما خود را به نبردی ادامه داد که استعفا داد. تیم وی اخیراً متوجه شده است که سرویس شناسایی چهره مایکروسافت لاجورد دیگر توسط برخی از تصاویر آنها دستکاری نمی شود. او می گوید: “ناگهان به طریقی برای تصاویر پنهانی که ایجاد کردیم پایدار شد.” “ما نمی دانیم چه اتفاقی افتاده است.”

مایکروسافت ممکن است الگوریتم خود را تغییر داده باشد ، یا هوش مصنوعی به تازگی آنقدر تصاویر از افراد با استفاده از فاکس دیده باشد که شناخت آنها را فرا گرفته است. به هر حال ، تیم ونگر هفته گذشته به روزرسانی ابزار خود را منتشر کرد که دوباره علیه Azure کار می کند. وی گفت: “این مسابقه دیگری برای مسلح کردن گربه و موش است.”

از نظر ونگر ، این تاریخچه اینترنت است. وی گفت: “شركتهایی مانند Clearview از آنچه كه آزاد می بینند استفاده می كنند و از آنها برای انجام هر كاری كه می خواهند استفاده می كنند.” “

مقررات می تواند در طولانی مدت کمک کند ، اما مانع از استفاده از روزنه ها در شرکت ها نخواهد شد. وی گفت: “همیشه در آنچه از نظر قانونی قابل قبول است و آنچه مردم واقعاً می خواهند وجود دارد.” “ابزارهایی مانند فاکس این خلا را پر می کنند.”

وی گفت: “بیایید قدرتی به مردم بدهیم كه قبلاً نداشتند.”


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>