شیوه آموزش هوش مصنوعی اساساً اشتباه است


به عنوان مثال ، آنها 50 نسخه از مدل تشخیص تصویر را در ImageNet ، مجموعه ای از تصاویر اشیا everyday روزمره ، آموزش دادند. تنها تفاوت بین دوره های آموزشی مقادیر تصادفی اختصاص یافته به شبکه عصبی در ابتدا است. و با این وجود ، اگرچه تمام 50 مدل در طول آزمون آموزشی کم و بیش یکسان دارند – با فرض اینکه دقیقاً به یک اندازه دقیق باشند – عملکرد آنها در آزمون استرس بسیار متفاوت است.

در تست استرس از ImageNet-C استفاده می شود ، مجموعه ای از تصاویر ImageNet که پیکسلی هستند یا روشنایی و کنتراست آنها تغییر می کند و از ObjectNet مجموعه ای از تصاویر اشیا everyday روزمره در حالت های غیرمعمول ، مانند صندلی های پشتی ، قوری های قایم و تی شرت. حلق آویز بر قلاب ها. بعضی از 50 مدل با تصاویر پیکسلی خوب عمل کردند ، بعضی دیگر با ژست های غیرمعمول عملکرد خوبی داشتند. به طور کلی ، برخی بسیار بهتر از دیگران عمل کردند. اما در مورد روند آموزش استاندارد ، همه آنها یکسان بودند.

محققان آزمایش های مشابهی را با دو سیستم NLP مختلف و سه هوش مصنوعی پزشکی برای پیش بینی اسکن شبکیه سرطان چشم ، سرطان ضایعه پوستی و نارسایی کلیه از سوابق بیمار انجام دادند. هر سیستم همان مشکل را داشت: مدل هایی که قرار بود به همان اندازه دقیق باشند ، هنگام آزمایش با داده های واقعی ، متفاوت عمل می کنند ، مانند اسکن های مختلف شبکیه یا انواع پوست.

Rohrer می گوید ، ممکن است لازم باشد که در نحوه ارزیابی شبکه های عصبی تجدیدنظر کنیم. “این باعث ایجاد برخی حفره های قابل توجه در فرضیات اساسی ما می شود.”

دامور موافق است. وی گفت: “بزرگترین اقدام فوری این است كه ما باید آزمایش های بیشتری انجام دهیم.” با این حال ، این آسان نخواهد بود. تست های استرس متناسب با هر کار ، با استفاده از داده های گرفته شده از دنیای واقعی یا داده های شبیه سازی دنیای واقعی است. این همیشه در دسترس نیست.

برخی از تست های استرس نیز با هم تناقض دارند: به عنوان مثال مدل هایی که در تشخیص تصاویر پیکسلی تبحر داشتند اغلب در تشخیص تصاویر با کنتراست بالا ضعیف بودند. همیشه نمی توان مدلی را امتحان کرد که همه تست های استرس را پشت سر بگذارد.

چند گزینه ای

یک گزینه طراحی مرحله اضافی برای آموزش و آزمایش است که در آن بجای فقط یک مدل ، مدلهای زیادی همزمان تولید می شوند. سپس می توان این مدل های رقیب را برای انجام وظایف خاص در دنیای واقعی دوباره آزمایش کرد تا بهترین مورد را برای این کار انتخاب کند.

این کار زیادی است. یانیک کیلچر ، محقق یادگیری ماشین در ETH زوریخ می گوید ، اما برای شرکتی مانند گوگل که مدل های بزرگی را ایجاد و استفاده می کند ، ارزش آن را دارد. وی گفت: Google می تواند 50 نسخه مختلف از مدل NLP را ارائه دهد و توسعه دهندگان برنامه می توانند نسخه مناسب را برای آنها انتخاب كنند.

D’Amour و همکارانش هنوز هیچ راه حلی ندارند ، اما در حال بررسی راه هایی برای بهبود روند آموزش هستند. وی می گوید: “ما باید دقیقاً نیازهای ما برای مدل هایمان را بهبود ببخشیم.” “زیرا غالباً آنچه در پایان اتفاق می افتد این است که ما فقط پس از شکست مدل در جهان این شرایط را برآورده می کنیم.”

درصورتی که هوش مصنوعی بخواهد به همان اندازه که در داخل آزمایشگاه دارد تأثیر بگذارد ، به دست آوردن اصلاح بسیار مهم است. کاترین هلر ، نویسنده همکار ، که در Google در AI Healthcare کار می کند ، می گوید: وقتی هوش مصنوعی در دنیای واقعی عملکرد کمتری داشته باشد ، افراد کمتر تمایل به استفاده از آن دارند: “ما در مورد برنامه های کشنده اعتماد بسیاری از دست داده ایم ، این اعتماد مهمی است که می خواهیم آن را بازیابی کنیم. “


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>