[ad_1]

هرگز اتفاق نیفتاد – اما نه به دلیل عدم تلاش. تیم های تحقیقاتی در سراسر جهان گرد هم آمده اند تا به شما کمک کنند. جامعه هوش مصنوعی ، به ویژه ، برای توسعه نرم افزاری عجله کرده است که بسیاری می گویند به بیمارستان ها اجازه می دهد تا بیماران را سریعتر تشخیص دهند یا آنها را مرتب کنند ، از لحاظ تئوری پشتیبانی مورد نیاز خط مقدم را به همراه دارد.

در نهایت ، صدها ابزار پیش بینی ایجاد شد. هیچ یک از آنها تفاوت واقعی ایجاد نکرد ، و برخی به طور بالقوه مضر بودند.

این نتیجه لعنتی بسیاری از مطالعات منتشر شده در چند ماه گذشته است. در ماه ژوئن ، موسسه تورینگ ، مرکز ملی علم داده و هوش مصنوعی بریتانیا ، گزارشی را ارائه کرد که در آن سلسله سمینارهایی که در اواخر سال 2020 برگزار شد ، بحث ها را خلاصه می کند. اجماع واضح این بود که ابزارهای هوش مصنوعی در صورت وجود تعداد کمی وجود دارد. ، تأثیر. در مبارزه با کووید

برای استفاده بالینی مناسب نیست

این نشان دهنده نتایج دو مطالعه بزرگ است که صدها ابزار پیش بینی در سال گذشته را ارزیابی کرده اند. Wynnes نویسنده اصلی یکی از آنها است ، مروری در مجله پزشکی بریتانیا ، که با انتشار ابزارهای جدید و آزمایش ابزارهای موجود هنوز در حال به روز شدن است. او و همکارانش 232 الگوریتم را برای تشخیص بیماران یا پیش بینی تعداد بیمارانی که به این بیماری مبتلا می شوند ، بررسی کردند. آنها دریافتند که هیچ یک از آنها برای استفاده بالینی مناسب نیستند. فقط دو مورد به اندازه کافی امیدوارکننده برای آزمایشات بعدی ذکر شده است.

وینانتز می گوید: “شوکه کننده است.” “من با نگرانی وارد آن شدم ، اما ترس من را بیشتر کرد.”

مطالعه Wynants با بررسی عمده دیگری که توسط درک درایگز ، محقق یادگیری ماشین در دانشگاه کمبریج و همکارانش انجام شد ، پشتیبانی شد و در Nature Machine Intelligence منتشر شد. این تیم مدلهای عمیقی را برای تشخیص کووید و پیش بینی خطر بیماران از تصویربرداری پزشکی مانند اشعه ایکس قفسه سینه و اسکن توموگرافی قفسه سینه (CT) افزایش داد. آنها 415 ابزار منتشر شده را مرور کردند و مانند واینتس و همکارانش به این نتیجه رسیدند که هیچ کدام برای استفاده بالینی مناسب نیستند.

دریگس ، که خود روی ابزار یادگیری ماشینی کار می کند تا به پزشکان در طول همه گیری کمک کند ، می گوید: “این همه گیری یک آزمایش بزرگ برای هوش مصنوعی و پزشکی بود.” وی گفت: “جذب مردم از طرف ما مدت زمان طولانی طول می کشد.” “اما من فکر نمی کنم که ما آن آزمون را پشت سر گذاشتیم.”

هر دو تیم دریافتند که محققان در نحوه آموزش یا آزمایش ابزارهای خود ، همان اشتباهات اساسی را تکرار می کنند. مفروضات نادرست داده ها اغلب به این معنی است که مدلهای آموزش دیده مطابق ادعا عمل نمی کنند.

Wynants و Driggs هنوز معتقدند که هوش مصنوعی پتانسیل کمکی دارد. اما آنها نگران هستند که اگر به روش نادرست ساخته شود ممکن است مضر باشد زیرا ممکن است تشخیص را از دست بدهد یا خطر بیماران آسیب پذیر را دست کم بگیرند. دريگز مي گويد: “سر و صداي زيادي در مورد مدلهاي يادگيري ماشيني و آنچه آنها امروز مي توانند انجام دهند وجود دارد.”

انتظارات غیرواقعی استفاده از این ابزارها را قبل از آماده شدن تشویق می کند. Winants و Drigs می گویند برخی از الگوریتم هایی که مورد بررسی قرار گرفته اند قبلاً در بیمارستان ها استفاده شده است و برخی دیگر توسط توسعه دهندگان خصوصی به فروش می رسند. وینینتس می گوید: “من می ترسم آنها به بیماران آسیب برسانند.”

پس چه اشکالی داشت؟ و چگونه می توان بر این فاصله غلبه کرد؟ اگر نکات مثبتی وجود دارد ، این است که همه گیری به روشنی برای بسیاری از محققان روشن کرده است که نحوه ساخت ابزارهای هوش مصنوعی باید تغییر کند. وینانتز گفت: “همه گیری همه مشکلات را در کانون توجه قرار داده است که ما مدتی است به دنبال آن هستیم.”

چه چیزی اشتباه پیش رفت

بسیاری از مشکلات شناسایی شده مربوط به کیفیت پایین داده هایی است که محققان برای توسعه ابزارهای خود استفاده کرده اند. اطلاعات مربوط به بیماران مبتلا به COVID ، از جمله اسکن های پزشکی ، در میان همه گیری جهانی جمع آوری و به اشتراک گذاشته شد ، اغلب توسط پزشکانی که برای درمان این بیماران تلاش می کردند. محققان می خواستند به سرعت کمک کنند ، و این تنها مجموعه داده های عمومی بود. اما این بدان معناست که بسیاری از ابزارها با داده های برچسب گذاری نادرست یا داده های منابع ناشناخته ایجاد شده اند.

Drigs این مسئله را با مجموعه داده های Frankenstein که از چندین منبع به یکدیگر مرتبط هستند و ممکن است حاوی موارد تکراری باشد ، برجسته می کند. این بدان معناست که برخی از ابزارها بر اساس همان داده هایی که بر روی آنها آموزش دیده اند مورد آزمایش قرار می گیرند و آنها را دقیق تر از آنچه هستند ، می کنند.

همچنین منشا مجموعه های خاصی از اطلاعات را پنهان می کند. این ممکن است به این معنی باشد که محققان ویژگی های مهمی را که یادگیری مدل های آنها را مخدوش می کند از دست می دهند. بسیاری به طور ناخواسته از مجموعه داده ای که شامل اسکن قفسه سینه کودکانی بود که مبتلا به کووید نبودند ، به عنوان نمونه های خود در مورد موارد بدون کووید استفاده کردند. اما در نتیجه ، هوش مصنوعی یاد گرفت کودکان را شناسایی کند ، نه کووید.

تیم Driggs مدل خود را با استفاده از یک مجموعه داده که شامل ترکیبی از اسکن در هنگام خوابیدن و ایستادن بیماران بود ، آموزش داد. از آنجا که بیماران اسکن شده در وضعیت خوابیده به احتمال زیاد به طور جدی بیمار هستند ، هوش مصنوعی به اشتباه آموخته است که خطر جدی ابتلا به کووید را از موقعیت انسانی پیش بینی کند.

در موارد دیگر ، برخی از هوش مصنوعی فونت متنی را که بیمارستانهای خاصی برای برچسب گذاری اسکن ها استفاده می کنند ، ثبت کردند. در نتیجه ، فونت های بیمارستان های سنگین تر ، پیش بینی کننده خطر ابتلا به COVID شده اند.

چنین اشتباهاتی از پشت آشکار به نظر می رسد. در صورت آگاهی محققان ، می توان آنها را با تنظیم مدل ها برطرف کرد. می توان به کاستی ها اعتراف کرد و مدلی کمتر دقیق اما گمراه کننده ارائه کرد.

اما بسیاری از ابزارها یا توسط محققان هوش مصنوعی که هیچ تجربه پزشکی برای تشخیص نقص در داده ها ندارند ، یا توسط محققان پزشکی که مهارت ریاضی برای جبران این کمبودها ندارند ، ایجاد شده است. یک موضوع ظریف که Driggs برجسته می کند ، سوگیری قدرت یا تعصبی است که در زمان برچسب گذاری یک مجموعه داده معرفی شده است. به عنوان مثال ، بسیاری از اسکن های پزشکی با توجه به اینکه آیا رادیولوژیست هایی که آنها را ایجاد کرده اند گفته اند که کوویید است ، برچسب گذاری شده اند. اما این شامل تمام سوگیری های آن پزشک خاص در حقیقت اساسی مجموعه داده است. Drigs می گوید: بهتر است برچسب اسکن پزشکی با نتیجه آزمایش PCR نسبت به نظر پزشک مشخص شود. اما همیشه برای جزئیات آماری در بیمارستان های شلوغ فرصت وجود ندارد.

این مانع از اجرای برخی از این ابزارها در عمل بالینی نشد. وینونز می گوید که مشخص نیست از کدام و چگونه استفاده می شود. بعضی اوقات بیمارستان ها می گویند که آنها از ابزاری فقط برای اهداف تحقیقاتی استفاده می کنند که ارزیابی اعتماد پزشکان به آنها را دشوار می کند. او می گوید: “رازداری زیادی وجود دارد.”

وینونز از شرکتی که الگوریتم های یادگیری عمیق فروخته است خواسته است تا اطلاعات مربوط به رویکرد خود را به اشتراک بگذارد ، اما پاسخی نداد. او بعداً چندین مدل منتشر شده توسط محققان مرتبط با این شرکت را کشف کرد که همگی در معرض خطر سوگیری قرار داشتند. وی گفت: “ما واقعاً نمی دانیم این شرکت چه کاری انجام داده است.”

به گفته وینانتز ، برخی از بیمارستانها حتی قراردادهای عدم افشای اطلاعات را با ارائه دهندگان هوش مصنوعی پزشکی امضا کرده اند. هنگامی که وی از پزشکان می پرسید از چه الگوریتم ها یا نرم افزاری استفاده می کنند ، گاهی اوقات به او می گویند حق ندارند بگویند.

چطوری میشه اینو تعمیر کرد

تعمیرش چیه؟ داده های بهتر می تواند کمک کند ، اما در زمان بحران این یک سوال بزرگ است. استفاده بیشتر از مجموعه داده هایی که داریم مهمتر است. دریگز گفت که ساده ترین حرکت این است که تیم های هوش مصنوعی با پزشکان بیشتر همکاری کنند. محققان همچنین باید مدلهای خود را به اشتراک بگذارند و نحوه آموزش آنها را آشکار کنند تا دیگران بتوانند آنها را آزمایش کرده و بر آنها تکیه کنند. وی گفت: “این دو کاری است که ما امروز می توانیم انجام دهیم.” “و آنها شاید 50 of از مشکلاتی را که ما شناسایی کردیم حل کنند.”

بلال متن ، پزشکی که رهبری تحقیقات فناوری بالینی در Wellcome Trust ، یک موسسه خیریه جهانی تحقیقات سلامت مستقر در لندن را بر عهده دارد ، می گوید: اگر فرمت ها استاندارد باشند ، دستیابی به داده ها نیز آسان تر خواهد بود.

مشکل دیگری که Wynants ، Driggs و Mateen تشخیص می دهند این است که اکثر محققان به جای همکاری با یکدیگر یا بهبود مدلهای موجود ، برای توسعه مدلهای خود عجله کرده اند. نتیجه این شد که تلاش های جمعی محققان در سراسر جهان به جای تعداد انگشت شماری از ابزارهای مناسب آموزش دیده و آزمایش شده ، صدها ابزار متوسط ​​ایجاد کرده است.

[ad_2]

منبع: unbox-khabar.ir

ایندکسر