هوش مصنوعی مشاوران را برای کار با نوجوانان در بحران آموزش می دهد


chatbot از GPT-2 برای قابلیت های اساسی چت خود استفاده می کند. این مدل در 45 میلیون صفحه وب آموزش داده شده است ، که ساختار اولیه و دستور زبان انگلیسی را به آن می آموزد. پروژه Trevor سپس او را در مورد تمام متن های مکالمه قبلی درباره بازی های نقش آفرینی رایلی ، که به ربات مواد لازم برای تقلید از شخصیت را می داد ، بیشتر آموزش داد.

در طول روند توسعه ، تیم از عملکرد چت بات شگفت زده شد. هیچ پایگاه داده ای برای ذخیره جزئیات زندگی نامه رایلی وجود ندارد ، اما چت بات ثابت است ، زیرا هر متن بازتاب دهنده همان داستان است.

اما در مورد استفاده از هوش مصنوعی داد و ستد هایی نیز وجود دارد ، به ویژه در یک زمینه حساس با جوامع آسیب پذیر. GPT-2 و الگوریتم های دیگر زبان طبیعی شناخته شده اند که دارای عقاید عمیقاً نژادپرستانه ، تبعیض جنسی و همجنسگرایانه هستند. بنابراین ، بیش از یک چت ربات به طرز فاجعه باری نمایش داده شد ، آخرین مورد چت بات کره جنوبی به نام لی لودا بود که شخصیت یک دانشجوی 20 ساله را داشت. همانطور که به سرعت محبوبیت پیدا کرد و با کاربران بیشتری ارتباط برقرار کرد ، شروع به استفاده از کلمات ناپسند برای توصیف عجیب و غریب و اجتماعات معلول کرد.

پروژه Trevor از این موضوع آگاه است و روش هایی را برای محدود کردن احتمال بروز مشکلات ایجاد کرده است. در حالی که لی دیوانه مجبور بود در مورد هر چیزی با مصرف كنندگان صحبت كند ، رایلی بسیار نزدیك بود. داوطلبان خیلی از مکالمه هایی که در آن آموزش دیده اند دور نخواهند شد ، که این امر احتمال رفتارهای غیرقابل پیش بینی را به حداقل می رساند.

این امر همچنین آزمایش کلی چت بات را تسهیل می کند که طبق پروژه Trevor انجام می شود. نناد توماسف ، محقق در DeepMind ، گفت: “این استفاده ها ، که کاملاً تخصصی و کاملاً مشخص و کاملاً طراحی شده اند ، خطر بالایی ندارند.”

انسان به انسان

این اولین بار نیست که حوزه بهداشت روان تلاش می کند تا از پتانسیل هوش مصنوعی برای ارائه مراقبت های اخلاقی فراگیر و بدون آسیب رساندن به افرادی که برای کمک به آنها طراحی شده است ، استفاده کند. محققان روش های امیدوار کننده ای را برای تشخیص افسردگی از طریق ترکیبی از نشانه های دیداری و شنیداری ایجاد کرده اند. “ربات های” درمانی ، اگرچه معادل متخصصان انسانی نیست ، اما به عنوان گزینه هایی برای کسانی که به درمانگر دسترسی ندارند یا از اعتماد به نفس راحت نیستند ، ارائه می شود.

هر یک از این پیشرفت ها و همچنین موارد دیگر مانند آن ، نیاز به در نظر گرفتن این دارد که آژانس در زمینه درمان افراد آسیب پذیر ، چه تعداد ابزار هوش مصنوعی باید داشته باشد. و به نظر می رسد که اتفاق نظر این است که در این مرحله ، فناوری واقعاً مناسب برای جایگزینی کمک های انسانی نیست.

با این حال جوینر ، استاد روانشناسی ، می گوید که این مسئله می تواند با گذشت زمان تغییر کند. وی گفت: در حالی که جایگزینی مشاوران انسانی با نمونه های هوش مصنوعی در حال حاضر ایده بدی است ، “این به این معنی نیست که این یک محدودیت دائمی است.” مردم “از قبل با دوستان هوش مصنوعی دوستی و ارتباط مصنوعی دارند”. وی می گوید ، تا زمانی که مردم گمراه نشوند فکر می کنند هنگام گفتگو با هوش مصنوعی با کسی بحث می کنند ، این می تواند یک فرصت آنلاین باشد.

در همین حال ، رایلی هرگز با جوانانی که در واقع به پروژه Trevor اعزام می شوند مقابله نخواهد کرد: این تنها ابزاری برای آموزش داوطلبان خواهد بود. کندرا گانت ، مدیر گروه داده و محصول ، گفت: “ارتباط انسانی بین مشاوران ما و افرادی که با ما تماس می گیرند برای هر کاری ضروری است.” “من فکر می کنم این باعث می شود که ما واقعاً بی نظیر باشیم و چیزی است که فکر نمی کنم هیچ کس از ما بخواهد آن را جایگزین یا تغییر دهد.”


منبع: unbox-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>