[ad_1]

در سال 2018 ، سام کول ، خبرنگار در Motherboard ، گوشه ای جدید و ناراحت کننده از اینترنت را کشف کرد. یک کاربر Reddit به نام “deepfakes” فیلم های پورنو جعلی بی پروا را با استفاده از یک الگوریتم AI برای جایگزینی چهره های مشهور در پورنو واقعی منتشر کرد. کول درست زمانی که این فناوری در آستانه منفجر شدن بود زنگ خطر را به صدا درآورد. یک سال بعد ، پورنو تقلبی عمیق بسیار فراتر از Reddit گسترش یافته است ، با برنامه هایی که به راحتی قابل دسترسی هستند و می توانند لباس های هر زن را “از تن” درآورند.

از آن زمان به بعد ، deepfakes رپ بدی داشته و به حق هم چنین بوده است. بیشتر آنها هنوز هم برای تهیه پورنوگرافی جعلی استفاده می شود. یک روزنامه نگار محقق تحقیقی به طرز وحشیانه ای مورد آزار و اذیت قرار گرفت و موقتاً از چنین فعالیت هایی سکوت کرد و اخیراً یک شاعر و نویسنده زن مرعوب و خجالت زده شده است. همچنین این خطر وجود دارد که جعلی های جعلی سیاسی اخبار جعلی قانع کننده ای تولید کنند که می تواند باعث ایجاد هرج و مرج در یک فضای سیاسی بی ثبات شود.

اما همانطور که الگوریتم های دستکاری و سنتز رسانه ها قدرتمندتر شده اند ، آنها نیز باعث ایجاد کاربردهای مثبتی شده اند – همانند برخی دیگر که شوخ طبعانه یا پیش پا افتاده هستند. در اینجا مروری بر برخی از موارد دلخواه ما با ترتیب تقریبی زمانی وجود دارد و اینکه چرا فکر می کنیم اینها نشانه آنچه در پیش است است.

حمایت از آگاهان

چپ: شبکه عکس ماکسیم ، از بسیاری زوایا گرفته شده است.  راست: یک شبکه عکس روی درب آن از چند زاویه ساخته شده است.

رسانه های شما

در ماه ژوئن ، به سچینا خوش آمدید، یک فیلم تحقیقاتی در مورد آزار و اذیت افراد LGBTQ در جمهوری روسیه ، اولین مستندی شد که از جعل های عمیق برای محافظت از هویت افراد خود استفاده می کند. فعالانی که در حال آزار و شکنجه بودند ، و به عنوان قهرمانان داستان خدمت می کردند ، برای جلوگیری از شکنجه یا قتل در مخفیگاه زندگی می کردند. پس از تحقیق در مورد بسیاری از روش های پنهان کردن هویت آنها ، کارگردان David David تصمیم گرفت که “پوشش های” عمیقی به آنها بدهد. وی از سایر فعالان دگرباشان جنسی از سراسر جهان خواست چهره هایشان را بگیرند ، که سپس به چهره افراد فیلم او پیوند زده شد. این تکنیک به فرانسه این امکان را می داد تا یکپارچگی حالت چهره افراد خود و در نتیجه درد ، ترس و انسانیت آنها را حفظ کند. در کل ، این فیلم 23 نفر را محافظت می کند ، هنگام ارسال سیگنال ها ، شکل جدیدی از حفاظت را ارائه می دهد.

تاریخ تجدیدنظرطلب

لویی دی ویلر ، بازیگر تقسیم شده در سمت چپ و نیکسون جعلی در سمت راست.

PANETA و BURGUND

در ماه ژوئیه ، دو محقق در انستیتوی فناوری ماساچوست ، فرانچسکا پانتا و هالسی بورگوندی ، پروژه ای را برای ایجاد تاریخچه دیگری از فرود ماه در سال 1969 آغاز کردند. در صورت فاجعه ماه، او از سخنرانی استفاده کرد که اگر موقعیت مهم مطابق برنامه پیش نرفته بود ، رئیس جمهور ریچارد نیکسون می گفت. محققان با دو شرکت مجزا برای صوتی و تصویری عمیق جعلی همکاری کردند و بازیگری را برای ارائه عملکرد “اساسی” استخدام کردند. آنها سپس صدا و صورت او را از طریق هر دو نوع نرم افزار اجرا کردند و آنها را به نیکسون نهایی جعلی دوختند.

در حالی که این پروژه نشان می دهد که deepfakes چگونه می تواند داستانهای قدرتمند جایگزین ایجاد کند ، دیگری نشان می دهد که deepfakes چگونه می تواند تاریخ واقعی را زنده کند. در ماه فوریه ، مجله Time راهپیمایی واقعیت مجازی مارتین لوتر کینگ جونیور را در واشنگتن بازآفرینی کرد تا بینندگان را در صحنه غوطه ور کند. این پروژه از فناوری deepfake استفاده نمی کند ، اما غول فناوری چینی Tencent بعداً آن را در مقاله ای سفید درباره برنامه های خود برای هوش مصنوعی نقل كرد و گفت كه deepfakes می تواند برای اهداف مشابهی در آینده استفاده شود.

ممت

در اواخر تابستان ، ممرسفر از جعلیات ساختگی آسان استفاده کرد و نتایج را در جهان دیجیتال فاش کرد. به طور خاص ، یک یادداشت ویروسی به نام “Baka Mitai” (تصویر بالا) به سرعت افزایش یافت زیرا مردم یاد گرفتند از این فناوری برای ایجاد نسخه های خود استفاده کنند. الگوریتم خاص جنون رانندگی از یک مقاله تحقیقاتی در سال 2019 ناشی می شود که به کاربر اجازه می دهد عکس چهره یک شخص را با ویدئویی از شخص دیگر متحرک کند. این اثر از هیچ بخشی از تخیلات با کیفیت بالا نیست ، اما مطمئناً باعث تولید سرگرمی با کیفیت می شود. این پدیده کاملاً تعجب آور نیست. بازی و هجو ، نیروی محرکه تبلیغ تبلیغات deepfakes و سایر ابزارهای دستکاری رسانه ها هستند. به همین دلیل است که برخی از متخصصان بر لزوم محافظ برای جلوگیری از تار شدن طنز در سو abuse استفاده تأکید می کنند.

تبلیغات ورزشی

[ad_2]

منبع: unbox-khabar.ir