چگونه deepfakes در واقع می تواند انجام برخی از خوب

کارولین McGinnes ممکن است یکی از معدود افرادی در جهان است که می داند آنچه در آن است به من قرض بدهی

توسط NEWSOULS در 9 تیر 1399
Open Sourced logo

کارولین McGinnes ممکن است یکی از معدود افرادی در جهان است که می داند آنچه در آن است به من قرض بدهید کسی که یک چهره. در جدید HBO, مستند, چشم, بینی, دهان و کمک به پنهان سازی هویت از تجاوز افراد در چچن عمدتا مسلمان جمهوری در روسیه است. اساسا McGinnes داوطلب برای تبدیل شدن به یک deepfake در راه چند باید قبل از دیده می شود.

در چچن LGBTQ مردم مواجه قابل توجهی از آزار و اذیت از جمله غیر قانونی بازداشت, شکنجه و سایر اشکال سوء استفاده. به خاطر بازماندگان می توانید به ندرت فاش کردن هویت خود را با خیال راحت در این تیم پشت این فیلم به انجمن خوش آمدید چچن تبدیل به مرتب کردن بر اساس همان تکنولوژی به طور معمول دیده می شود در deepfake ویدئوها. آنها با استفاده از هوش مصنوعی برای پوشش چهره از داوطلبان در بالای کسانی که از بازماندگان. این نرم افزار از deepfake-فناوری می تواند جایگزین روش های سنتی تر از نگه داشتن منابع ناشناس مانند داشتن آنها را به نشستن در سایه و یا مات چهره خود را. این تکنولوژی همچنین کمک می کند تا صفحه نمایش بهتر احساسات و عواطف بازماندگان.

"Deepfake" تبدیل به یک معرفی کوتاه مدت برای انواع تکنیک های فن آوری, اما آن را به طور کلی درک به عنوان هوش مصنوعی استفاده می شود برای تغییر تصویری و صوتی آن را به عنوان هر چند کسی است که با گفتن یا انجام چیزی است که آنها در واقع نیست. این واژه از نام یک کاربر Reddit که مستقر یادگیری ماشین برای تعویض مشاهیر و چهره به رابطه جنسی بدون رضایت خود را. اما گسترده تر صنعت شروع به ترویج اشکال مشابه از هوش مصنوعی به کمک رسانه های دستکاری — گاهی اوقات به نام های مصنوعی رسانه ها — که لزوما به عنوان نابکار.

خواهم که deepfake تصویری از باراک اوباما (یا مارک زوکربرگ یا کیم کارداشیان) چهره ممکن است به نظر نمی آید کاملا حق به عنوان deepfake ویدئوها تمایل به زندگی در uncanny valley. به انجمن خوش آمدید چچن هشدار بینندگان که تکنولوژی برجسته است و به صورت "دو برابر" می تواند در زمان به نظر می رسد تار تقریبا مانند آبرنگ. برای افرادی که چهره ظاهر می شود در این فیلم تجربه می تواند "بسیار سورئال" با توجه به McGinnes.

"آنها نقشه از تمام فاصله بر روی صورت خود," او گفت: Recode "و مطابقت آنها با همه چیز چشمان خود را jawline همه چیز."

به انجمن خوش آمدید چچن که آغاز بکار در تاریخ 30 ژوئن در HBO و HBO Max نشان دهنده نادر مثال مثبت از deepfakes. با کمک deepfake تکنولوژی این فیلم می تواند درخشش نور در نقض حقوق بشر در حالی که به حداقل رساندن خطر برای قربانیان درگیر در تولید.

در حال حاضر deepfake تکنولوژی بهتر شناخته شده برای آسیب رساندن به جای کمک به مردم. زنان به مراتب بیشتر احتمال دارد به صدمه دیده توسط deepfake فن آوری است. های اخیر یک گزارش از گروه پژوهشی Deeptrace یافت که تقریبا همه deepfakes در بر داشت در حال حاضر در nonconsensual پورنو. یکی دیگر از عمده ترس است که deepfakes می تواند مورد استفاده قرار گیرد به رابجای دیگری جا زدن چهره های سیاسی و فشار به دروغ مبارزات تشدید در حال حاضر شایع-مشکل از اخبار جعلی در اینترنت.

هنوز وعده deepfake مانند تکنولوژی گمنام مردم ممکن است رشد بیشتر محبوب کارشناسان گفت Recode های پیچیده بحث بر سر اخلاق و قوانین و مقررات از این بحث استفاده از هوش مصنوعی است.

مرد پشت به انجمن خوش آمدید چچن's تکنولوژی جلوه های بصری متخصص Ryan Laney که می گوید: فن آوری مورد استفاده در این فیلم اساسا حرکت های چهره مانند عروسک خیمه شب بازی عروسک. به عبارت ساده حرکات صورت از کسانی که به ویژه در این مستند راهنمای چگونه چهره "دونفره" حرکت با کمک یادگیری عمیق فن آوری.

"ابرو و چشم اشکال تبدیل شدن به چیزی شبیه به brushstrokes," Laney توضیح داد. "بنابراین ما در زمان محتوا از افراد در فیلم ها و اعمال سبک از فعالان است." (این فیلم را تیم اشاره به افرادی که داوطلب چهره خود را به عنوان "فعالان.")

داوطلبان تا به حال چهره خود را فیلم برداری از انواع زاویه و در چهره شد و سپس نقشه برداری بر روی چهره افراد که در ظاهر به انجمن خوش آمدید چچن.
HBO

در نهایت او می گوید: ایده این بود برای ایجاد "دیجیتال پروتز که در آن 100 درصد از حرکت های هیجانی و ماهیت آنچه در این موضوع انجام شده است وجود دارد." اساسا این روش خواهد ماهرانه یک فرد را تغییر شکل چشم اما نه این واقعیت است که آنها چشمک می زند.

یکی دیگر از چالش بود و اجتناب از uncanny valley است که در یک دوره بیشتر از اغلب استفاده می شود به بحث در مورد چگونه روبات واقع بینانه باید نگاه کنید. برای پرداختن به این سوال این فیلم در آورده Thalia Wheatley, یک روانشناس اجتماعی و متخصص علوم اعصاب در دارتموث و دانشجوی کارشناسی ارشد کریس Welker, برای تست روش های مختلف به صورت پوشاند و ببینید که چگونه کوچک خلبان مخاطبان پاسخ داد. برای مثال آنها تلاش کردن کارتونی انطباق از بازماندگان چهره که Wheatley تشبیه به انیمیشن از فیلم مرد عنکبوتی: به Spiderverse. کسانی که انجام بدترین محققان گفتند.

یکی دیگر از نسخه درگیر پوشش چهره اما نگه داشتن اصلی مردم چشم که محققان فکر می تواند کمک به مردم در ارتباط با این موضوع است. آیا این واقعا کار می کند یا نه.

"ما فکر می کنم که پاسخ این است که شما با قرار دادن یک فرد چشم در فرد دیگری صورت و مغز فقط می تواند حل و فصل تجانس و آن را فقط احساس نگران کننده و آن را لگد مردم از تجربه" Wheatley گفت. "اما ما نمی دانیم."

Laney می گوید او در حال حاضر مشغول به کار به دموکراتیزه این deepfake تکنولوژی خوب است. از طریق یک شرکت جدید Teus رسانه های, او می خواهد به نوبه خود هوش مصنوعی به روزنامه نگاری "دیجیتال حجاب" برای cloaking شاهدان در خطر است و او می گوید: او در حال حاضر دریافت بهره. اما Laney نه تنها فشار دادن این رویکرد است.

برخی نوپا مانند بود و Alethea AI می خواهید مردم را به استفاده از deepfake مانند آواتار به صورت دیجیتالی ردای خود را. محققان در دانشگاه نروژی علم و فناوری و دانشگاه آلبانی نیز مشغول به کار بر روی تکنولوژی مشابه است.

مدیر دانشگاه کلرادو دنور مرکز ملی در رسانه ها پزشکی قانونی Catalin Grigoras بر آن است که مسائل اخلاقی در اطراف مصنوعی رسانه ها مطرح شده که آنها ظاهر می شود به جنبه های واقعیت. هیچ کس تا موضوع را با چهره های تولید شده در فیلم های هالیوود, او می گوید: اما مسائل ظهور زمانی که آنها استفاده می شود برای ایجاد اخبار نادرست, به عنوان مثال. به انجمن خوش آمدید چچناستفاده از deepfake تکنولوژی است که در دلیل.

"این فقط یک فیلم جدید است که این نوع از جلوه های بصری" Grigoras گفت. "وجود دارد بسیار خوب است اما هنوز هم ممکن است آنها را تشخیص دهد."

سام گرگوری مدیر برنامه شاهد حقوق بشر غیر انتفاعی است که با تمرکز بر روی ویدئو و تکنولوژی می گوید که فعالان او صحبت برای پیدا کردن آن را یکی از چند قانع کننده برنامه های کاربردی از تکنولوژی. گرگوری امتیاز به زنان که با استفاده از مجازی ماسک در اسنپ چت برای به اشتراک گذاشتن تجربه خود را از تجاوزات جنسی از طریق ویدئو و بدون آشکار کردن هویت خود است.

"در طول چند سال گذشته به نظر می رسید مانند یکی از مثبت ترین استفاده بالقوه deepfakes است برای حفظ ویژگی های انسان و توانایی انتقال احساسات و حفظ ضروری بشریت از افرادی که در مواجهه وحشتناک نقض" گرگوری گفت.

هنوز گرگوری اخطار می دهد که deepfakes استفاده می شود برای گمنامی نیست و بدون مسائل اخلاقی. برای مثال او شگفتی تا چه حد چهره دو باید مطابقت با هویت و ویژگی های چنین به عنوان نژاد و جنسیت و سن فرد که هویت آنها پنهان. گریگوری می افزاید: در حالی که این تکنولوژی ممکن است کمک به فعالان آن را نیز می تواند استفاده شود به غلط و هدف آنها است.

وقتی پرسیده شد که در مورد سوال اطراف deepfakes, به انجمن خوش آمدید چچن's Laney می گوید که تکنولوژی خود را ندارد مشخصات فنی تعداد زیرا "deepfakes به عنوان یک عمل ذاتا غیر مبتنی بر رضایت طرفین." به او هوش مصنوعی استفاده شده در این فیلم مورد نیاز هر دو توافق از آن فیلم برداری می شود ناشناخته خواهد ماند و رضایت از فعالان داوطلب چهره خود را. Laney همچنین تاکید کرد که هیچ کس در تلاش است برای فریب مخاطب است. آنها می دانند که این فن آوری است که در محل که از آن استفاده می شود برای برقراری ارتباط به حدی است که این افراد در معرض خطر هستند.

که پژواک آنچه که یک شرکت به نام Synthesia گفته است. راه اندازی به فروش می رساند مشابه, مصنوعی, فناوری رسانه ای است متعهد به ارائه آن deepfake مانند تکنولوژی برای استفاده عمومی و وعده داده است که آن را "هرگز دوباره تصویب کسی بدون رضایت صریح و روشن" از جمله "سیاستمداران یا افراد به صورت طنز اهداف است."

در حال حاضر هیچ قانون فدرال به صراحت تنظیم تولید deepfakes در ایالات متحده هر چند برخی از کشورهای ابراز علاقه در تنظیم فن آوری و برخی می گویند قوانین موجود در حال حاضر ممکن است اعمال می شود. در ضمن شرکت رسانه های اجتماعی مانند Facebook و Twitter نیز تلاش برای ایجاد قوانین برای تعدیل استفاده از تکنولوژی در سیستم عامل خود را.

اما deepfakes بخشی از یک صنعت توسعه. به عنوان فن آوری برجسته تر می شود ما باید انتظار بیشتر مردم را به استدلال می کنند برای مشروع موارد استفاده — و یا حداقل برنامه های کاربردی که به عنوان وحشتناک به عنوان deepfakes ما بیشتر آشنا هستند. که به ناچار پیچیده چگونه ما را انتخاب کنید به آنها را تنظیم.

باز کردن منابع ساخته شده است programme. همه باز منابع محتوای سرمقاله مستقل و تولید شده توسط روزنامه نگاران ما.


پشتیبانی بورسی را توضیح روزنامه نگاری

هر روز در Vox هدف ما برای پاسخ به مهم ترین سوالات و ارائه شما و مخاطبان ما در سراسر جهان با اطلاعات است که قدرت را به صرفه جویی در زندگی می کند. ماموریت ما این شده است هرگز حیاتی تر از آن است که در این لحظه: برای توانمند سازی شما از طریق درک. Vox کار رسیدن به مردم بیشتر از همیشه اما متمایز ما با نام تجاری توضیحی روزنامه نگاری طول می کشد تا منابع — به خصوص در طول یک بیماری همه گیر و رکود اقتصادی. مالی خود را کمک خواهد تلقی نمی اهدای اما آن را قادر می سازد کارکنان ما به ادامه به ارائه مقالات رایگان, فیلم ها و پادکست ها در کیفیت و حجم که در این لحظه نیاز دارد. لطفا نظر سهم به بورسی امروز.



tinyurlis.gdu.nuclck.ruulvis.netshrtco.de
آخرین مطالب
مقالات مشابه
نظرات کاربرن