جعل عمیق

از ویکی‌پدیا، دانشنامهٔ آزاد
یک مثال از جعل عمیق: تصویر چهره بازیگری به نام امی آدامز در تصویر اصلی (سمت چپ) طوری تغییر داده شده است که صورت او مشابه نیکولاس کیج (تصویر سمت راست) دیده شود.

دیپ فیک یا جعل عمیق، ترکیبی از کلمه‌های "یادگیری عمیق" و "جعلی"،[۱] یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد و از یک تکنیک یادگیری ماشین به نام «شبکه مولد تخاصمی» (GAN) استفاده می‌کند.[۲] ویدیوی جعلی، ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است.


برای مثال چنین فیلم‌های تقلبی‌ای می‌تواند فرد را در حال انجام اقدامات جنسی نشان دهد که هرگز در آن شرکت نکرده‌است یا می‌تواند برای تغییر کلمات یا حرکات یک سیاستمدار مورد استفاده قرار گیرد تا به نظر برسد آن فرد چیزی را گفته که هرگز به زبان نیاورده‌است. به دلیل این قابلیت‌ها، جعل عمیق می‌تواند برای ایجاد فیلم‌های پورن افراد مشهور، پورن انتقامی، اخبار جعلی و کلاهبرداری‌های مخرب استفاده شود.[۳][۴]

پورنوگرافی[ویرایش]

در سال ۲۰۱۷ پورنوگرافی توسط جعل عمیق در اینترنت و به ویژه در ردیت، نمایان شد و سپس سایت‌هایی مثل ردیت، توئیتر و پورن‌هاب آن را ممنوع کردند.[۵][۶][۷] در پاییز ۲۰۱۷ یک کاربر ناشناس ردیت تحت نام مستعار "Deepfakes" چندین فیلم پورن را در اینترنت منتشر کرد. اولین فیلمی که جلب توجه کرد، جعل عمیقی برای دیزی ریدلی بود. این فیلم یکی از شناخته شده‌ترین فیلم‌های جعل عمیق و بخش اصلی چندین مقاله بود. جعل عمیق همچنین بازیگر فیلم زن شگفت‌انگیز، گل گدوت، را در حال داشتن رابطه جنسی با برادر نانتی اش، به جای اما واتسون، کیتی پری، تیلور سوئیفت یا اسکارلت جوهانسون شبیه‌سازی کرد. مدتی بعد نادرستی این صحنه‌های غیر واقعی -که توسط هوش مصنوعی ایجاد شده بودند- افشا شد.

با گذشت زمان، انجمن Reddit بسیاری از اشکالات را در فیلم‌های جعلی برطرف کرد و این موضوع باعث شد که تشخیص محتوای تقلبی از اصلی سخت شود. عکس‌ها و فیلم‌های غیر پورنوگرافیک بازیگران، که به صورت آنلاین به راحتی در دسترس هستند، به عنوان داده‌های آموزشی در نرم‌افزار استفاده شد. پدیده جعل عمیق برای اولین بار در دسامبر ۲۰۱۷ در بخش فنی و علمی مجله Vice گزارش و در نهایت به صورت گسترده در سایر رسانه‌ها نیز منتشر شد.[۸][۹]

در دسامبر ۲۰۱۸، اسکارلت جوهانسون، به عنوان شخص تکرار شونده در جعل عمیق، به‌طور عمومی در مورد موضوعی در روزنامه The Washington Post صحبت کرد. او در یک بیانیه آماده، در مورد این پدیده ابراز نگرانی کرد و گفت اینترنت، کرمچاله ای عظیم از تاریکی است که خودش را می‌خورد. با این حال، او اظهار کرد که برای حذف هیچ‌یک از جعل عمیق‌هایش تلاشی نمی‌کند چون معتقد است که آن‌ها بر روی تصویر عمومی او تأثیری نمی‌گذارند و هم چنین وجود قوانین مختلف در کشورهای مختلف و ماهیت فرهنگ اینترنت هر گونه تلاش برای حذف جعل عمیق را تبدیل به حرکتی شکست خورده می‌کند؛ او معتقد است که تا زمانی که افراد مشهور مانند خودش توسط شهرتشان محافظت می‌شوند، جعل عمیق تهدیدی جدی برای زنان برجسته است زیرا ممکن است آن‌ها با فریب خوردن در پورنوگرافی ناخواسته یا پورن انتقامی به شهرت خود صدمه بزنند.[۱۰]

در انگلستان تولیدکنندگان مواد جعل عمیق ممکن است برای آزار و شکنجه تحت پیگرد قانونی قرار گیرند اما درخواست‌هایی برای تبدیل جعل عمیق به یک جرم ویژه وجود دارد؛[۱۱] در ایالات متحده، جایی که اتهاماتی مانند سرقت هویت، کمین اینترنتی و پورن انتقامی مورد انتقاد قرار گرفته شده‌است، مفهوم یک قانون جامع تر نیز مورد استفاده قرار گرفته‌است.[۱۲] افراد مشهور هدف اصلی چنین فیلم‌های جعلی جنسی هستند، اما برخی دیگر نیز تحت تأثیر قرار می‌گیرند.[۱۳][۱۴][۱۵]

سیاست[ویرایش]

جعل عمیق برای بد جلوه دادن سیاستمداران مشهور در پورتال‌های ویدیویی یا چت روم‌ها استفاده می‌شود. برای مثال، چهرهٔ رئیس‌جمهور آرژانتین مائوریسیو ماکری با چهرهٔ آدولف هیتلر و چهرهٔ آنجلا مرکل با دونالد ترامپ جایگزین شد.[۱۶][۱۷] در آوریل ۲۰۱۸، جردن پیل و جونا پرتی جعل عمیقی درست کردند که در آن از باراک اوباما به عنوان یک آگهی خدمات عمومی دربارهٔ خطر جعل عمیق استفاده شده بود.[۱۸] در ماه ژانویه سال ۲۰۱۹، KCPQ جعل عمیقی از ترامپ، در طول سخنرانی اش منتشر کرد که در حال تمسخر ظاهر و رنگ پوستش بود.[۱۹]

نرم‌افزار جعل عمیق[ویرایش]

در ژانویه ۲۰۱۸ یک برنامه دسکتاپ به نام FakeApp راه اندازی شد. این برنامه به کاربران اجازه می‌دهد تا به آسانی فیلم‌ها را با چهره‌هایی مختلف ایجاد کرده و به اشتراک بگذارند. این برنامه از یک شبکه عصبی مصنوعی، قدرت پردازنده گرافیکی و سه تا چهار گیگابایت فضای ذخیره‌سازی برای تولید ویدیو جعلی استفاده می‌کند. برای اطلاعات دقیق، برنامه نیاز به مقدار زیادی مواد بصری از فرد نیاز دارد تا بفهمد که کدام جنبه‌های تصویر، با استفاده از الگوریتم یادگیری عمیق و توالی ویدئوها و عکس‌ها، باید تغییر کند.

این نرم‌افزار از فریم ورک تنسورفلو گوگل استفاده می‌کند که برای برنامه DeepDream هم مورد استفاده قرار گرفته بود.در اوت ۲۰۱۸، محققان دانشگاه کالیفرنیا برکلی مقاله ای را برای معرفی یک برنامه رقص جعلی منتشر کردند که می‌تواند با استفاده از هوش مصنوعی یک کودک را با یک رقصنده متخصص جایگزین کند.[۲۰][۲۱]

جعل عمیق در داستان[ویرایش]

پدیده جعل عمیق و پورنوگرافی افراد مشهور در رمان Epiphany Jones توسط مایکل گروثوس مورد بررسی قرار گرفته‌است.[۲۲] این رمان یک تریلر ادبی، طنز اجتماعی و کمدی تاریک دربارهٔ عقده‌های روحی همراه با رابطه جنسی، شهرت و اینترنت است. این رمان به بررسی موارد زیر می‌پردازد: رابطه ناخواسته معتاد پورنوگرافی با یک زن را که فکر می‌کند می‌تواند با خدا صحبت کند و درگیر شدن با کاسبان جنسی که به نخبگان هالیوود خدمت می‌کنند. شخصیت اصلی داستان، جری درزن، از اعتیاد به پورنوگرافی جعلی افراد مشهور رنج می‌برد. جعلهای افراد مشهور خاص در این رمان ذکر شده که عبارتند از ناتالی پورتمن، اسکارلت جوهانسون، هالی بری، آنجلینا جولی، کیت بکینزیل و عروسک‌های Pussycat. علاوه بر این، جعل افراد مشهور فوت شده از جمله جودی گارلند و آدری هپبورن نیز در رمان ذکر شده‌است.

انتقادات[ویرایش]

سوءاستفاده[ویرایش]

Aargauer Zeitung می‌گوید که دستکاری تصاویر و فیلم‌ها با استفاده از هوش مصنوعی می‌تواند تبدیل به یک پدیدهٔ توده ای خطرناک شود. با این حال، جعل تصاویر و فیلم‌ها حتی از ظهور نرم‌افزار ویرایش ویدئو و برنامه‌های ویرایش عکس، قدیمی تر است. در این مورد، واقع گرایی یک جنبه جدید است.[۱۶]

همچنین ممکن است از جعل عمیق برای کلاهبرداریهای هدفمند و پورن انتقامی استفاده شود.[۲۳][۲۴]

اثرات بر روی صحت و اعتبار[ویرایش]

اثر دیگری از جعل عمیق این است که دیگر مشخص نمی‌شود که محتوا هدفمند است (مانند طنز) یا واقعی است. الکس شامپاندارد، پژوهشگر AI، گفته‌است که همه باید بدانند که امروزه، با چه سرعتی همه چیز با این تکنولوژی خراب می‌شود و اینکه مشکل، فنی نیست بلکه یک مورد است که با اعتماد به اطلاعات و روزنامه‌نگاری حل می‌شود. مشکل اصلی این است که بشریت می‌تواند به دورانی برسد که دیگر نمی‌توان تعیین کرد که آیا رسانه‌های تصویری مطابق با حقیقت هستند یا خیر.[۱۶]

واکنش اینترنتی[ویرایش]

برخی از وبسایتها، مانند Twitter و Gfycat، اعلام کردند که محتوای جعل عمیق را حذف و ناشران آن را مسدود خواهند کرد. قبلاً، پلتفرم چت Discord، یک کانال چت با فیلم‌های پورن جعلی فرد مشهوری را مسدود کرده بود. وب سایت پورنوگرافی، Pornhub، همچنین قصد دارد تا چنین محتوایی را مسدود کند. با این حال، گزارش شده‌است که این سایت ممنوعیت آن را اعمال نکرده‌است.[۲۵][۲۶] در Reddit، این وضعیت در ابتدا ناواضح باقی ماند تا زمانی که زیرمجموعه آن در ۷ فوریه ۲۰۱۸ به علت نقض غیرقانونی پورنوگرافی غیرداوطلبانه، به حالت تعلیق درآمد.[۹][۲۷][۲۸][۲۹] در سپتامبر سال ۲۰۱۸، گوگل تصاویری از پورنوگرافی مصنوعی ناخواسته را به فهرست ممنوعیتش اضافه کرد و به همه اجازه داد تا ممنوعیت نتایج واقعی یا برهنگی‌های جعلی را درخواست کنند.[۳۰]

منابع[ویرایش]

  1. Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News. Retrieved 2018-02-20.
  2. Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian. Retrieved 14 November 2018.
  3. "Experts fear face swapping tech could start an international showdown". The Outline. Retrieved 2018-02-28.
  4. Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times. ISSN 0362-4331. Retrieved 2018-03-24.
  5. "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet". Retrieved 2018-02-20.
  6. Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. Retrieved 2018-02-20.
  7. "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG. Retrieved 2018-02-20.
  8. AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, 2017-12-11
  9. ۹٫۰ ۹٫۱ Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online
  10. https://www.washingtonpost.com/technology/2018/12/30/fake-porn-videos-are-being-weaponized-harass-humiliate-women-everybody-is-potential-target, Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post. Missing or empty |url= (help); |access-date= requires |url= (help)
  11. Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, archived from the original on 28 August 2019, retrieved 23 January 2019
  12. Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070
  13. heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien
  14. ۱۶٫۰ ۱۶٫۱ ۱۶٫۲ "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03.
  15. Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". Archived from the original on 11 اكتبر 2018. Retrieved 23 ژانویه 2019. Check date values in: |archivedate= (help)
  16. Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. Retrieved September 10, 2018.
  17. Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post. Retrieved January 11, 2019.
  18. Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia. Retrieved 2018-08-27.
  19. "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Retrieved 2018-08-27.
  20. Chopin, Allison. "'Epiphany Jones' book review: Sex crimes and psychosis in darkly funny thriller - NY Daily News". nydailynews.com. Retrieved 2018-12-31.
  21. Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, 2018-01-26, ISSN 0044-2070
  22. „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, 2018-02-02
  23. "Pornhub hasn't been actively enforcing its deepfake ban". Engadget. Retrieved 2018-04-21.
  24. "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed. Retrieved 2018-04-21.
  25. barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos
  26. heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn".
  27. "Reddit verbannt Deepfake-Pornos".
  28. Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'".

پیوند به بیرون[ویرایش]