التزييف العميق (Deepfake)[a] هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.[2]
استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء والانتقام الاباحي.[3][4]
التاريخ
لقد حدث تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.
البحث الأكاديمي
يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الفيديو الرقمية بشكلٍ آلي. يُعدّ برنامج فيديو ريرايت (Video Rewrite) الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديو لشخصٍ يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الفيديو أصلًا.[5]
ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (Synthesizing Obama) الذي نشرَ فيديو للرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.[6] عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس تو فايس (Face2Face) الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.[7]
تطوير الهواة
نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (deepfakes).[8] قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛[8] حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الفيديوهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ معرفة ما إذا كانت مزيّفة أم لا وخاصّة الفيديو المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير.[9] في كانون الأول/ديسمبر 2017؛ نشرت سامانثا كول مقالةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الفيديوهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أو المُزيّفة.[10]
بحلول شباط/فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فايكس (deepfakes) بدعوى نشرهِ لمقاطع فيديو إباحية مزيّفة كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنيّة بما في ذلك موقع التواصل الاجتماعي المُصغّر تويتر وكذا موقع بورن هاب الإباحي.[11] ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة،[12] في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلمٍ أو بدونِ علم.[11]
الاستخدام
في المجال الإباحي
ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على موقع ريديت،[13] لكنّ هذا الأخير قام بحظرها ونفس الأمر فعلهُ موقعي تويتر وبورن هاب.[14][15][16] في خريف عام 2017؛ نشر مستخدم مجهولٌ على موقع ريديت العديد من مقاطع الفيديو الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذو خِبرة في مجال صناعة مثل هذه الفيديوهات حيثُ كان قد نشرَ مقطعًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفت وَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.
مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح العديد من الأخطاء في مقاطع الفيديو المزيفة ما جعلَ من الصعبِ اكتشافها أو التمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الفيديوهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والعلمي في مجال فيس هو أول من أبلغَ عن هذه الظاهرة لأوّل مرة في كانون الأول/ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.[17][18]
تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال مقابلة لها معَ واشنطن بوست في كانون الأول/ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ قالت سكارليت أيضًا بأنها لن تحاول إزالة أي من الفيديوهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن أن تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل.[19]»
في المجال السياسي
استُخدمت تقنيّة التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بقلم دونالد ترامب.[20][21] في نيسان/أبريل 2018؛ نشرَ جوردان بيل وجوناه بريتي فيديو على شكلِ إعلان خدمى عامّة يظهرُ فيه الرئيس الأمريكي السابق باراك أوباما وهوَ يتحدث حولَ خطر التزييف العميق.[22] وفي كانون الثاني/يناير 2019، بثت شبكة فوكس التلفزيونية هي الأخرى فيديو مصنوع بتقنيّة التزييف العميق «بنيّة حسنة» للرئيس ترامب خلال خطابه في المكتب البيضاوي.[23]
برامج التزييف العميق
في كانون الثاني/يناير 2018؛ أُطلق برنامج فايك آب (FakeApp) للحواسيب. يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الفيديو بسهولة مع تغيير الوجوه حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الفيديو المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لمعرفة جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الفيديو والصور.
يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلو من جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (DeepDream). بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الفيديو المزيفة هذه لعدّة أسباب من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين.[24][25][26] في آب/أغسطس 2018؛ نشرَ باحثون من جامعة كاليفورنيا في بيركلي ورقة علميّة تقدم تطبيقًا للتزييف العميق يمكن أن يخلق انطباعًا جيدًا عندَ الرقص باستخدام الذكاء الاصطناعي.[27][28]
هناك أيضًا بدائل مفتوحة المصدر لبرنامج فايك آب الأصلي مثلَ ديب فايس (DeepFace)،[29] فايس سواب (FaceSwap) المُستضاف حاليًا على غيت هاب،[30] وماي فايك آب (myFakeApp) المستضاف حاليًا على موقع بيت باكيت.[31] [32]
الانتقادات
الانتهاكات
يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (Aargauer Zeitung) أن التلاعب بالصور ومقاطع الفيديو باستخدام الذكاء الاصطناعي يُمكن أن يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هو نفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الفيديو وبرامج تحرير الصور.[20] بشكلٍ عام؛ تبقى قُدرة البشر على التمييز بين الفيديو المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.[33][34]
المصداقية
إنّ الفشل في التمييز بين الفيديو المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على كل الفيديوهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر كل فيديو حتى لو كانَ صحيحًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على كل شخص أن يعرفَ أن المشكلة ليست مشكلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي أن الإنسانية يمكن أن تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أو فيديو ما حقيقيًا أم لا![20]»
ردود الفعل على الإنترنت
أعلنت بعض مواقع الويب مثلَ تويتر وجي إف واي كات أنها ستحذف المحتوى المصنوع عبر تقنيّة التزييف العميق كما ستحظر ناشر مثل هذا النوع من المُحتوى. في السابق؛ منعت منصة الدردشة ديسكورد تداول وتبادل مقاطع الفيديو الإباحية المشهورة المزيفة ونفس الأمر فعلهُ الموقع الإباحي بورن هاب ومع ذلك؛ فقد أفيد أن الموقع لم يقم بحظرٍ شامل لهذا المحتوى.[35][36] أمّا في رديت فقد ظل الوضع في البداية غير واضح حتى 7 شباط/فبراير 2018 عندما بدأَ الموقع في حظر كل من ينشر أو يتبادل تلك النوعيّة من الفيديوهات بدعوى خرق سياسة الموقع.[18][37] [38][39] وَفي سبتمبر 2018؛ أضافَ موقع جوجل «الصور الإباحية الاصطناعية» لقائمة النتائج الممنوعة من الظهور.[40]
ملاحظات
- تُعدّ هذه العبارة حديثة العهد في اللغة الإنجليزية؛ حيثُ صِيغت لأوّل مرة عام 2017.[1]
المراجع
- Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (باللغة الإنجليزية). مؤرشف من الأصل في 15 يونيو 201820 فبراير 2018.
- Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (باللغة الإنجليزية). مؤرشف من الأصل في 16 يونيو 201914 نوفمبر 2018.
- "Experts fear face swapping tech could start an international showdown". The Outline (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 201928 فبراير 2018.
- Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (باللغة الإنجليزية). ISSN 0362-4331. مؤرشف من الأصل في 18 يونيو 201924 مارس 2018.
- Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360. مؤرشف من الأصل في 19 مايو 2020 – عبر ACM Digital Library.
- Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (July 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36.4: 95:1–95:13. مؤرشف من الأصل في 19 مايو 2020 – عبر ACM Digital Library.
- Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (June 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". IEEE: 2387–2395. doi:10.1109/CVPR.2016.262. . مؤرشف من الأصل في 24 أغسطس 2019.
- Cole, Samantha (24 January 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. مؤرشف من الأصل في 7 سبتمبر 201904 مايو 2019.
- Haysom, Sam (31 January 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. مؤرشف من الأصل في 24 يوليو 201904 أبريل 2019.
- Cole, Samantha (11 December 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. مؤرشف من الأصل في 7 سبتمبر 201919 ديسمبر 2018.
- Hathaway, Jay (8 February 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. مؤرشف من الأصل في 6 يوليو 201922 ديسمبر 2018.
- "r/SFWdeepfakes". Reddit. مؤرشف من الأصل في 9 أغسطس 201912 ديسمبر 2018.
- Roettgers, Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (باللغة الإنجليزية). مؤرشف من الأصل في 10 يونيو 201928 فبراير 2018.
- "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 201920 فبراير 2018.
- Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. مؤرشف من الأصل في 10 أبريل 201920 فبراير 2018.
- "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 201920 فبراير 2018.
- AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, 2017-12-11, مؤرشف من الأصل في 5 مايو 2019
- Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online, مؤرشف من الأصل في 23 سبتمبر 2019
- "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image". The Washington Post. 2018-12-31. مؤرشف من الأصل في 13 يونيو 201919 يونيو 2019.
- "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03. مؤرشف من الأصل في 13 أبريل 2019.
- Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 9 سبتمبر 2018.
- Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 11 يونيو 201910 سبتمبر 2018.
- Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (باللغة الإنجليزية). مؤرشف من الأصل في 15 أبريل 201911 يناير 2019.
- Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, مؤرشف من الأصل في 28 أغسطس 2019
- Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070, مؤرشف من الأصل في 24 مايو 2019
- heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien, مؤرشف من الأصل في 12 ديسمبر 2019
- Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 201927 أغسطس 2018.
- "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. مؤرشف من الأصل في 17 مايو 201927 أغسطس 2018.
- "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". 19 June 2019. مؤرشف من الأصل في 9 مايو 2019.
- "Build software better, together". GitHub. مؤرشف من الأصل في 20 يونيو 2019.
- "Bitbucket". bitbucket.org. مؤرشف من الأصل في 10 أبريل 2019.
- Fiske, Tormod. "Imagining Deceptive Deepfakes" ( كتاب إلكتروني PDF ). www.duo.uio.no. مؤرشف من الأصل ( كتاب إلكتروني PDF ) في 7 مارس 201919 يونيو 2019.
- Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, 2018-01-26, ISSN 0044-2070, مؤرشف من الأصل في 25 مايو 2019
- „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, 2018-02-02, مؤرشف من الأصل في 13 أبريل 2019
- "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 201921 أبريل 2018.
- "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (باللغة الإنجليزية). مؤرشف من الأصل في 20 يونيو 201821 أبريل 2018.
- barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos, مؤرشف من الأصل في 8 فبراير 2018
- heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn". مؤرشف من الأصل في 10 أبريل 2019.
- "Reddit verbannt Deepfake-Pornos". مؤرشف من الأصل في 10 أبريل 2019.
- Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target". مؤرشف من الأصل في 14 يونيو 2019.