تزييف عميق

التزييف العميق (بالإنجليزية: Deepfake)‏[lower-alpha 1] هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.[2]

استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء والانتقام الاباحي.[3][4]

التاريخ

لقد حدث تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.

البحث الأكاديمي

يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الفيديو الرقمية بشكلٍ آلي. يُعدّ برنامج فيديو ريرايت (بالإنجليزية: Video Rewrite)‏ الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديو لشخصٍ يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الفيديو أصلًا.[5]

ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (بالإنجليزية: Synthesizing Obama)‏ الذي نشرَ فيديو للرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.[6] عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس تو فايس (بالإنجليزية: Face2Face)‏ الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.[7]

تطوير الهواة

نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (بالإنجليزية: deepfakes)‏.[8] قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛[8] حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الفيديوهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ معرفة ما إذا كانت مزيّفة أم لا وخاصّة الفيديو المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير.[9] في كانون الأول/ديسمبر 2017؛ نشرت سامانثا كول مقالةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الفيديوهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أو المُزيّفة.[10]

بحلول شباط/فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فايكس (بالإنجليزية: deepfakes)‏ بدعوى نشرهِ لمقاطع فيديو إباحية مزيّفة كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنيّة بما في ذلك موقع التواصل الاجتماعي المُصغّر تويتر وكذا موقع بورن هاب الإباحي.[11] ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة،[12] في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلمٍ أو بدونِ علم.[11]

الاستخدام

في المجال الإباحي

ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على موقع ريديت،[13] لكنّ هذا الأخير قام بحظرها ونفس الأمر فعلهُ موقعي تويتر وبورن هاب.[14][15][16] في خريف عام 2017؛ نشر مستخدم مجهولٌ على موقع ريديت العديد من مقاطع الفيديو الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذو خِبرة في مجال صناعة مثل هذه الفيديوهات حيثُ كان قد نشرَ مقطعًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفت وَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.

مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح العديد من الأخطاء في مقاطع الفيديو المزيفة ما جعلَ من الصعبِ اكتشافها أو التمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الفيديوهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والعلمي في مجال فيس هو أول من أبلغَ عن هذه الظاهرة لأوّل مرة في كانون الأول/ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.[17][18]

تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال مقابلة لها معَ واشنطن بوست في كانون الأول/ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ قالت سكارليت أيضًا بأنها لن تحاول إزالة أي من الفيديوهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن أن تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل.[19]»

في المجال السياسي

استُخدمت تقنيّة التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بقلم دونالد ترامب.[20][21] في نيسان/أبريل 2018؛ نشرَ جوردان بيل وجوناه بريتي فيديو على شكلِ إعلان خدمى عامّة يظهرُ فيه الرئيس الأمريكي السابق باراك أوباما وهوَ يتحدث حولَ خطر التزييف العميق.[22] وفي كانون الثاني/يناير 2019، بثت شبكة فوكس التلفزيونية هي الأخرى فيديو مصنوع بتقنيّة التزييف العميق «بنيّة حسنة» للرئيس ترامب خلال خطابه في المكتب البيضاوي.[23]

برامج التزييف العميق

في كانون الثاني/يناير 2018؛ أُطلق برنامج فايك آب (بالإنجليزية: FakeApp)‏ للحواسيب. يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الفيديو بسهولة مع تغيير الوجوه حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الفيديو المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لمعرفة جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الفيديو والصور.

يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلو من جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (بالإنجليزية: DeepDream)‏. بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الفيديو المزيفة هذه لعدّة أسباب من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين.[24][25][26] في آب/أغسطس 2018؛ نشرَ باحثون من جامعة كاليفورنيا في بيركلي ورقة علميّة تقدم تطبيقًا للتزييف العميق يمكن أن يخلق انطباعًا جيدًا عندَ الرقص باستخدام الذكاء الاصطناعي.[27][28]

هناك أيضًا بدائل مفتوحة المصدر لبرنامج فايك آب الأصلي مثلَ ديب فايس (بالإنجليزية: DeepFace)‏،[29] فايس سواب (بالإنجليزية: FaceSwap)‏ المُستضاف حاليًا على غيت هاب،[30] وماي فايك آب (بالإنجليزية: myFakeApp)‏ المستضاف حاليًا على موقع بيت باكيت.[31] [32]

الانتقادات

الانتهاكات

يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (بالإنجليزية: Aargauer Zeitung)‏ أن التلاعب بالصور ومقاطع الفيديو باستخدام الذكاء الاصطناعي يُمكن أن يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هو نفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الفيديو وبرامج تحرير الصور.[20] بشكلٍ عام؛ تبقى قُدرة البشر على التمييز بين الفيديو المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.[33][34]

المصداقية

إنّ الفشل في التمييز بين الفيديو المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على كل الفيديوهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر كل فيديو حتى لو كانَ صحيحًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على كل شخص أن يعرفَ أن المشكلة ليست مشكلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي أن الإنسانية يمكن أن تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أو فيديو ما حقيقيًا أم لا![20]»

ردود الفعل على الإنترنت

أعلنت بعض مواقع الويب مثلَ تويتر وجي إف واي كات أنها ستحذف المحتوى المصنوع عبر تقنيّة التزييف العميق كما ستحظر ناشر مثل هذا النوع من المُحتوى. في السابق؛ منعت منصة الدردشة ديسكورد تداول وتبادل مقاطع الفيديو الإباحية المشهورة المزيفة ونفس الأمر فعلهُ الموقع الإباحي بورن هاب ومع ذلك؛ فقد أفيد أن الموقع لم يقم بحظرٍ شامل لهذا المحتوى.[35][36] أمّا في رديت فقد ظل الوضع في البداية غير واضح حتى 7 شباط/فبراير 2018 عندما بدأَ الموقع في حظر كل من ينشر أو يتبادل تلك النوعيّة من الفيديوهات بدعوى خرق سياسة الموقع.[18][37] [38][39] وَفي سبتمبر 2018؛ أضافَ موقع جوجل «الصور الإباحية الاصطناعية» لقائمة النتائج الممنوعة من الظهور.[40]

ملاحظات

  1. تُعدّ هذه العبارة حديثة العهد في اللغة الإنجليزية؛ حيثُ صِيغت لأوّل مرة عام 2017.[1]

    المراجع

    1. Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (باللغة الإنجليزية). مؤرشف من الأصل في 15 يونيو 2018. اطلع عليه بتاريخ 20 فبراير 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    2. Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (باللغة الإنجليزية). مؤرشف من الأصل في 16 يونيو 2019. اطلع عليه بتاريخ 14 نوفمبر 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    3. "Experts fear face swapping tech could start an international showdown". The Outline (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 28 فبراير 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    4. Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (باللغة الإنجليزية). ISSN 0362-4331. مؤرشف من الأصل في 18 يونيو 2019. اطلع عليه بتاريخ 24 مارس 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    5. Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360. مؤرشف من الأصل في 19 مايو 2020 عبر ACM Digital Library. الوسيط |CitationClass= تم تجاهله (مساعدة)
    6. Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (July 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36.4: 95:1–95:13. مؤرشف من الأصل في 19 مايو 2020 عبر ACM Digital Library. الوسيط |CitationClass= تم تجاهله (مساعدة)
    7. Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (June 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". IEEE: 2387–2395. doi:10.1109/CVPR.2016.262. ISBN 9781467388511. مؤرشف من الأصل في 24 أغسطس 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    8. Cole, Samantha (24 January 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. مؤرشف من الأصل في 7 سبتمبر 2019. اطلع عليه بتاريخ 04 مايو 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    9. Haysom, Sam (31 January 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. مؤرشف من الأصل في 24 يوليو 2019. اطلع عليه بتاريخ 04 أبريل 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    10. Cole, Samantha (11 December 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. مؤرشف من الأصل في 7 سبتمبر 2019. اطلع عليه بتاريخ 19 ديسمبر 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    11. Hathaway, Jay (8 February 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. مؤرشف من الأصل في 6 يوليو 2019. اطلع عليه بتاريخ 22 ديسمبر 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    12. "r/SFWdeepfakes". Reddit. مؤرشف من الأصل في 9 أغسطس 2019. اطلع عليه بتاريخ 12 ديسمبر 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    13. Roettgers, Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (باللغة الإنجليزية). مؤرشف من الأصل في 10 يونيو 2019. اطلع عليه بتاريخ 28 فبراير 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    14. "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    15. Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    16. "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    17. AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, 2017-12-11, مؤرشف من الأصل في 5 مايو 2019 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    18. Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online, مؤرشف من الأصل في 23 سبتمبر 2019 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    19. "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post. 2018-12-31. مؤرشف من الأصل في 13 يونيو 2019. اطلع عليه بتاريخ 19 يونيو 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    20. "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03. مؤرشف من الأصل في 13 أبريل 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    21. Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 9 سبتمبر 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    22. Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 11 يونيو 2019. اطلع عليه بتاريخ 10 سبتمبر 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    23. Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (باللغة الإنجليزية). مؤرشف من الأصل في 15 أبريل 2019. اطلع عليه بتاريخ 11 يناير 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    24. Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, مؤرشف من الأصل في 28 أغسطس 2019 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    25. Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070, مؤرشف من الأصل في 24 مايو 2019 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    26. heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien, مؤرشف من الأصل في 12 ديسمبر 2019 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    27. Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 27 أغسطس 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    28. "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. مؤرشف من الأصل في 17 مايو 2019. اطلع عليه بتاريخ 27 أغسطس 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    29. "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". 19 June 2019. مؤرشف من الأصل في 9 مايو 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    30. "Build software better, together". GitHub. مؤرشف من الأصل في 20 يونيو 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    31. "Bitbucket". bitbucket.org. مؤرشف من الأصل في 10 أبريل 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    32. Fiske, Tormod. "Imagining Deceptive Deepfakes" (PDF). www.duo.uio.no. مؤرشف من الأصل (PDF) في 7 مارس 2019. اطلع عليه بتاريخ 19 يونيو 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    33. Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, 2018-01-26, ISSN 0044-2070, مؤرشف من الأصل في 25 مايو 2019 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    34. „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, 2018-02-02, مؤرشف من الأصل في 13 أبريل 2019 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    35. "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 21 أبريل 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    36. "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (باللغة الإنجليزية). مؤرشف من الأصل في 20 يونيو 2018. اطلع عليه بتاريخ 21 أبريل 2018. الوسيط |CitationClass= تم تجاهله (مساعدة)
    37. barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos, مؤرشف من الأصل في 8 فبراير 2018 الوسيط |CitationClass= تم تجاهله (مساعدة); الوسيط |separator= تم تجاهله (مساعدة)CS1 maint: ref=harv (link)
    38. heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn". مؤرشف من الأصل في 10 أبريل 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    39. "Reddit verbannt Deepfake-Pornos". مؤرشف من الأصل في 10 أبريل 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
    40. Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". مؤرشف من الأصل في 14 يونيو 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
      • بوابة علم الحاسوب
      • بوابة السياسة
      • بوابة إباحية
      • بوابة تقانة
      • بوابة تقنية المعلومات
      • بوابة إنترنت
      This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.