جدول المحتويات:
- كيف يتم إنشاء Deepfakes
عواقب deepfakes- ليس كل Deepfakes سيئة
كيفية اكتشاف Deepfake الفيديو- البحث عن Deepfakes
فيديو: Данила Козловский в роли Уильяма Уоллеса в фильме Храброе сердце [deepfake] (شهر نوفمبر 2024)
مع اقترابنا من موسم حملة الانتخابات الرئاسية المقبلة ، ستحتاج إلى الحذر من المخاطر المحتملة التي تجلبها مقاطع الفيديو المزيفة عبر الإنترنت من خلال استخدام الذكاء الاصطناعي والتعلم الآلي (ML). باستخدام برنامج AI ، يمكن للناس إنشاء مقاطع فيديو لـ deepfake (اختصار لـ "التعلم العميق والمزيف") تستخدم فيها خوارزميات ML لإجراء مبادلة وجه لإنشاء الوهم بأن شخصًا ما قال شيئًا ما لم يقله أو أنه شخص ما ليس. تظهر مقاطع الفيديو Deepfake في ساحات مختلفة ، من الترفيه إلى السياسة إلى عالم الشركات. لا يقتصر الأمر على التأثير في مقاطع الفيديو بشكل غير عادل في الانتخابات التي تتضمن رسائل خاطئة ، بل يمكن أن يؤدي إلى إحراج شخصي أو التسبب في تضليل رسائل العلامة التجارية إذا ، على سبيل المثال ، إظهار مدير تنفيذي يعلن عن إطلاق منتج أو عملية استحواذ لم تحدث بالفعل.
تُعد Deepfakes جزءًا من فئة من الذكاء الاصطناعي تسمى "شبكات الخصومة التوليدية" أو شبكات GAN ، حيث تتنافس شبكتان عصبيتان لإنشاء صور أو مقاطع فيديو تبدو حقيقية. تتكون شبكات GAN من مولد ، والذي ينشئ مجموعة جديدة من البيانات مثل فيديو مزيف ، ومميز ، يستخدم خوارزمية ML لتجميع ومقارنة البيانات من الفيديو الحقيقي. يستمر المولد في محاولة تجميع مقطع الفيديو المزيف مع الفيديو القديم حتى لا يستطيع المميّز معرفة أن البيانات جديدة.
كما أشار ستيف غروبمان ، نائب رئيس أول مكافي ورئيس قسم التكنولوجيا (CTO) ، في مؤتمر RSA 2019 في مارس في سان فرانسيسكو ، كانت هناك صور مزيفة موجودة منذ اختراع التصوير الفوتوغرافي. قال إن تغيير الصور كان مهمة بسيطة يمكنك تنفيذها في تطبيق مثل Adobe Photoshop. لكن هذه الأنواع من إمكانيات التحرير المتقدمة تنتقل الآن إلى الفيديو ، وتقوم بذلك باستخدام أدوات برمجية عالية القدرة ويمكن الوصول إليها بسهولة.
كيف يتم إنشاء Deepfakes
على الرغم من أن فهم مفاهيم الذكاء الاصطناعى مفيد ، إلا أنه ليس من الضروري أن تكون عالِمًا للبيانات لإنشاء مقطع فيديو عميق. يتعلق الأمر فقط باتباع بعض التعليمات عبر الإنترنت ، وفقًا لـ Grobman. في مؤتمر RSA 2019 (انظر الفيديو أعلاه) ، كشف النقاب عن مقطع فيديو عميق مع الدكتور سيليست فراليك ، كبير علماء البيانات وكبير المهندسين الرئيسيين في McAfee. أوضح فيديو deepfake التهديد الذي تمثله هذه التكنولوجيا. أظهر Grobman و Fralick كيف يمكن لمسؤول عام في مقطع فيديو يقول شيئًا ما خطيرًا تضليل الجمهور للاعتقاد بأن الرسالة حقيقية.
لإنشاء مقطع الفيديو الخاص بهم ، قام Grobman و Fralick بتنزيل برنامج deepfake. ثم أخذوا شريط فيديو عن جروبمان يدلي بشهادته أمام مجلس الشيوخ الأمريكي في عام 2017 وفرضوه على فواليك على جروبمان.
وقال فراليك أمام جمهور RSA من على خشبة المسرح: "لقد استخدمت التعليقات العامة المتاحة مجانًا لإنشاء نموذج ML وتدريبه ؛ وهذا يتيح لي تطوير مقطع فيديو عميقًا مع كلماتي التي خرجت من الفم". ومضى Fralick إلى القول إنه يمكن استخدام مقاطع فيديو deepfake للاستغلال الاجتماعي وحرب المعلومات.
لصنع فيديوهات deepfake ، استخدم Grobman و Fralick أداة قام مستخدم Reddit بتطويرها تسمى FakeApp ، والتي تستخدم خوارزميات ML والصور لتبادل الوجوه على مقاطع الفيديو. أثناء عرض RSA الخاص بهم ، أوضح Grobman الخطوات التالية. "لقد قسمنا مقاطع الفيديو إلى صور ثابتة ، وقمنا باستخراج الوجوه ، وقمنا بتنظيفها عن طريق فرزها وتنظيفها في Instagram."
سمحت نصوص بايثون لفريق McAfee ببناء حركات الفم لجعل خطاب Fralick يتطابق مع فم Grobman. ثم احتاجوا لكتابة بعض البرامج النصية المخصصة. وقال غروبمان إن التحدي الذي يواجه خلق رهان عميق مقنع هو عندما لا تتطابق خصائص مثل الجنس والعمر ولون البشرة.
ثم استخدم هو و Fralick خوارزمية AI النهائية لمطابقة صور Grobman التي تدلي بشهادتها أمام مجلس الشيوخ بخطاب Fralick. وأضاف جروبمان أن الأمر استغرق 12 ساعة لتدريب هذه الخوارزميات ML.
حددت McAfee الخطوات التي اتخذتها لإنشاء فيديو deepfake تم عرضه في مؤتمر RSA لعام 2019. واستخدمت برنامج deepfake يسمى FakeApp وتدريب نماذج ML لتغيير الفيديو من Grobman مع خطاب من Fralick. (صورة الائتمان: مكافي).
عواقب deepfakes
من المحتمل أن تتسبب مقاطع الفيديو التي تم إنشاؤها من قبل الهاكر في إحداث الكثير من المشاكل - كل شيء بدءًا من نشر المسؤولين الحكوميين معلومات مضللة كاذبة إلى المشاهير الذين يشعرون بالحرج من أن يكونوا في فيديوهات لم يكونوا موجودين بها حقًا للشركات التي تلحق الضرر بمراكز المنافسين في سوق الأسهم. وإدراكاً من هذه المشاكل ، أرسل المشرعون في سبتمبر رسالة إلى دانييل كوتس ، مدير الاستخبارات الوطنية الأمريكية ، لطلب مراجعة التهديد الذي تشكله أعماق البحار. حذرت الرسالة من أن دولًا مثل روسيا يمكن أن تستخدم أعجوبة على وسائل التواصل الاجتماعي لنشر معلومات كاذبة. في ديسمبر / كانون الأول ، قدم المشرعون قانون حظر التعمية الخبيثة لعام 2018 لحظر الاحتيال فيما يتعلق بـ "السجلات السمعية البصرية" ، التي تشير إلى الأعماق. يبقى أن نرى ما إذا كان مشروع القانون سوف يمر.
كما ذكرنا سابقًا ، يمكن أن يعاني المشاهير من الحرج من مقاطع الفيديو التي تم فيها تثبيت وجوههم على وجوه النجوم الإباحية ، كما كان الحال مع Gal Gadot. أو تخيل أنه من المفترض أن يعلن الرئيس التنفيذي لأخبار المنتجات ويغرق مخزون الشركة. يمكن لمتخصصي الأمن استخدام ML للكشف عن هذه الأنواع من الهجمات ، ولكن إذا لم يتم اكتشافها في الوقت المناسب ، فيمكنهم إحداث أضرار غير ضرورية لبلد أو علامة تجارية.
وقال الدكتور تشيس كننغهام ، المحلل الرئيسي في فورستر ريسيرش: "في أعماق الأعمال ، إذا كنت تعرف ما تفعله وتعرف من الذي ستستهدفه ، فيمكنك فعلاً إنتاج فيديو مقنع لإحداث الكثير من الضرر للعلامة التجارية".. وأضاف أنه إذا قمت بتوزيع هذه الرسائل على LinkedIn أو Twitter أو استخدمت نموذج الروبوت ، "يمكنك سحق مخزون شركة بناءً على إجمالي مقاطع الفيديو المزيفة دون بذل الكثير من الجهد."
من خلال مقاطع فيديو deepfake ، يمكن خداع المستهلكين للاعتقاد بأن المنتج يمكنه فعل شيء لا يستطيع فعله. أشار كننغهام إلى أنه إذا قال مدير تنفيذي رئيسي لشركة تصنيع السيارات في مقطع فيديو زائف أن الشركة لن تقوم بعد الآن بتصنيع السيارات التي تعمل بالغاز ثم تقوم بنشر هذه الرسالة على Twitter أو LinkedIn في ذلك الفيديو ، فإن هذا الإجراء يمكن أن يتلف علامة تجارية بسهولة.
وقال كننغهام: "من المثير للاهتمام من بحثي ، أن الأشخاص يتخذون قرارات بناءً على العناوين ومقاطع الفيديو في 37 ثانية ، لذا يمكنك أن تتخيل ما إذا كان يمكنك الحصول على مقطع فيديو يمتد لفترة أطول من 37 ثانية ، يمكنك جعل الناس يتخذون قرارًا بناءً على سواء كانت واقعية أم لا. وهذا مرعب ".
نظرًا لأن وسائل التواصل الاجتماعي هي مكان ضعيف يمكن أن تنتشر فيه مقاطع الفيديو الخاصة بـ deepfake ، فإن مواقع وسائل الإعلام الاجتماعية تعمل بنشاط على مكافحة تهديدات ملفات الفيديو. على سبيل المثال ، ينشر Facebook فرقًا هندسية يمكنها اكتشاف الصور والصوت والفيديو المتلاعبين بها. بالإضافة إلى استخدام البرنامج ، يقوم Facebook (وشركات التواصل الاجتماعي الأخرى) بتوظيف أشخاص للبحث يدويًا عن الأعماق.
وقال ممثل فيسبوك في بيان "لقد وسعنا من جهودنا المستمرة لمكافحة وسائل الإعلام التي تم التلاعب بها لتشمل معالجة الأخطاء". "نحن نعلم أن استمرار ظهور جميع أشكال الوسائط المعالجة يمثل تحديات حقيقية للمجتمع. لهذا السبب نستثمر في حلول تقنية جديدة ، ونتعلم من البحوث الأكاديمية ، ونعمل مع الآخرين في الصناعة لفهم الأعماق والأشكال الأخرى من الوسائط المعالجة ".
ليس كل Deepfakes سيئة
كما رأينا في فيديو deepfake التعليمي بواسطة McAfee ومقاطع الفيديو deepfake الكوميدية على التلفزيون في وقت متأخر من الليل ، فإن بعض مقاطع فيديو deepfake ليست سيئة بالضرورة. في الواقع ، في حين أن السياسة يمكن أن تكشف الأخطار الحقيقية لمقاطع الفيديو الخاصة بـ deepfake ، إلا أن صناعة الترفيه غالباً ما تظهر الجانب الأفتح لمقاطع الفيديو الخاصة بـ deepfake.
على سبيل المثال ، في حلقة أخيرة من برنامج The Late Show With Stephen Colbert ، تم عرض مقطع فيديو مضحك من لعبة Deepfake حيث تم وضع وجه الممثل Steve Buscemi على جسم الممثلة جنيفر لورانس. في حالة أخرى ، قام الكوميدي جوردان بيلر باستبدال شريط فيديو للرئيس السابق باراك أوباما يتحدث بصوته. كما ظهرت مقاطع فيديو مثيرة للضحك مثل هذه على الإنترنت ، حيث يتم تثبيت وجه الرئيس ترامب على وجه المستشارة الألمانية أنجيلا ميركل بينما يتحدث الشخص.
مرة أخرى ، إذا تم استخدام مقاطع فيديو deepfake لغرض هجائي أو فكاهي أو لمجرد التسلية ، فإن منصات الوسائط الاجتماعية وحتى دور إنتاج الأفلام تسمح بذلك أو تستخدمها. على سبيل المثال ، يتيح Facebook هذا النوع من المحتوى على نظامه الأساسي ، وقد استخدم Lucasfilm نوعًا من الاستجمام الرقمي لعرض فيلم شاب كاري على جسم الممثلة Ingvild Deila في فيلم "Rogue One: A Star Wars Story".
أشار Grobman من McAfee إلى أن بعض التقنيات التي تكمن وراء deepfakes تستخدم بشكل جيد مع مضاعفات حادة في صناعة الأفلام للحفاظ على سلامة الممثلين. وقال غروبمان "السياق هو كل شيء. إذا كان لأغراض كوميدية ومن الواضح أنه ليس حقيقيا ، فهذا شيء يعد استخدامًا شرعيًا للتكنولوجيا". "إن إدراك إمكانية استخدامه لجميع أنواع الأغراض المختلفة أمر أساسي."
كيفية اكتشاف Deepfake الفيديو
McAfee ليس هو شركة الأمان الوحيدة التي تجرّب كيفية اكتشاف مقاطع الفيديو المزيفة. في مقالته التي ألقيت في Black Hat 2018 بعنوان "AI Gone Rogue: إبادة التزويرات العميقة قبل أن تتسبب في حدوث تهديد" ، كتب خبيران الأمن في سيمانتيك ، فيجاي ثاورو ، مهندسي تطوير الاستجابة البرمجية ومهندس تطوير البرمجيات Niranjan Agnihotri ، أنهما خلقتا أداة لتحديد مقاطع فيديو مزيفة تستند إلى Google FaceNet. Google FaceNet عبارة عن بنية شبكة عصبية طورها باحثو Google للمساعدة في التحقق من الوجه والتعرف عليه. يقوم المستخدمون بتدريب نموذج FaceNet على صورة معينة ، ثم يمكنهم التحقق من هويتهم أثناء الاختبارات بعد ذلك.
لمحاولة إيقاف انتشار مقاطع فيديو deepfake ، تقدم منظمة AI Foundation ، وهي منظمة غير ربحية تركز على التفاعل الإنساني والتفاعل الذكي ، برنامجًا يسمى "Reality Defender" لاكتشاف المحتوى المزيف. يمكنه مسح الصور ومقاطع الفيديو لمعرفة ما إذا كان قد تم تغييرها باستخدام الذكاء الاصطناعي. إذا كان لديهم ، فسيحصلون على "علامة مائية صادقة لمنظمة العفو الدولية".
- دليل الأعمال إلى تعلم الآلة دليل الأعمال إلى تعلم الآلة
- PornHub، Twitter Ban 'Deepfake' AI-Modified Porn PornHub، Twitter Ban 'Deepfake' AI-Modified Porn
- أحدث تقنية Deepfake سوف تجعلك ترقص مثل برونو المريخ
تتمثل الإستراتيجية الأخرى في وضع مفهوم Zero Trust في الاعتبار ، وهو ما يعني "عدم الثقة مطلقًا ، والتحقق دائمًا" ، وهو شعار للأمن السيبراني يعني أن محترفي تكنولوجيا المعلومات يجب أن يؤكدوا أن جميع المستخدمين شرعيون قبل منح امتيازات الوصول. سيكون من الضروري أن تظل متشككا في صحة محتوى الفيديو. ستحتاج أيضًا إلى برنامج مزود بقدرات التحليل الرقمي لتحديد محتوى مزيف.
البحث عن Deepfakes
للمضي قدماً ، سنحتاج إلى أن نكون أكثر حذراً في محتوى الفيديو وأن نضع في اعتبارنا المخاطر التي يمكن أن يقدموها إلى المجتمع إذا أسيء استخدامها. كما لاحظ جروبمان ، "في المدى القريب ، يحتاج الناس إلى أن يكونوا أكثر تشككا فيما يرونه ويعرفون أنه يمكن تصنيع الفيديو والصوت".
لذا ، راقبوا الشكوك حول مقاطع الفيديو السياسية التي تشاهدها ونحن نتجه إلى موسم الانتخابات المقبل ، ولا تثق في جميع مقاطع الفيديو التي تعرض قادة الشركات. لأن ما تسمعه قد لا يكون ما قيل حقًا ، وأشرطة الفيديو المضللة المقلدة لها القدرة على إلحاق ضرر كبير بمجتمعنا.