بيت الآراء أي شيء يمكن أن يحمينا من deepfakes؟ | بن ديكسون

أي شيء يمكن أن يحمينا من deepfakes؟ | بن ديكسون

جدول المحتويات:

فيديو: ‫شکیلا اهنگ زیبای فارسی = تاجیکی = دری = پارسی‬‎ (سبتمبر 2024)

فيديو: ‫شکیلا اهنگ زیبای فارسی = تاجیکی = دری = پارسی‬‎ (سبتمبر 2024)
Anonim

في أواخر عام 2017 ، أبلغت Motherboard عن تقنية AI يمكنها تبديل الوجوه في مقاطع الفيديو. في ذلك الوقت ، أنتجت التقنية - التي سميت فيما بعد deepfakes - نتائج غير محببة وكانت تستخدم في الغالب لإنشاء مقاطع فيديو إباحية مزيفة تضم مشاهير وسياسيين.

بعد عامين ، تطورت التكنولوجيا بشكل كبير وأصعب اكتشافها بالعين المجردة. إلى جانب الأخبار المزيفة ، أصبحت مقاطع الفيديو المزورة مصدر قلق للأمن القومي ، خاصة مع اقتراب موعد الانتخابات الرئاسية لعام 2020.

منذ ظهور الأعماق ، طورت العديد من المنظمات والشركات تقنيات لاكتشاف مقاطع الفيديو التي يتم العبث بها باستخدام الذكاء الاصطناعي. ولكن هناك خوف من أنه في يوم من الأيام ، سيكون من المستحيل اكتشاف تقنية الأعماق.

طور الباحثون في جامعة سوري حلاً قد يحل المشكلة: بدلاً من اكتشاف ما هو خطأ ، فإنه سيثبت ما هو صحيح. من المقرر تقديمه في المؤتمر القادم حول رؤية الكمبيوتر والتعرف على الأنماط (CVPR) ، وتستخدم التكنولوجيا ، التي تسمى Archangel ، AI و blockchain لإنشاء وتسجيل بصمة رقمية مقاومة للعبث لمقاطع الفيديو الأصلية. يمكن استخدام بصمة الإصبع كنقطة مرجعية للتحقق من صحة الوسائط التي يتم توزيعها عبر الإنترنت أو بثها على التلفزيون.

باستخدام الذكاء الاصطناعى لتوقيع الفيديو

الطريقة الكلاسيكية لإثبات صحة المستند الثنائي هي استخدام توقيع رقمي. يقوم الناشرون بتشغيل وثيقتهم من خلال خوارزمية تشفير مثل SHA256 أو MD5 أو Blowfish ، والتي تنتج "تجزئة" ، سلسلة قصيرة من البايتات تمثل محتوى هذا الملف وتصبح توقيعه الرقمي. يؤدي تشغيل نفس الملف من خلال خوارزمية التجزئة في أي وقت إلى إنتاج نفس التجزئة إذا لم تتغير محتوياته.

تعد تجزئة البيانات مفرطة الحساسية للتغيرات في البنية الثنائية للملف المصدر. عند تعديل بايت واحد في ملف التجزئة وتشغيله من خلال الخوارزمية مرة أخرى ، فإنه ينتج نتيجة مختلفة تمامًا.

لكن على الرغم من أن التجزئات تعمل جيدًا للملفات والتطبيقات النصية ، فإنها تمثل تحديات لمقاطع الفيديو ، والتي يمكن تخزينها بتنسيقات مختلفة ، وفقًا لجون كولوموس ، أستاذ رؤية الكمبيوتر بجامعة سوري ومدير مشروع Archangel.

يقول Collomosse: "أردنا أن يكون التوقيع هو نفسه بغض النظر عن برنامج الترميز الذي يتم ضغط الفيديو به". "إذا أخذت الفيديو الخاص بي وقمت بتحويله ، على سبيل المثال ، من MPEG-2 إلى MPEG-4 ، فسيكون هذا الملف بطول مختلف تمامًا ، وسوف تتغير البتات تمامًا ، مما ينتج عنه تجزئة مختلفة. ما نحتاجه كان خوارزمية التجزئة علم المحتوى ".

لحل هذه المشكلة ، طور Collomosse وزملاؤه شبكة عصبية عميقة حساسة للمحتوى الموجود في الفيديو. الشبكات العصبية العميقة هي نوع من بناء الذكاء الاصطناعي الذي يطور سلوكه من خلال تحليل كميات هائلة من الأمثلة. ومن المثير للاهتمام ، أن الشبكات العصبية هي أيضًا التكنولوجيا التي تقع في قلب الأعماق.

عند إنشاء أعماق ، يقوم المطور بتغذية الشبكة بصور لوجه الموضوع. تتعرف الشبكة العصبية على ميزات الوجه ، وبتدريب كافٍ ، تصبح قادرة على العثور على الوجوه ومبادلتها في مقاطع الفيديو الأخرى مع وجه الموضوع.

يتم تدريب شبكة Archangel العصبية على الفيديو الذي يتم التعرف عليه باستخدام البصمات. يقول كولوموس: "تبحث الشبكة في محتوى الفيديو بدلاً من البتات والبايتات الأساسية".

بعد التدريب ، عند تشغيل مقطع فيديو جديد عبر الشبكة ، سيتم التحقق من صحته عندما يحتوي على نفس محتوى الفيديو المصدر بصرف النظر عن تنسيقه وسيرفضه عندما يكون فيديو مختلفًا أو تم العبث به أو تحريره.

وفقًا لـ Collomosse ، يمكن للتكنولوجيا اكتشاف التلاعب المكاني والزماني. العبث المكاني عبارة عن تغييرات تم إجراؤها على إطارات فردية ، مثل التعديلات التي تتم في الوجه في عمليات التبادل.

ولكن deepfakes ليست هي الطريقة الوحيدة التي يمكن العبث بها أشرطة الفيديو. أقل مناقشة ولكن بنفس القدر من الخطورة هي التغييرات المتعمدة التي تم إجراؤها على تسلسل الإطارات وعلى سرعة ومدة الفيديو. لم يتم استخدام مقطع فيديو حديث تم نشره على نطاق واسع لعبثته نانسي بيلوسي رئيسة مجلس النواب في أعماق السيارات ، لكن تم إنشاؤه من خلال الاستخدام الدقيق لتقنيات التحرير البسيطة التي جعلتها تبدو مشوشة.

"أحد أشكال العبث التي يمكننا اكتشافها هو إزالة مقاطع قصيرة من الفيديو. هذه عبثات مؤقتة. ويمكننا اكتشاف ما يصل إلى ثلاث ثوان من العبث. لذلك ، إذا كان مقطع الفيديو طويلاً لعدة ساعات وقمت فقط بإزالة ثلاث يقول Collomosse ، بعد ثوانٍ من ذلك الفيديو ، يمكننا اكتشاف ذلك ، مضيفًا أن Archangel سيكتشف أيضًا التغييرات التي تم إجراؤها على سرعة الفيديو الأصلي ، كما حدث في مقطع الفيديو Pelosi.

تسجيل البصمة على Blockchain

المكون الثاني من مشروع Archangel هو blockchain ، وهي قاعدة بيانات واقية من العبث حيث يمكن تخزين المعلومات الجديدة دون تغييرها - مثالية لأرشيفات الفيديو ، التي لا تجري تغييرات على مقاطع الفيديو بمجرد تسجيلها.

تعتمد تقنية Blockchain على العملات الرقمية مثل Bitcoin و Ether. إنه دفتر الأستاذ الرقمي الذي تحتفظ به العديد من الأحزاب المستقلة. يجب أن توافق غالبية الأطراف على التغييرات التي تم إجراؤها على blockchain ، مما يجعل من المستحيل على أي طرف واحد التدخل من جانب واحد مع دفتر الأستاذ.

من الممكن تقنيًا مهاجمة وتغيير محتوى blockchain إذا تواطأ أكثر من 50 بالمائة من المشاركين. لكن في الممارسة العملية ، يكون الأمر بالغ الصعوبة ، خاصةً عندما يتم الحفاظ على سلسلة المفاتيح من قبل العديد من الأحزاب المستقلة ذات الأهداف والاهتمامات المختلفة.

يختلف blockchain من Archangel قليلاً عن blockchain العام. أولاً ، لا يُنتج عملة مشفرة ولا يخزن سوى المعرّف وبصمة الإلمام بالمحتوى والتجزئة الثنائية للشبكة العصبية الخاصة بالتحقق لكل فيديو في الأرشيف (لا تعد سلاسل المجموعات مناسبة لتخزين كميات كبيرة من البيانات ، ولهذا السبب يتم تخزين الفيديو نفسه والشبكة العصبية خارج السلسلة).

أيضًا ، إنه blockchain مصرح به أو "خاص". هذا يعني أنه على عكس Bitcoin blockchain ، حيث يمكن للجميع تسجيل معاملات جديدة ، يمكن للأطراف المصرح لها فقط تخزين سجلات جديدة على blockchain Archangel.

تجري حاليًا تجربة Archangel بواسطة شبكة من أرشيفات الحكومة الوطنية من المملكة المتحدة وإستونيا والنرويج وأستراليا والولايات المتحدة الأمريكية: لتخزين المعلومات الجديدة ، يتعين على كل دولة معنية الإضافة. ولكن في حين أن الأرشيف الوطني للدول المشاركة فقط له الحق في إضافة سجلات ، فإن كل شخص آخر لديه حق الوصول للقراءة إلى blockchain ويمكن استخدامه للتحقق من صحة مقاطع الفيديو الأخرى مقابل الأرشيف.

  • استغلال الذكاء الاصطناعي والتعلم الآلي ، Deepfakes ، الذي يصعب اكتشافه الآن
  • أشرطة الفيديو Deepfake هنا ، ونحن لسنا جاهزين Deepfake أشرطة الفيديو هنا ، ونحن لسنا على استعداد
  • الذكاء الاصطناعي الجديد من Adobe يكتشف الوجوه المصوّرة من صور

"هذا هو تطبيق blockchain للصالح العام" ، يقول Collomosse. "في رأيي ، الاستخدام المعقول الوحيد لكتلة المفاتيح هو عندما يكون لديك منظمات مستقلة لا تثق في بعضها البعض بالضرورة ولكن لديها مصلحة قائمة في هذا الهدف الجماعي المتمثل في الثقة المتبادلة. وما نتطلع إلى فعله هو تأمين المحفوظات الوطنية للحكومة في جميع أنحاء العالم ، حتى نتمكن من ضمان نزاهتها باستخدام هذه التكنولوجيا."

نظرًا لأن إنشاء مقاطع فيديو مزيفة أصبح أسهل وأسرع وأكثر سهولة ، فسيحتاج الجميع إلى كل المساعدة التي يمكنهم الحصول عليها لضمان سلامة أرشيفات الفيديو الخاصة بهم - وخاصة الحكومات.

يقول كولوموسي: "أعتقد أن المصادمات العميقة تشبه سباق التسلح". "نظرًا لأن الناس ينتجون أعماقًا متزايدة الإقناع ، وقد يصبح من المستحيل في يوم من الأيام اكتشافها. ولهذا السبب فإن أفضل ما يمكنك فعله هو محاولة إثبات مصدر الفيديو."

أي شيء يمكن أن يحمينا من deepfakes؟ | بن ديكسون