بيت الآراء كيف أثارت تحذيرات الأخبار المزيفة من openai أخبارًا مزيفة فعلية

كيف أثارت تحذيرات الأخبار المزيفة من openai أخبارًا مزيفة فعلية

جدول المحتويات:

فيديو: Ilya Sutskever: OpenAI Meta-Learning and Self-Play | MIT Artificial General Intelligence (AGI) (سبتمبر 2024)

فيديو: Ilya Sutskever: OpenAI Meta-Learning and Self-Play | MIT Artificial General Intelligence (AGI) (سبتمبر 2024)
Anonim

تسبب مختبر أبحاث AI غير الربحية OpenAI في موجة من الذعر نهاية العالم AI الشهر الماضي عندما قدم AI للدولة من أحدث النص توليد نص يسمى GPT-2. ولكن بينما احتفلت بإنجازات GPT-2 ، أعلنت OpenAI أنها لن تطلق نموذج الذكاء الاصطناعي على الجمهور ، خوفًا من أنه في الأيدي الخطأ ، يمكن استخدام GPT-2 لأغراض ضارة مثل توليد مقالات إخبارية مضللة ، وانتحال الآخرين على الإنترنت ، وأتمتة إنتاج المحتوى وهمية على وسائل الاعلام الاجتماعية.

كما هو متوقع ، فإن إعلان OpenAI قد خلق طوفانًا من الأخبار الإخبارية المثيرة ، ولكن بينما يمكن تسليح أي تكنولوجيا متقدمة ، لا يزال أمام الذكاء الاصطناعي شوط طويل قبل أن يتقن توليد النصوص. وحتى مع ذلك ، فإن الأمر يتطلب أكثر من مجرد إنشاء منظمة العفو الدولية لإنشاء أزمة أخبار مزيفة. في ضوء ذلك ، كانت تحذيرات OpenAI مبالغ فيها.

منظمة العفو الدولية واللغة الإنسانية

لقد واجهت أجهزة الكمبيوتر تاريخيا صعوبة في التعامل مع اللغة البشرية. هناك الكثير من التعقيدات والفروق الدقيقة في النص المكتوب بحيث يكون تحويلها جميعًا إلى قواعد البرامج الكلاسيكية أمرًا مستحيلًا تقريبًا. لكن التطورات الحديثة في التعلم العميق والشبكات العصبية مهدت الطريق لنهج مختلف لإنشاء برامج يمكنها التعامل مع المهام المتعلقة باللغة.

حقق التعلم العميق تحسينات كبيرة في مجالات مثل الترجمة الآلية وتلخيص النص والإجابة على الأسئلة وتوليد اللغة الطبيعية. وهو يتيح لمهندسي البرمجيات إنشاء خوارزميات تعمل على تطوير سلوكهم من خلال تحليل العديد من الأمثلة. بالنسبة للمهام المتعلقة باللغة ، يقوم المهندسون بإطعام الشبكات العصبية المحتوى الرقمي مثل القصص الإخبارية وصفحات ويكيبيديا ومنشورات الوسائط الاجتماعية. تقارن الشبكات العصبية البيانات بعناية وتدون كيف تتبع بعض الكلمات الآخرين في تسلسل متكرر. ثم يقومون بتحويل هذه الأنماط إلى معادلات رياضية معقدة تساعدهم على حل المهام المتعلقة باللغة مثل توقع الكلمات المفقودة في تسلسل نصي. بشكل عام ، كلما زادت بيانات التدريب التي توفرها لنموذج التعلم العميق ، كلما أصبحت أفضل في أداء مهمتها.

وفقًا لـ OpenAI ، تم تدريب GPT-2 على 8 ملايين صفحة ويب ومليارات من الكلمات ، وهو أكثر بكثير من النماذج المماثلة الأخرى. ويستخدم أيضًا نماذج AI المتقدمة لتطبيق أنماط النص بشكل أفضل. يوضح نموذج الإخراج من GPT-2 أن النموذج قادر على الحفاظ على التماسك في تسلسل أطول من النص من سابقاته.

ولكن على الرغم من أن GPT-2 هي خطوة للأمام في مجال توليد اللغات الطبيعية ، فإنها ليست إنجازًا تكنولوجيًا نحو إنشاء الذكاء الاصطناعي الذي يمكن أن يفهم معنى النص المكتوب وسياقه. لا تزال GPT-2 تستخدم خوارزميات لإنشاء تسلسل من الكلمات المتشابهة إحصائياً لمليارات النصوص المستخلصة من النص التي شاهدتها سابقًا - ليس لديها أي فهم على الإطلاق لما تقوم بإنشائه.

في تحليل متعمق ، يشير Tiernan Ray من ZDNet إلى عدة حالات حيث تخون عينات مخرجات GPT-2 طبيعتها المصطنعة بمصنوعات معروفة مثل ازدواجية المصطلحات وانعدام المنطق والاتساق في الحقائق. "عندما تنتقل GPT-2 لمعالجة الكتابة التي تتطلب مزيدًا من التطوير للأفكار والمنطق ، تنفتح الشقوق على مصراعيها إلى حد ما" ، يلاحظ راي.

يمكن أن يساعد التعلم الإحصائي أجهزة الكمبيوتر في إنشاء نص صحيح نحويًا ، ولكن يلزم فهمًا مفاهيميًا أعمق للحفاظ على الاتساق المنطقي والواقعي. لسوء الحظ ، لا يزال هذا يمثل تحديًا لم يتم التغلب عليه بعد لهذا السبب يمكن لـ GPT-2 إنشاء فقرات لطيفة من النص ، لكن من المحتمل أن يتم الضغط عليها لإنشاء مقال طويل أصيل أو انتحال شخصية شخص بطريقة مقنعة وعلى مدى فترة زمنية طويلة.

لماذا منظمة العفو الدولية أخبار وهمية الذعر مبالغ فيها

مشكلة أخرى في منطق OpenAI: إنها تفترض أن الذكاء الاصطناعي يمكن أن يخلق أزمة أخبار مزيفة.

في عام 2016 ، نشرت مجموعة من المراهقين المقدونيين أخبارًا وهمية حول الانتخابات الرئاسية الأمريكية لملايين الأشخاص. ومن المفارقات ، لم يكن لديهم حتى مهارات اللغة الإنجليزية المناسبة. كانوا يبحثون عن قصصهم على شبكة الإنترنت ويخيطون محتوى مختلفًا معًا. لقد نجحوا لأنهم أنشأوا مواقع ويب تبدو أصلية بما يكفي لإقناع الزوار بالثقة بهم كمصادر أخبار موثوقة. أما العناوين الرئيسية المثيرة ، ومستخدمي الوسائط الاجتماعية المهملين ، والخوارزميات الشائعة ، فقد فعلوا الباقي.

ثم في عام 2017 ، أثارت الجهات الفاعلة الخبيثة أزمة دبلوماسية في منطقة الخليج الفارسي من خلال اختراق المواقع الإخبارية القطرية التي تديرها الدولة وحسابات وسائل الإعلام الاجتماعية الحكومية ونشر تصريحات وهمية نيابة عن الشيخ تميم بن حمد آل ثاني ، أمير قطر.

كما تظهر هذه القصص ، فإن نجاح حملات الأخبار المزيفة يعتمد على تأسيس (وخيانة) الثقة ، وليس على توليد كميات كبيرة من النص الإنجليزي المتماسك.

إن تحذيرات OpenAI حول أتمتة إنتاج محتوى مزيف لنشره على وسائل التواصل الاجتماعي أكثر مبررة ، لأن الحجم والحجم يلعبان دورًا أكثر أهمية في الشبكات الاجتماعية من دورها في وسائل الإعلام التقليدية. الافتراض هو أن الذكاء الاصطناعي مثل GPT-2 سيكون قادرًا على إغراق الوسائط الاجتماعية بملايين المنشورات الفريدة حول موضوع معين ، مما يؤثر على خوارزميات الاتجاه والمناقشات العامة.

ولكن لا يزال ، تحذيرات من الواقع. في السنوات القليلة الماضية ، كانت شركات التواصل الاجتماعي تعمل باستمرار على تطوير القدرات لاكتشاف ومنع السلوك الآلي. لذلك يجب على الممثل الخبيث المسلح باستخدام الذكاء الاصطناعي الذي ينتج النص أن يتغلب على عدد من التحديات التي تتجاوز إنشاء محتوى فريد.

على سبيل المثال ، سيحتاجون إلى الآلاف من حسابات التواصل الاجتماعي المزيفة التي ينشرون فيها المحتوى الذي أنشأته منظمة العفو الدولية. حتى أكثر صرامة ، للتأكد من عدم وجود طريقة لتوصيل الحسابات المزيفة ، فإنها تحتاج إلى جهاز فريد وعنوان IP لكل حساب.

تزداد الأمور سوءًا: يجب إنشاء الحسابات في أوقات مختلفة ، ربما أكثر من عام أو أكثر ، لتقليل أوجه التشابه. في العام الماضي ، أظهر تحقيق أجرته صحيفة نيويورك تايمز أن تواريخ إنشاء الحساب وحدها يمكن أن تساعد في اكتشاف حسابات الروبوت. ثم لإخفاء طبيعتها التلقائية عن المستخدمين الآخرين وخوارزميات الشرطة ، سيتعين على الحسابات الانخراط في سلوك يشبه الإنسان ، مثل التفاعل مع مستخدمين آخرين وتحديد نغمة فريدة في منشوراتهم.

لا يمكن التغلب على أي من هذه التحديات ، ولكنها تُظهر أن المحتوى ليس سوى جزء واحد من الجهد المطلوب لإجراء حملة إخبارية مزيفة على مواقع التواصل الاجتماعي. ومرة أخرى ، تلعب الثقة دورًا مهمًا. سيكون لبعض المؤثرين في وسائل التواصل الاجتماعي الموثوق بهم الذين يقدمون منشورات إخبارية مزيفة قليلة تأثير أكبر من مجموعة من الحسابات غير المعروفة التي تولد كميات كبيرة من المحتوى.

في الدفاع عن تحذيرات OpenAI

أثارت تحذيرات OpenAI مبالغ فيها حلقة من الضجيج والإعجاب في وسائل الإعلام ، والتي من المفارقات ، تحدها أخبار مزيفة ، مما أثار انتقادات من خبراء مشهورين في منظمة العفو الدولية.

دعوا الناس وسائل الإعلام للوصول في وقت مبكر إلى النتائج ، مع فرض حظر على الصحافة لذلك كل شيء علني في نفس اليوم. لم يتمكن أي باحث أعرفه من رؤية النموذج الكبير ، لكن الصحفيين فعلوا ذلك. نعم ، لقد فجروه عن قصد.

- مات غاردنر (nlpmattg) 19 فبراير 2019

يمكن استخدام كل إنسان جديد لإنشاء أخبار مزيفة ونشر نظريات المؤامرة والتأثير على الناس.

يجب أن نتوقف عن صنع الأطفال بعد ذلك؟

- يان لوكون (ylecun) 19 فبراير 2019

أردت فقط أن تعطيك كل رؤساء ، وجد مختبرنا طفرة مذهلة في فهم اللغة. لكننا نشعر بالقلق أيضًا من أنه قد يقع في الأيدي الخطأ. لذلك قررنا إلغاءها ونشر مواد * ACL العادية بدلاً من ذلك. احترام كبير للفريق لعملهم العظيم.

- (((؟ () (؟ () 'يوآف))))) (yoavgo) 15 فبراير 2019

أشار زكاري ليبتون ، باحث في منظمة العفو الدولية ورئيس تحرير "التقريب الصحيح" ، إلى تاريخ OpenAI "باستخدام مدونتها وتوجيه الانتباه إلى العمل المنجنيق غير الناضج في الرأي العام ، وكثيراً ما تلعب دورًا في جوانب السلامة البشرية في العمل الذي لا يوجد لديه بعد فكري الساقين على الوقوف ".

على الرغم من أن OpenAI تستحق كل الانتقادات والحرارة التي تلقتها في أعقاب تصريحاتها المضللة ، إلا أنه من الصواب أيضًا أن تكون قلقًا حقيقيًا بشأن الاستخدامات الضارة المحتملة لتكنولوجيتها ، حتى لو استخدمت الشركة طريقة غير مسؤولة لتثقيف الجمهور بها.

  • عام صناعة الذكاء الاصطناعى للحساب الأخلاقي عام صناعة الذكاء الاصطناعى للحساب الأخلاقي
  • ميزة غير عادلة: لا تتوقع أن تلعب منظمة العفو الدولية مثل الإنسان ميزة غير عادلة: لا تتوقع أن تلعب منظمة العفو الدولية مثل الإنسان
  • تتوقع منظمة العفو الدولية هذا التصيد عبر الإنترنت قبل حدوثه

في السنوات الماضية ، رأينا كيف أصبحت تقنيات الذكاء الاصطناعي علنية دون تفكير ويمكن التفكير في تسليحها من أجل نوايا خبيثة. ومن الأمثلة على ذلك FakeApp ، وهو تطبيق AI يمكنه مبادلة الوجوه في مقاطع الفيديو. بعد وقت قصير من إصدار FakeApp ، تم استخدامه لإنشاء مقاطع فيديو إباحية مزيفة تضم مشاهير وسياسيين ، مما تسبب في قلقهم بشأن تهديد عمليات التزوير التي تدعم الذكاء الاصطناعي.

يُظهر قرار OpenAI أننا بحاجة إلى التوقف والتفكير في التداعيات المحتملة للتكنولوجيا التي يتم إصدارها علنًا. ونحن بحاجة إلى إجراء مناقشات أكثر نشاطًا حول مخاطر تقنيات الذكاء الاصطناعي.

"إن إحدى المنظمات التي تتوقف مؤقتًا عن مشروع معين لن تغير أي شيء على المدى الطويل. لكن OpenAI يحظى كثيرًا من الاهتمام بأي شيء يفعلونه… وأعتقد أنه ينبغي الإشادة بهم لإلقاء الضوء على هذه القضية" ، ديفيد باو ، وقال الباحث في معهد ماساتشوستس للتكنولوجيا علوم الحاسوب والذكاء الاصطناعي (CSAIL) ، سليت.

كيف أثارت تحذيرات الأخبار المزيفة من openai أخبارًا مزيفة فعلية