بيت المميزات 10 فشل خوارزمية محرجة

10 فشل خوارزمية محرجة

جدول المحتويات:

فيديو: في مشهد طريف، مجموعةٌ من الأشبال يØاولون اللØاق بوالده (سبتمبر 2024)

فيديو: في مشهد طريف، مجموعةٌ من الأشبال يØاولون اللØاق بوالده (سبتمبر 2024)
Anonim

التكنولوجيا ليست مخصصة فقط للمهوسون ، إنها للجميع ، وهذا كثير من الناس. مع وجود عدد قليل من الشركات التي تتحكم في معظم الأجهزة والبرامج - من Apple و Amazon إلى Facebook و Microsoft و Google - يمكنها فقط فعل الكثير للسيطرة على محفظتك ومقلميك. ما هي شركة عملاقة فقيرة تفعل؟ اعتمد على الخوارزميات لاتخاذ بعض القرارات المهمة.

تُعرّف Oxford Living Dictionaries الخوارزمية بأنها "عملية أو مجموعة من القواعد التي يجب اتباعها في العمليات الحسابية أو غيرها من عمليات حل المشكلات ، خاصة بواسطة الكمبيوتر." مثال مثالي على Facebook News Feed. لا أحد يعرف كيف تعمل بعض مشاركاتك في الظهور في موجز أخبار بعض الأشخاص أو لا ، لكن فيسبوك. أو ماذا عن الأمازون التي تظهر لك الكتب ذات الصلة؟ عمليات البحث ذات الصلة على جوجل؟ كل هذه أسرار تخضع لحراسة مشددة تقوم بالكثير من العمل للشركة ويمكن أن يكون لها تأثير كبير على حياتك.

لكن الخوارزميات ليست مثالية. إنها تفشل وبعضها يفشل بشكل مذهل. أضف في مرأى ومسمع من وسائل التواصل الاجتماعي ، ويمكن أن تتحول خلل صغير إلى كابوس العلاقات العامة سريع حقيقي. نادرا ما تكون ضارة. هذه تميل إلى أن تكون ما تسميه صحيفة نيويورك تايمز "لحظات فرانكشتاين" ، حيث يتحول المخلوق الذي خلقه شخص ما إلى وحش. ولكن هذا يحدث ، وقمنا بتجميع بعض الأمثلة الحديثة الأكثر فظاعة أدناه. اسمحوا لنا أن نعرف المفضلة لديك في التعليقات أدناه.

    1 إعلانات إنستغرام المشكوك فيها

    كما ذكرت صحيفة الغارديان ، فإن Facebook يحب عرض إعلانات لخدمة Instagram الخاصة به مع مشاركات من مستخدميه. لكن الخوارزمية التقطت "الصورة" الخاطئة للدفع إلى أصدقاء أوليفيا سولون ، وهي مراسلة في The Guardian ، واخترت لقطة شاشة عمرها عامًا التقطتها من بريد إلكتروني تهديد.

    2 إعلانات عنصرية مستهدفة

    في الأسبوع الماضي ، ذكرت ProPublica أن Facebook سمحت للمعلنين باستهداف فئات مسيئة من الناس ، مثل "كارهي اليهود". دفع الموقع 30 دولارًا لإعلان (أعلاه) استهدف جمهورًا من شأنه أن يستجيب بشكل إيجابي لأشياء مثل "لماذا يفسد اليهود العالم" و "هتلر لم يرتكب أي خطأ". تمت الموافقة عليه في غضون 15 دقيقة.

    وجد Slate فئات مسيئة بالمثل ، وأصبح آخر في سلسلة طويلة من البنود التي لم يتعين على Facebook الاعتذار عنها فحسب ، بل وعد أيضًا بالتصحيح مع بعض الرقابة البشرية. كما تعلمون ، مثلما هي الحال عندما عرضت إعلانات انتخابية بقيمة 100،000 دولار لروسيا.

    في منشور على Facebook ، قالت COO شيريل ساندبرج إنها "تشعر بالاشمئزاز وخيبة الأمل لتلك الكلمات" وأعلنت عن تغييرات في أدواتها الإعلانية.

    فحص BuzzFeed لمعرفة كيفية تعامل Google مع أشياء مماثلة ، ووجد أنه كان من السهل أيضًا إعداد إعلانات مستهدفة ليراها العنصريون والمتطرفون. فحصتها صحيفة ديلي بيست على تويتر ووجدت ملايين الإعلانات التي تستخدم مصطلحات مثل "النازية" و "wetback" وكلمة N.

    3 فيسبوك سنة في مشاكل الاستعراض

    إذا كنت على Facebook ، فلا شك أنك شاهدت مقاطع الفيديو التي تم إنشاؤها من خوارزمية في نهاية العام والتي تم إبرازها خلال الأشهر الـ 12 الماضية. أو بالنسبة للبعض ، الأضواء المنخفضة. في عام 2014 ، رأى أحد الأب صورة لابنته الراحلة ، بينما رأى آخر لقطات من منزله مشتعلة. ومن الأمثلة الأخرى ، الأشخاص الذين يرون حيواناتهم الأليفة المتأخرة ، والجرار المليئة برماد الوالد ، والأصدقاء المتوفين. بحلول عام 2015 ، وعد Facebook بتصفية الذكريات الحزينة.

  • 4 تسلا الطيار الآلي تحطم

    إن معظم الخوارزميات الخوارزمية بعيدة عن أن تكون قاتلة ، لكن عالم السيارات ذاتية القيادة سيجلب مستوى جديد تمامًا من الخطر. لقد حدث بالفعل مرة واحدة على الأقل. استخدم مالك تسلا على طريق سريع في فلوريدا الوضع شبه المستقل (الطيار الآلي) وتحطمت في مقطورة جرار قطعته. أصدرت تسلا ترقيات بسرعة ، ولكن هل كان حقا خطأ وضع الطيار الآلي؟ تقول الإدارة الوطنية لسلامة المرور على الطرق السريعة ربما لا لأن النظام يتطلب من السائق أن يبقى متيقظًا للمشاكل ، كما ترون في الفيديو أعلاه. الآن ، يمنع تسلا Autopilot من الانخراط إذا لم يستجب السائق للإشارات المرئية أولاً.

  • 5 تاي العنصرية مايكروسوفت منظمة العفو الدولية

    قبل عامين ، كان من المفترض أن تأخذ روبوتات الدردشة العالم من خلال العاصفة ، لتحل محل ممثلي خدمة العملاء وتجعل العالم على الإنترنت مكانًا رائعًا للحصول على المعلومات. لقد استجابت Microsoft في مارس 2016 بطرد منظمة العفو الدولية التي تحمل اسم تاي ، والتي يمكن أن يتفاعل معها الأشخاص ، خصوصًا من 18 إلى 24 عامًا ، على Twitter. تاي بدوره من شأنه أن يجعل التغريدات العامة للجماهير. ولكن في أقل من 24 ساعة ، والتعلم من الجماهير البغيضة ، أصبح تاي عنصريًا كامل النضج. سحبت مايكروسوفت تاي لأسفل على الفور. عادت إلى منظمة العفو الدولية باسم Zo في ديسمبر 2016 ، مع وجود "ضوابط وتوازنات قوية لحمايتها من الاستغلال".

    6 مبروك على طفلك (غير موجود)!

    الكشف الكامل: أثناء كتابة هذا ، زوجتي حامل بالفعل. تلقينا كلاهما رسالة البريد الإلكتروني هذه من Amazon ، قائلين إن شخصًا ما قد اشترى شيئًا لنا من سجل الأطفال. لم نعلنها بعد ، لكنها لم تكن مروعة. وفي الوقت نفسه ، حصل عدة ملايين من عملاء أمازون الآخرين على الملاحظة نفسها ، بما في ذلك بعض العملاء دون تسجيل… أو طفل رضيع في الطريق. ربما كان جزءًا من مخطط التصيد ، لكنه لم يكن كذلك. اشتعلت أمازون الخطأ وأرسلت رسالة اعتذار للمتابعة. بحلول ذلك الوقت ، اشتكى الكثيرون من أن هذا غير مناسب أو غير حساس. كانت هذه خوارزمية أقل من خادم البريد الإلكتروني الخلاب ، ولكنها تظهر لك أنه من السهل الإساءة دائمًا.

    7 الأمازون "يوصي" المواد قنبلة

    قفز الجميع على هذا بعد أن أبلغت عنه القناة الرابعة البريطانية ، من فوكس نيوز إلى نيويورك تايمز . من المفترض أنها وجدت أن ميزة الأمازون "التي يتم شراؤها معًا بشكل متكرر" ستُظهر للناس ما يحتاجون إليه لإنشاء قنبلة ، إذا بدأوا باستخدام أحد المكونات ، والتي لم يذكرها الموقع (كانت نترات البوتاسيوم).

    ما فعلته خوارزمية أمازون بالفعل هو أن توضح للمشترين المكونات اللازمة لصنع مسحوق أسود بكميات صغيرة ، وهو أمر قانوني تمامًا في المملكة المتحدة ، ويستخدم لجميع أنواع الأشياء - مثل الألعاب النارية - كما تمت الإشارة إليه بسرعة في فكرة مدهشة بشكل لا يصدق. خارج بلوق وظيفة في الخمول الكلمات. بدلاً من ذلك ، فإن جميع التقارير تدور حول كيفية بحث أمازون في ذلك ، لأن هذا ما يجب أن يقولوه إنهم يفعلونه في عالم يخافه الإرهاب والمنطق.

    8 خرائط جوجل تحصل على العنصري

    في عام 2015 ، تعين على Google الاعتذار عندما تبحث Google Maps عن "n ***** king" و "n *** a house" ، تؤدي إلى البيت الأبيض ، الذي كان لا يزال يشغله باراك أوباما في ذلك الوقت. كان هذا نتيجة "Googlebomb" ، حيث يتم اختيار المصطلح المستخدم مرارًا وتكرارًا من قِبل محرك البحث ووضع علامة "شائع" بحيث تنتقل النتائج إلى قمة البحث. هذه هي الطريقة التي حصلت بها كلمة "Santorum" على تعريفها الجديد.

    9 جوجل العلامات البشر كما الغوريلا

    صور Google عبارة عن تطبيق / خدمة مدهشة تخزن جميع صورك وغير ذلك الكثير. أحد هذه الأشياء هو وضع علامة باسم الأشخاص والأشياء في الصور تلقائيًا. يستخدم التعرف على الوجه للأشخاص لتضييقهم وصولاً إلى الشخص الصحيح. لديّ مجلد لكلابي ولم أضع علامة على أي منهم. نظرًا لأنها تعمل ، فقد كان الأمر فظيعًا عندما اضطرت Google في عام 2015 إلى الاعتذار لمبرمج الكمبيوتر Jacky Alciné عندما تم تعريفه هو وصديقه - كلاهما أسود - بالخدمة على أنه غوريلا. "إننا نشعر بالفزع ونأسف حقًا لحدوث ذلك" ، قالت Google لـ PCMag.

    10 روبوت الأمن يضرب الطفل ، يقتل النفس

    تقوم نايت سكوب بصنع روبوتات أمنية مستقلة تسمى K5 للقيام بدوريات في المدارس ومراكز التسوق والأحياء. تميل مخروطات Dalek-esque التي يبلغ طولها 5 أقدام على عجلات - والتي حسب تقديرها - لا تزال في طور الاختبار التجريبي - لإصدار الأخبار ليس لإحباط الجريمة ولكن للأخطاء.

    على سبيل المثال ، في يوليو 2016 ، ركضت سيارة K5 في مركز ستانفورد للتسوق في بالو ألتو على قدم طفل يبلغ من العمر 16 شهرًا ، وكان على نايت سكوب الاعتذار رسميًا. كان لهذا الموقع نفسه - ربما نفس الروبوت - مشاجرة في موقف للسيارات مع مخمور ، ولكن على الأقل لم يكن ذلك خطأ K5. لا تزال هيئة المحلفين خارج وحدة K5 في جورج تاون ووترفرونت ، مجمع المكاتب / التسوق في واشنطن العاصمة… حيث زعم أن أحدهم تعثر في بعض السلالم في نافورة ماء بعد أسبوع واحد فقط من العمل. لا تبدو جيدة لجيش سكاينيت.

10 فشل خوارزمية محرجة