بيت الآراء حادث سيارة أوبر ذاتية القيادة: هل خذلتنا منظمة العفو الدولية؟

حادث سيارة أوبر ذاتية القيادة: هل خذلتنا منظمة العفو الدولية؟

جدول المحتويات:

فيديو: بنتنا يا بنتنا (سبتمبر 2024)

فيديو: بنتنا يا بنتنا (سبتمبر 2024)
Anonim

في 12 مارس ، نشرت MIT Technology Review قصة بدأت مثل هذا: "إنه عام 2023 ، والسيارات ذاتية القيادة تتجول أخيرًا في شوارع مدينتنا. ولأول مرة ، قام أحدهم بضرب أحد المشاة وقتلهم ، تغطية إعلامية ضخمة. من المحتمل أن تكون هناك دعوى قضائية رفيعة المستوى ، لكن ما هي القوانين التي يجب تطبيقها؟"

كان كل شيء عن التنبؤ صحيحًا ، باستثناء التاريخ. بالضبط بعد أسبوع واحد من نشر المقال ، ضرب أوبر ذاتي القيادة وقتل أحد المشاة في تيمبي ، أريزونا ، بينما كان يعمل في وضع مستقل.

على الرغم من أن الحادث ما زال قيد التحقيق ، فإن الضجة التي تلت ذلك هي إشارة إلى مدى بعيدًا عن دمج الذكاء الاصطناعي بنجاح في مهامنا وقراراتنا الهامة.

في كثير من الحالات ، لا تكمن المشكلة في الذكاء الاصطناعي ولكن مع توقعاتنا وفهمنا لها. وفقًا لـ Wired ، فقد مات ما يقرب من 40،000 شخص في حوادث الطرق العام الماضي في الولايات المتحدة وحدها - منهم 6000 من المشاة. لكن قلة قليلة (إن وجدت) تصدرت عناوين الصحف كما فعل حادثة أوبر.

أحد الأسباب التي أدت إلى تعطل Uber لمثل هذه الضجة هو أن لدينا عمومًا توقعات كبيرة بتقنيات جديدة ، حتى عندما لا يزالون في مرحلة التطوير. في ظل وهم أن الرياضيات البحتة تدفع خوارزميات الذكاء الاصطناعي ، فإننا نميل إلى الثقة بقراراتهم ونشعر بالصدمة عندما يرتكبون أخطاء.

حتى سائقو السلامة خلف عجلة القيادة الذاتية يخذلون حذرهم. وأظهرت لقطات من حادث أوبر أن السائق يصرف انتباهه عن الأنظار قبل ثوانٍ من وقوع الحادث.

في عام 2016 ، توفي سائق طراز Tesla S الذي يعمل في وضع الطيار الآلي بعد اصطدام السيارة بشاحنة. وجد تحقيق أن السائق ربما كان يشاهد فيلم هاري بوتر وقت الاصطدام.

توقعات الكمال مرتفعة ، وخيبات الأمل قوية. سارع النقاد إلى طرح كامل مشروع سيارة أوبر ذاتية القيادة بعد الحادث. علقت الشركة مؤقتًا اختبارات السيارات ذاتية القيادة في أعقاب ذلك.

منظمة العفو الدولية ليس الإنسان

ومن بين الانتقادات التي أعقبت الحادث أن سائقًا بشريًا كان سيتجنب الحادث بسهولة.

وقال أحد الخبراء لشبكة سي إن إن: "لم تكن تقفز من الأدغال. لقد أحرزت تقدمًا واضحًا عبر مسارات متعددة من حركة المرور ، والتي كان من المفترض أن تكون في اختصاص النظام لالتقاطها".

انها محقة. من المحتمل أن يكون لها سائق بشري ذو خبرة قد رصدها. لكن خوارزميات الذكاء الاصطناعي ليست إنسانية.

تستخدم خوارزميات التعلم العميق الموجودة في السيارات ذاتية القيادة العديد من الأمثلة على "تعلم" قواعد مجالها. أثناء قضاء الوقت على الطريق ، يصنفون المعلومات التي يجمعونها ويتعلمون التعامل مع المواقف المختلفة. ولكن هذا لا يعني بالضرورة أنهم يستخدمون نفس عملية صنع القرار كدوافع بشرية. لهذا السبب قد يؤدون أداء أفضل من البشر في بعض المواقف ويفشلون في المواقف التي تبدو تافهة للبشر.

وخير مثال على ذلك هو خوارزمية تصنيف الصور ، التي تتعلم كيفية التعرف على الصور من خلال تحليل ملايين الصور المصنفة. على مر السنين ، أصبح تصنيف الصور فائق الكفاءة ويتفوق على البشر في العديد من الإعدادات. هذا لا يعني أن الخوارزميات تفهم سياق الصور بنفس الطريقة التي يفهمها البشر.

على سبيل المثال ، وجد بحث أجراه خبراء في Microsoft وجامعة ستانفورد أن خوارزمية تعلم عميقة مدربة بصور القطط البيضاء تؤمن بدرجة عالية من الاقتناع بأن صورة كلب أبيض تمثل قطة ، وهو خطأ يمكن للطفل البشري تجنبه بسهولة. وفي حالة سيئة السمعة ، صنفت خوارزمية تصنيف صور Google عن طريق الخطأ الأشخاص من لون البشرة الداكنة على أنهم غوريلا.

وتسمى هذه الحالات "الحافة" ، وهي المواقف التي لم يتم تدريب خوارزميات الذكاء الاصطناعي على معالجتها ، عادة بسبب نقص البيانات. لا يزال حادث أوبر قيد التحقيق ، لكن بعض خبراء الذكاء الاصطناعى يشيرون إلى أنه يمكن أن يكون حالة أخرى.

يواجه التعلم العميق العديد من التحديات التي يجب التغلب عليها قبل أن يتم تطبيقها في المواقف الحرجة. لكن إخفاقاتها لا ينبغي أن تردعنا. يجب علينا ضبط تصوراتنا وتوقعاتنا واحتضان حقيقة أن كل تقنية رائعة تفشل أثناء تطورها. منظمة العفو الدولية لا يختلف.

حادث سيارة أوبر ذاتية القيادة: هل خذلتنا منظمة العفو الدولية؟