بيت الآراء صناعة منظمة العفو الدولية سنة من الحساب الأخلاقي

صناعة منظمة العفو الدولية سنة من الحساب الأخلاقي

جدول المحتويات:

فيديو: من زينو نهار اليوم ØµØ Ø¹ÙŠØ¯ÙƒÙ… انشر الفيديو Øتى يراه كل Ø§Ù„Ø (سبتمبر 2024)

فيديو: من زينو نهار اليوم ØµØ Ø¹ÙŠØ¯ÙƒÙ… انشر الفيديو Øتى يراه كل Ø§Ù„Ø (سبتمبر 2024)
Anonim

منذ أن فازت الشبكات العصبية العميقة بأهم مسابقة للتعرف على الصور في العالم في عام 2012 ، كان الجميع متحمسين لما يمكن أن يطلقه الذكاء الاصطناعي. ولكن في السباق لتطوير تقنيات وتطبيقات جديدة لمنظمة العفو الدولية ، أخذت التأثيرات السلبية المحتملة في التراجع.

نشهد الآن تحولًا نحو مزيد من الوعي بأخلاقيات الذكاء الاصطناعي. في عام 2018 ، أصبح مطورو الذكاء الاصطناعي أكثر وعياً بالتداعيات المحتملة لإبداعاتهم. أوضح العديد من المهندسين والباحثين والمطورين أنهم لن يقوموا ببناء التقنيات التي تضر أو ​​تلحق الضرر بأرواح الأبرياء ، وقد احتفظوا بشركاتهم.

التعرف على الوجه في تطبيق القانون

في الماضي ، كان إنشاء تطبيقات للتعرف على الوجه أمرًا شاقًا وكثيفًا بالموارد وعرضة للخطأ. ولكن مع التقدم في رؤية الكمبيوتر - المجموعة الفرعية من الذكاء الاصطناعي التي تسمح لأجهزة الكمبيوتر بالتعرف على محتوى الصور والفيديو - أصبح إنشاء تطبيقات التعرف على الوجه أسهل بكثير وفي متناول الجميع.

بدأت شركات التكنولوجيا الكبيرة مثل Microsoft و Amazon و IBM في توفير خدمات سحابية مكّنت أي مطور من دمج تقنية التعرف على الوجه في برامجهم. فتح هذا العديد من حالات الاستخدام والتطبيقات الجديدة في مجالات مختلفة ، مثل حماية الهوية والتوثيق وأمن المنزل الذكي وتجارة التجزئة. لكن نشطاء حقوق الخصوصية عبروا عن قلقهم من احتمال سوء الاستخدام.

في مايو 2018 ، كشف اتحاد الحريات المدنية الأمريكي أن Amazon تعمل على تسويق Rekognition ، وهي تقنية تحليل الفيديو في الوقت الفعلي ، إلى هيئات إنفاذ القانون والوكالات الحكومية. وفقًا لاتحاد الحريات المدنية الأمريكي ، تستخدم الشرطة في ثلاث ولايات على الأقل Rekognition للتعرف على الوجه في موجزات فيديو المراقبة.

"مع Rekognition ، يمكن للحكومة الآن بناء نظام لأتمتة عملية تحديد هوية أي شخص وتتبعه. إذا تم تجهيز كاميرات الشرطة للشرطة ، على سبيل المثال ، بالاعتراف بالوجه ، فإن الأجهزة المخصصة لشفافية الضابط والمساءلة سوف تتحول إلى أجهزة مراقبة تهدف إلى العام ، "ACLU حذر. "من خلال أتمتة المراقبة الجماعية ، تهدد أنظمة التعرف على الوجه مثل Rekognition هذه الحرية ، وتشكل تهديدًا خاصًا للمجتمعات المستهدفة بالفعل ظلما في المناخ السياسي الحالي. بمجرد بناء أنظمة مراقبة قوية كهذه ونشرها ، سيكون من الصعب للغاية التراجع عن الضرر ".

وردد مخاوف موظفي اتحاد الحريات المدنية الأمريكي من قبل موظفي Amazon ، الذين أرسلوا في يونيو خطابًا إلى جيف بيزوس ، الرئيس التنفيذي للشركة ، وطالبوه بالتوقف عن بيع إعادة الإدراك لفرض القانون. وجاء في الرسالة "يجب ألا تكون شركتنا في أعمال المراقبة ؛ يجب ألا تكون في أعمال الشرطة ؛ يجب ألا تكون في مجال دعم أولئك الذين يراقبون ويضطهدون السكان المهمشين".

في أكتوبر / تشرين الأول ، كشف أحد موظفي شركة أمازون المجهولين أن ما لا يقل عن 450 موظفًا قد وقعوا خطابًا آخر دعا فيه بيزوس وغيره من المسؤولين التنفيذيين إلى التوقف عن بيع إعادة الإدراك للشرطة. "لا يمكننا الاستفادة من مجموعة فرعية من العملاء الأقوياء على حساب مجتمعاتنا ؛ لا يمكننا تجنب أعيننا من التكلفة البشرية لأعمالنا. لن نبني بصمت التكنولوجيا لقمع الناس وقتلهم ، سواء في بلدنا أو في بلدان أخرى ، " وقال انه.

تداعيات مشروع غوغل العسكري لمنظمة العفو الدولية

بينما كانت أمازون تتعامل مع هذا الفعل العكسي الداخلي ، كانت غوغل تعاني من صراعات مماثلة بشأن عقد لتطوير الذكاء الاصطناعي للجيش الأمريكي ، المسمى مشروع مافن.

يقال إن غوغل كانت تساعد وزارة الدفاع في تطوير تقنية رؤية الكمبيوتر التي من شأنها معالجة لقطات فيديو بدون طيار. كانت كمية لقطات الفيديو التي سجلتها الطائرات بدون طيار يوميًا كثيرة جدًا لمراجعتها محللين بشريين ، وأراد البنتاغون أتمتة جزء من العملية.

اعترافًا بالطبيعة المثيرة للجدل للمهمة ، أشار متحدث باسم Google إلى أنها توفر فقط واجهات برمجة التطبيقات لـ TensorFlow ، منصة التعلم الآلي الخاصة بها ، لاكتشاف الكائنات في خلاصات الفيديو. أكدت Google أيضًا أنها تعمل على تطوير السياسات والضمانات لمعالجة الجوانب الأخلاقية لتكنولوجيتها.

لكن Project Maven لم يكن جيدًا مع موظفي Google - حيث قام 3000 منهم ، بمن فيهم العشرات من المهندسين ، بالتوقيع على خطاب مفتوح إلى الرئيس التنفيذي ساندار بيتشاي دعا فيه إلى إنهاء البرنامج.

وجاء في الرسالة "نعتقد أن جوجل يجب ألا تكون في مجال الحرب". وطلبت من الشركة "صياغة ونشر وتنفيذ سياسة واضحة تنص على أنه لا يجوز لشركة Google أو متعاقديها بناء تكنولوجيا الحرب على الإطلاق".

حذر موظفو Google أيضًا من أن صاحب العمل يعرض للخطر سمعته وقدرته على التنافس على المواهب في المستقبل. "لا يمكننا الاستعانة بمصادر خارجية للمسؤولية الأخلاقية لتكنولوجياتنا تجاه أطراف ثالثة" ، أكد غوغلرز.

بعد فترة وجيزة ، دعا عريضة موقعة من 90 أكاديميًا وباحثًا كبار المسؤولين التنفيذيين في Google إلى التوقف عن العمل في التكنولوجيا العسكرية. حذر الموقعون من أن عمل Google سيمهد الطريق لـ "التعرف الآلي على الأهداف وأنظمة الأسلحة المستقلة". كما حذروا من أنه مع تطور التكنولوجيا ، فإنهم سيقفون "على بعد مسافة قصيرة من التصريح للطائرات بدون طيار المتمتعة بالحكم الذاتي بالقتل تلقائيًا ، دون إشراف بشري أو تحكم بشري ذي معنى.

مع تزايد التوترات ، استقال العديد من موظفي Google احتجاجًا على ذلك.

كيف استجاب قادة التكنولوجيا

تحت الضغط ، أعلنت Google في يونيو أنها لن تجدد عقدها مع وزارة الدفاع على مشروع Maven بعد انتهاء صلاحيته في 2019.

في أحد التدوينات ، أعلن الرئيس التنفيذي ساندر بيتشاي (في الصورة أدناه) عن مجموعة من المبادئ الأخلاقية التي تحكم تطور الشركة وبيع تكنولوجيا الذكاء الاصطناعي. وفقًا لـ Pichai ، ستنظر الشركة من الآن فصاعدًا في المشروعات التي تعود بالنفع على المجتمع ككل وتجنب تطوير الذكاء الاصطناعي الذي عزز التحيزات غير العادلة القائمة أو قوض السلامة العامة.

صرح Pichai أيضًا صراحة أن شركته لن تعمل على التقنيات التي تنتهك معايير حقوق الإنسان.

كان بازون أمازون أقل خوفًا من الغضب بسبب إعادة الإدراك. وقال بيزوس في مؤتمر تقني في سان فرانسيسكو في أكتوبر "سنواصل دعم وزارة الدفاع ، وأعتقد أننا يجب علينا ذلك". "واحدة من وظائف القيادة العليا هي اتخاذ القرار الصحيح ، حتى عندما يكون غير محبوب".

كما أكد بيزوس على ضرورة قيام مجتمع التكنولوجيا بدعم الجيش. وقال "إذا كانت شركات التكنولوجيا الكبرى ستدير ظهرها لوزارة الدفاع ، فإن هذا البلد سيكون في ورطة".

نشر رئيس مايكروسوفت براد سميث ، الذي واجهت شركته انتقادات بسبب عملها مع ICE ، منشورًا مدونًا في تموز (يوليو) دعا فيه إلى اتباع نهج محسوب في بيع التكنولوجيا الحساسة إلى الوكالات الحكومية. بينما لم يستبعد سميث بيع خدمات التعرف على الوجه لإنفاذ القانون والجيش ، شدد على الحاجة إلى تحسين التنظيم والشفافية في قطاع التكنولوجيا.

  • معهد ماساتشوستس للتكنولوجيا ينفق 1 مليار دولار على برنامج لدراسة أخلاقيات الذكاء الاصطناعى معهد ماساتشوستس للتكنولوجيا ينفق 1 مليار دولار على برنامج لدراسة أخلاقيات الذكاء الاصطناعي
  • هل تتحدث منظمة العفو الدولية لغتنا حقًا؟ هل تتحدث منظمة العفو الدولية لغتنا حقًا؟
  • انهيار مصنع الذكاء الاصطناعي الذي لا يمكن إيقافه في الصين

"لقد انتخبنا ممثلين في الكونغرس لديهم الأدوات اللازمة لتقييم هذه التكنولوجيا الجديدة ، بكل تداعياتها. نحن نستفيد من الضوابط والتوازنات في الدستور الذي شهدنا من عصر الشموع إلى عصر الذكاء الاصطناعي. كما في كتب سميث عدة مرات في الماضي ، نحتاج إلى ضمان أن الاختراعات الجديدة تخدم حرياتنا الديمقراطية عملاً بسيادة القانون.

في عام 2018 ، مهدت التهديدات البعيدة للروبوتات القاتلة والبطالة الجماعية بواعث قلق بشأن التأثير الأخلاقي والاجتماعي الأكثر إلحاحًا لمنظمة العفو الدولية. من نواح كثيرة ، تشير هذه التطورات إلى أن الصناعة تنضج ، حيث أصبحت خوارزميات الذكاء الاصطناعي أكثر بروزًا في المهام الحرجة. ولكن مع زيادة ترسيخ الخوارزميات والأتمتة في حياتنا اليومية ، ستنشأ المزيد من المناقشات.

صناعة منظمة العفو الدولية سنة من الحساب الأخلاقي