بيت المميزات الذكاء الاصطناعي لديه مشكلة انحياز ، وهذا خطأنا

الذكاء الاصطناعي لديه مشكلة انحياز ، وهذا خطأنا

جدول المحتويات:

فيديو: من زينو نهار اليوم ØµØ Ø¹ÙŠØ¯ÙƒÙ… انشر الفيديو Øتى يراه كل Ø§Ù„Ø (سبتمبر 2024)

فيديو: من زينو نهار اليوم ØµØ Ø¹ÙŠØ¯ÙƒÙ… انشر الفيديو Øتى يراه كل Ø§Ù„Ø (سبتمبر 2024)
Anonim

في عام 2016 ، كان باحثون من جامعة بوسطن ومايكروسوفت يعملون على خوارزميات الذكاء الاصطناعي عندما اكتشفوا الميول العنصرية والجنسية في التكنولوجيا التي تقوم عليها بعض الخدمات الأكثر شعبية والأكثر أهمية التي نستخدمها كل يوم. يتعارض هذا الوحي مع الحكمة التقليدية المتمثلة في أن الذكاء الاصطناعي لا يعاني من التحيزات الجنسانية والعنصرية والثقافية التي نعانيها نحن البشر.

قام الباحثون بهذا الاكتشاف أثناء دراسة خوارزميات تضمين الكلمات ، وهو نوع من الذكاء الاصطناعي الذي يجد الارتباطات والجمعيات بين الكلمات المختلفة من خلال تحليل مجموعات كبيرة من النص. على سبيل المثال ، يمكن لخوارزمية مدربة لتضمين الكلمات أن تفهم أن الكلمات الخاصة بالزهور ترتبط ارتباطًا وثيقًا بالمشاعر اللطيفة. على مستوى أكثر عملية ، يدرك دمج الكلمات أن مصطلح "برمجة الكمبيوتر" يرتبط ارتباطًا وثيقًا بـ "C ++" و "JavaScript" و "التحليل والتصميم الموجهين للكائنات". عند دمجها في تطبيق مسح السيرة الذاتية ، تتيح هذه الوظيفة لأصحاب العمل إيجاد مرشحين مؤهلين بأقل جهد. في محركات البحث ، يمكن أن يوفر نتائج أفضل عن طريق إحضار محتوى مرتبط بألفاظ مع مصطلح البحث.

وجد باحثو BU و Microsoft أن خوارزميات تضمين الكلمات لها تحيزات إشكالية ، مثل ربط "مبرمج الكمبيوتر" بضمائر الذكور و "ربة منزل" مع الإناث. النتائج التي توصلوا إليها ، والتي نشرت في ورقة بحثية بعنوان "الرجل هو مبرمج الكمبيوتر كما هي ربة منزل؟" كان أحد التقارير العديدة التي فضحت أسطورة حيادية الذكاء الاصطناعي وإلقاء الضوء على التحيز الحسابي ، وهي ظاهرة تصل إلى أبعاد حرجة حيث أصبحت الخوارزميات تشارك بشكل متزايد في قراراتنا اليومية.

أصول الخوارزمية التحيز

تكمن خوارزميات التعلم الآلي والتعلم العميق في معظم البرامج المعاصرة التي تعمل بنظام الذكاء الاصطناعي. على عكس البرامج التقليدية ، التي تعمل على أساس قواعد محددة وقابلة للتحقق ، فإن التعلم العميق ينشئ قواعده ويتعلم حسب المثال.

على سبيل المثال ، لإنشاء تطبيق للتعرف على الصور استنادًا إلى التعلم العميق ، يقوم "المبرمجون" بتدريب "الخوارزمية" عن طريق تزويدها بالبيانات المسمى: في هذه الحالة ، يتم وضع علامة على الصور باسم الكائن الذي تحتويه. بمجرد أن تستوعب الخوارزمية أمثلة كافية ، يمكنها تجميع الأنماط الشائعة بين البيانات ذات العلامات المتماثلة واستخدام تلك المعلومات لتصنيف العينات غير المسماة.

تتيح هذه الآلية للتعلم العميق أداء العديد من المهام التي كانت مستحيلة تقريبًا مع البرامج المستندة إلى القواعد. ولكن هذا يعني أيضًا أن برامج التعليم العميق يمكنها أن ترث تحيزات سرية أو علنية.

يقول البروفيسور فينكاتيش ساليجراما ، الذي يدرس في قسم الهندسة الكهربائية وهندسة الحاسبات بجامعة بوسطن وعمل على خوارزميات تضمين الكلمات: "إن خوارزميات الذكاء الاصطناعي ليست منحازة بطبيعتها". "لديهم وظائف حتمية وسوف يلتقطون أي ميول موجودة بالفعل في البيانات التي يتدربون عليها."

تم تدريب خوارزميات تضمين الكلمات التي اختبرها باحثو جامعة بوسطن على مئات الآلاف من المقالات من Google News و Wikipedia وغيرها من المصادر عبر الإنترنت التي تكون فيها التحيزات الاجتماعية مضمنة بعمق. على سبيل المثال ، بسبب ثقافة إخوانه التي تهيمن على صناعة التكنولوجيا ، تأتي أسماء الذكور في كثير من الأحيان بوظائف متعلقة بالتكنولوجيا - وهذا يؤدي بالخوارزميات إلى ربط الرجال بوظائف مثل البرمجة وهندسة البرمجيات.

"لا تتمتع الخوارزميات بقوة العقل البشري في التمييز بين الصواب والخطأ" ، تضيف تولجا بولوكباسي ، طالبة دكتوراه في السنة الأخيرة في الجامعة البريطانية. يمكن للبشر الحكم على أخلاق أفعالنا ، حتى عندما نقرر العمل ضد المعايير الأخلاقية. لكن بالنسبة للخوارزميات ، فإن البيانات هي العامل الحاسم النهائي.

لم يكن Saligrama و Bolukbasi أول من أثار ناقوس الخطر حول هذا التحيز. أكد الباحثون في آي بي إم ومايكروسوفت وجامعة تورنتو على الحاجة إلى منع التمييز الخوارزمي في ورقة نشرت في عام 2011. في ذلك الوقت ، كان الانحياز الحسابي مصدر قلق مقصور على فئة معينة ، والتعلم العميق لم يجد طريقه إلى الاتجاه السائد. على الرغم من ذلك ، فإن الانحياز الحسابي اليوم يترك علامة على العديد من الأشياء التي نقوم بها ، مثل قراءة الأخبار والبحث عن الأصدقاء والتسوق عبر الإنترنت ومشاهدة مقاطع الفيديو على Netflix و YouTube.

تأثير التحيز الخوارزمي

في عام 2015 ، كان على Google الاعتذار بعد أن وضعت الخوارزميات التي تعمل على تطبيق صورها علامة على شخصين من السود بوصفهما غوريلا - ربما لأن مجموعة بيانات التدريب لديها لا تحتوي على صور كافية للأشخاص السود. في عام 2016 ، من بين الفائزين الـ 44 في مسابقة الجمال التي حكمت عليها منظمة العفو الدولية ، كان جميعهم تقريباً من البيض ، وكان عدد قليل منهم من الآسيويين ، وكان واحد منهم فقط ذو بشرة داكنة. مرة أخرى ، كان السبب هو أن الخوارزمية تدربت في الغالب بصور الأشخاص البيض.

صور جوجل ، لقد استغل. صديقي ليس غوريلا. pic.twitter.com/SMkMCsNVX4

- لا يستجيب jackyalciné للكثير هنا. DM (Jackyalcine) 29 يونيو 2015

في الآونة الأخيرة ، وجد اختبار لخدمات تحليل الوجه من آي بي إم ومايكروسوفت أن خوارزميات الشركات كانت خالية من العيوب تقريبًا عند اكتشاف جنس الرجال ذوي البشرة الفاتحة ، ولكنها غالبًا ما أخطأت عند عرضها بصور النساء ذوات البشرة الداكنة.

في حين أن هذه الحوادث تسببت على الأرجح في أضرار لا تذكر ، لا يمكن قول الشيء نفسه عن خوارزميات الذكاء الاصطناعي في مجالات أكثر أهمية ، مثل الرعاية الصحية وإنفاذ القانون والتوظيف. في عام 2016 ، وجد تحقيق أجرته شركة ProPublica أن COMPAS - وهو برنامج يحركه AI ويقيم خطر النكوص في المخالفين - كان متحيزًا ضد أشخاص من اللون. كان هذا الاكتشاف مقلقًا بشكل خاص لأن القضاة في بعض الولايات يستخدمون COMPAS لتحديد من يمشي حراً ومن يبقى في السجن.

في حالة أخرى ، كشفت دراسة لمنصة الإعلان في Google ، والتي تدعمها خوارزميات التعليم العميق ، أن الرجال كانوا يعرضون إعلانات لوظائف ذات رواتب عالية أكثر من النساء. وجدت دراسة منفصلة مشكلة مماثلة مع إعلانات الوظائف في LinkedIn. وأظهر آخر أن خوارزميات التوظيف المتحيزة تزيد بنسبة 50 في المائة في إرسال دعوة للمقابلة لشخص كان اسمه أوروبيًا أمريكيًا مقارنة بشخص يحمل اسم أمريكي من أصل أفريقي.

تواجه مجالات مثل الموافقة على القروض وتصنيف الائتمان والمنح الدراسية تهديدات مماثلة.

التحيز الخوارزمي يبعث على مزيد من القلق بسبب الطريقة التي قد يضخّم بها التحيزات الاجتماعية. في ظل الوهم بأن الذكاء الاصطناعي بارد ، والحساب الرياضي يخلو من التحيز أو التحيز ، قد يميل البشر إلى الثقة في الحكم الخوارزمي دون التشكيك فيه.

في مقابلة مع Wired UK ، لاحظ أندرو وولف ، محاضر علم الجريمة بجامعة إدنبر نابير ، أن عالم الشرطة "الذي يخضع لضغوط الوقت ، وكثافة الموارد" يمكن أن يتسبب في اعتماد ضباط إنفاذ القانون بشكل كبير على القرارات الخوارزمية. وقال "يمكنني أن أتخيل موقفًا قد يعتمد فيه ضابط شرطة على النظام أكثر من عمليات صنع القرار الخاصة به". "قد يكون هذا جزئيًا بحيث يمكنك تبرير القرار عندما يحدث خطأ ما."

يؤدي الاعتماد على الخوارزميات المتحيزة إلى إنشاء حلقة تغذية مرتدة: نتخذ قرارات تُنشئ المزيد من البيانات المتحيزة التي ستقوم الخوارزميات بتحليلها وتدريبها في المستقبل.

هذا النوع من الأشياء يحدث بالفعل على شبكات التواصل الاجتماعي مثل Facebook و Twitter. تقوم الخوارزميات التي تشغل خلاصات الأخبار بإنشاء "فقاعات التصفية" ، والتي تعرض محتوى يتوافق مع تفضيلات المستخدمين وتحيزاتهم. هذا يمكن أن يجعلهم أقل تسامحا تجاه وجهات النظر المتعارضة ويمكن أيضا أن يزيد من استقطاب المجتمع عن طريق دفع إسفين من خلال الانقسام السياسي والاجتماعي.

يقول جين وورتمان فوجان ، كبير الباحثين في شركة مايكروسوفت: "التحيز الحسابي قد يؤثر على أي مجموعة". "قد تكون المجموعات الممثلة تمثيلا ناقصا في البيانات في خطر بشكل خاص."

في المجالات المعروفة بالفعل بالتحيز ، مثل التمييز المستوطن في صناعة التكنولوجيا ضد المرأة ، قد تزيد خوارزميات الذكاء الاصطناعي من هذه التحيزات وتؤدي إلى مزيد من تهميش المجموعات غير الممثلة جيدًا.

ويشير وورتمان إلى أن الصحة مجال مهم آخر. "قد يتسبب ذلك في مشاكل خطيرة إذا تم تدريب خوارزمية التعلم الآلي المستخدمة للتشخيص الطبي على بيانات من مجموعة سكانية واحدة ، ونتيجة لذلك ، فشلت في أداء جيد على الآخرين" ، كما تقول.

يمكن أن يكون التحيز ضارًا أيضًا بطرق أكثر دقة. يقول وورتمان: "كنت أخطط في العام الماضي لأخذ ابنتي لحلاقة شعر وبحثت على الإنترنت عن صور" حلاقة شعر الأطفال الصغار "لإلهامهم". لكن الصور التي تم إرجاعها كانت جميعها من الأطفال البيض تقريبًا ، بشكل أساسي بشعر مستقيم ، والأكثر إثارة للدهشة ، أولاد في المقام الأول ، لاحظت ذلك.

يسمي الخبراء هذه الظاهرة "ضررًا تمثيليًا": عندما تعزز التكنولوجيا الصور النمطية أو تقلل مجموعات محددة. يقول وورتمان: "من الصعب تحديد أو قياس الأثر الدقيق لهذا النوع من التحيز ، لكن هذا لا يعني أنه غير مهم".

إزالة التحيز من خوارزميات الذكاء الاصطناعى

لفتت الآثار المتزايدة الأهمية لتحيز الذكاء الاصطناعى انتباه العديد من المنظمات والهيئات الحكومية ، ويجري اتخاذ بعض الخطوات الإيجابية لمعالجة القضايا الأخلاقية والاجتماعية المحيطة باستخدام الذكاء الاصطناعي في مختلف المجالات.

أطلقت Microsoft ، التي تعتمد منتجاتها اعتمادًا كبيرًا على خوارزميات الذكاء الاصطناعى ، مشروعًا بحثيًا قبل ثلاث سنوات أطلق عليه اسم العدالة والمساءلة والشفافية والأخلاقيات في مجال الذكاء الاصطناعى (FATE) بهدف تمكين المستخدمين من الاستمتاع برؤى وكفاءة معززة للخدمات التي تدعمها الذكاء الاصطناعى دون تمييز و انحياز، نزعة.

في بعض الحالات ، مثل مسابقة الجمال المُفصَّلة في AI ، قد يكون العثور على مصدر السلوك المتحيز لخوارزمية AI وإصلاحه سهلاً مثل التحقق من الصور وتغييرها في مجموعة بيانات التدريب. ولكن في حالات أخرى ، مثل خوارزميات تضمين الكلمات التي درسها باحثو جامعة بوسطن ، فإن التحيز متأصل في بيانات التدريب بطرق أكثر دقة.

طور فريق BU ، الذي انضم إليه باحث مايكروسوفت آدم كالاي ، طريقة لتصنيف الكلمات المزخرفة بناءً على تصنيفات جنسهم وتحديد أوجه التشابه التي من المحتمل أن تكون منحازة. لكنهم لم يتخذوا القرار النهائي وسيديرون كل من الجمعيات المشتبه فيها بواسطة 10 أشخاص على Mechanical Turk ، سوق الأمازون على الإنترنت للقيام بالمهام المتعلقة بالبيانات ، والذين يقررون ما إذا كان يجب إزالة الجمعية أم لا.

يقول ساليجراما ، أستاذ وباحث في الجامعة البريطانية: "لم نرغب في إدراج تحيزاتنا في العملية". "لقد قدمنا ​​للتو الأدوات اللازمة لاكتشاف الجمعيات التي تعاني من مشاكل. لقد اتخذ البشر القرار النهائي".

في ورقة أحدث ، اقترح كالاي وغيره من الباحثين استخدام خوارزميات منفصلة لتصنيف مجموعات مختلفة من الناس بدلاً من استخدام نفس التدابير للجميع. يمكن أن تكون هذه الطريقة فعالة في المجالات التي تكون فيها البيانات الحالية منحازة بالفعل لصالح مجموعة معينة. على سبيل المثال ، ستستخدم الخوارزميات التي من شأنها تقييم المتقدمين الإناث لوظيفة برمجة المعايير الأكثر ملاءمة لتلك المجموعة بدلاً من استخدام المجموعة الأوسع من البيانات التي تتأثر بشدة بالتحيزات الموجودة.

يرى Wortman من Microsoft أن الشمول في صناعة الذكاء الاصطناعي هو خطوة ضرورية لمحاربة التحيز في الخوارزميات. وتقول: "إذا أردنا أن تكون أنظمة الذكاء الاصطناعي الخاصة بنا مفيدة للجميع وليس فقط بعض العوامل الديموغرافية ، فإن الشركات تحتاج إلى توظيف فرق متنوعة للعمل على الذكاء الاصطناعي".

في عام 2006 ، ساعدت Wortman في تأسيس "Women in Machine Learning" (WiML) ، التي تعقد ورشة عمل سنوية تستطيع خلالها النساء اللواتي يدرسن ويعملن في صناعة الذكاء الاصطناعى الالتقاء والتواصل وتبادل الأفكار وحضور حلقات النقاش مع كبار النساء في الصناعة والأوساط الأكاديمية. هناك جهد مماثل يتمثل في ورشة Black in AI Workshop الجديدة ، التي أسسها Timnit Gebru ، باحث آخر في Microsoft ، والتي تهدف إلى بناء مواهب أكثر تنوعًا في AI.

يقترح بولوكباسي من جامعة بوسطن أيضًا تغيير الطريقة التي تعمل بها خوارزميات الذكاء الاصطناعي على حل المشكلات. "ستختار الخوارزميات مجموعة قواعد تزيد من هدفها. قد يكون هناك العديد من الطرق للوصول إلى نفس المجموعة من الاستنتاجات لأزواج مُدخلة معينة" ، كما يقول. "خذ مثالًا على اختبارات الاختيار من متعدد للبشر. يمكن للمرء أن يصل إلى الإجابة الصحيحة من خلال عملية تفكير خاطئة ، ولكن مع ذلك يحصل على نفس الدرجة. يجب تصميم اختبار عالي الجودة لتقليل هذا التأثير إلى الحد الأدنى ، مع السماح فقط للأشخاص الذين حقاً تعرف على الموضوع للحصول على الدرجات الصحيحة ، ويمكن اعتبار توعية الخوارزميات بالقيود الاجتماعية بمثابة تناظرية لهذا المثال (على الرغم من أنه ليس دقيقًا) ، حيث يتم معاقبة تعلم مجموعة قواعد خاطئة في الهدف. موضوع."

عتامة منظمة العفو الدولية تعقد العدالة

التحدي الآخر الذي يقف في طريق جعل خوارزميات الذكاء الاصطناعي أكثر عدلاً هو ظاهرة "الصندوق الأسود". في العديد من الحالات ، تقوم الشركات بحراسة خوارزمياتها بغيرة: على سبيل المثال ، رفضت Northpointe Inc. ، الشركة المصنعة لـ COMPAS ، برنامج التنبؤ بالجريمة ، الكشف عن خوارزمية الملكية الخاصة بها. الأشخاص الوحيدون الذين يشتركون في أعمال COMPAS الداخلية هم مبرمجوها ، وليس القضاة الذين يستخدمونها لإصدار الأحكام.

بصرف النظر عن سرية الشركات ، تصبح خوارزميات الذكاء الاصطناعي في بعض الأحيان معقدة للغاية بحيث أن الأسباب والآليات الكامنة وراء قراراتهم تفلت حتى منشئيها. في المملكة المتحدة ، تستخدم شرطة دورهام نظام هارت AI لتحديد ما إذا كان المشتبه فيهم لديهم خطر منخفض أو معتدل أو كبير في ارتكاب جرائم أخرى خلال فترة عامين. لكن المراجعة الأكاديمية لعام 2017 لـ HART لاحظت أن "التعتيم يبدو من الصعب تجنبه". ويرجع ذلك جزئيًا إلى الحجم الهائل وتنوع البيانات التي يستخدمها النظام ، مما يجعل من الصعب تحليل الأسباب الكامنة وراء قراراته. تقول الصحيفة: "يمكن إتاحة هذه التفاصيل للجمهور بحرية ، ولكنها تتطلب قدراً كبيراً من الوقت والجهد لفهمها بالكامل".

تقود العديد من الشركات والمؤسسات الجهود المبذولة لتحقيق الشفافية في الذكاء الاصطناعي ، بما في ذلك Google ، التي أطلقت GlassBox ، وهي مبادرة لجعل سلوك خوارزميات تعلم الآلة أكثر قابلية للفهم دون التضحية بجودة المخرجات. تقوم وكالة مشاريع الأبحاث المتقدمة للدفاع (DARPA) ، التي تشرف على استخدام الذكاء الاصطناعي في الجيش ، بتمويل جهد لتمكين خوارزميات الذكاء الاصطناعي من شرح قراراتهم.

في حالات أخرى ، سيكون الحكم الإنساني هو المفتاح في التعامل مع التحيز. لمنع التحيزات البشرية والاجتماعية العنصرية الحالية من التسلل إلى خوارزميات هارت ، وفرت شرطة ديرهام لأعضاء فريقها جلسات توعية حول التحيز اللاواعي. اتخذت قوات الشرطة أيضًا خطوات لإزالة نقاط البيانات مثل السمات العرقية ، مما قد يخلق أسبابًا لاتخاذ قرارات متحيزة.

مسؤولية الإنسان

من منظور مختلف ، يمكن أن توفر خوارزميات الذكاء الاصطناعي فرصة للتفكير في تحيزاتنا وأحكامنا المسبقة. وقالت ساندرا واتشر ، الباحثة في أخلاقيات البيانات والخوارزميات بجامعة أكسفورد لصحيفة الجارديان: "العالم متحيز ، البيانات التاريخية منحازة ، وبالتالي ليس من المستغرب أن نتلقى نتائج متحيزة".

Wachter هو جزء من فريق بحث من معهد آلان تورينج في لندن وجامعة أكسفورد ، الذي نشر ورقة تدعو إلى لوائح ومؤسسات للتحقيق في التمييز المحتمل من خوارزميات الذكاء الاصطناعي.

تحدثت أيضًا إلى The Guardian ، جوانا برايسون ، عالمة الكمبيوتر في جامعة باث والمؤلفة المشاركة في ورقة بحثية عن التحيز الحسابي ، قالت: "هناك الكثير من الناس يقولون إن هذا يظهر التحيز. لا. هذا يظهر أننا تم التحيز وأن منظمة العفو الدولية تتعلم ذلك."

في عام 2016 ، أطلقت Microsoft Tay ، وهو روبوت على تويتر كان من المفترض أن يتعلم من البشر ويشارك في محادثات ذكية. لكن خلال 24 ساعة من إطلاق Tay ، اضطر Microsoft إلى إغلاقه بعد أن بدأت في بث التعليقات العنصرية ، والتي التقطتها من محادثاتها مع مستخدمي Twitter. ربما يكون هذا تذكيرًا بأنه قد مضى وقت نعترف فيه نحن البشر بدورنا في الظهور ونشر ظاهرة التحيز الخوارزمي واتخاذ خطوات جماعية للتراجع عن آثارها.

يقول واتشر: "هذه مهمة معقدة للغاية ، لكنها مسؤولية يجب ألا نتجنبها نحن كمجتمع".

الذكاء الاصطناعي لديه مشكلة انحياز ، وهذا خطأنا