بيت الآراء لماذا تستخدم شركات التكنولوجيا البشر لمساعدة منظمة العفو الدولية | بن ديكسون

لماذا تستخدم شركات التكنولوجيا البشر لمساعدة منظمة العفو الدولية | بن ديكسون

جدول المحتويات:

فيديو: الفضاء - علوم الفلك للقرن الØادي والعشرين (شهر نوفمبر 2024)

فيديو: الفضاء - علوم الفلك للقرن الØادي والعشرين (شهر نوفمبر 2024)
Anonim

"Andrew Ingram" هو مساعد رقمي يقوم بمسح رسائل البريد الإلكتروني الخاصة بك ، ويقدم أفكارًا جدولة للاجتماعات والمواعيد التي تناقشها مع زملائك في العمل ، ويضع المهام ، ويرسل الدعوات إلى الأطراف ذات الصلة بمساعدة قليلة جدًا. ويستخدم قدرات الذكاء الاصطناعي المتقدمة من X.ai ، جديد نيويورك القائم بدء التشغيل المتخصص في تطوير مساعدي الذكاء الاصطناعى. يمكن للمشاكل التي يحلها توفير الكثير من الوقت والإحباط للأشخاص (مثلي) الذين لديهم جدول فوضوي.

لكن وفقًا لقصة سلكية نُشرت في مايو ، فإن الذكاء وراء أندرو إنجرام ليس مصطنعًا تمامًا. تدعمها مجموعة من 40 فلبينيًا في مبنى آمن للغاية على مشارف مانيلا يراقبون سلوك الذكاء الاصطناعى ويتولون أمره عندما يصطدم المساعد بقضية لا يستطيع التعامل معها.

في حين أن فكرة أن يتم فحص رسائل البريد الإلكتروني الخاصة بك عن طريق أشخاص حقيقيين قد تبدو زاحفة ، فقد أصبحت ممارسة شائعة بين العديد من الشركات التي تقدم خدمات منظمة العفو الدولية لعملائها. كشف مقال نُشر مؤخرًا في صحيفة وول ستريت جورنال عن العديد من الشركات التي تسمح لموظفيها بالوصول إلى رسائل البريد الإلكتروني وقراءتها لبناء ميزات جديدة وتدريب الذكاء الاصطناعي على الحالات التي لم يسبق لها مثيل.

يُطلق على تقنية "ساحر أوز" أو "الزائفة- AI" ، وهي ممارسة استخدام البشر بصمت للتعويض عن أوجه القصور في خوارزميات الذكاء الاصطناعي تسلط الضوء على بعض من أعمق التحديات التي تواجهها صناعة الذكاء الاصطناعي.

الذكاء الاصطناعي ليس جاهزًا للمشاكل العريضة

وراء معظم ابتكارات الذكاء الاصطناعي في السنوات الأخيرة ، توجد خوارزميات للتعلم العميق والشبكات العصبية. الشبكات العصبية العميقة فعالة جدا في تصنيف المعلومات. في كثير من الحالات ، مثل التعرف على الصوت والوجه أو التعرف على السرطان في التصوير بالرنين المغناطيسي والتصوير المقطعي ، يمكن أن يتفوق البشر.

لكن هذا لا يعني أن التعلم العميق والشبكات العصبية يمكن أن تنجز أي مهمة يمكن للبشر القيام بها.

يقول جوناثان موغان ، المؤسس والرئيس التنفيذي لشركة DeepGrammar: "التعلم العميق يسمح لنا بحل مشكلة الإدراك. هذه مشكلة كبيرة لأن الإدراك حد من الذكاء الاصطناعي منذ بدايته منذ أكثر من 60 عامًا". "لقد جعل حل مشكلة الإدراك أخيرًا الذكاء الاصطناعي مفيدًا لأشياء مثل التعرف على الصوت والروبوتات."

ومع ذلك ، يلاحظ موغان أن الإدراك ليس هو المشكلة الوحيدة. يكافح التعلم العميق حيث يتم التفكير المنطقي والتفاهم.

"التعلم العميق لا يساعدنا في هذه المشكلة" ، كما يقول. "لقد حققنا بعض التقدم في البرمجة اللغوية العصبية (معالجة اللغة الطبيعية) من خلال التعامل مع اللغة كمشكلة إدراك ؛ أي تحويل الكلمات والجمل إلى متجهات. وقد سمح لنا هذا بتمثيل النص بشكل أفضل للترجمة والترجمة الآلية (عندما يكون هناك الكثير من البيانات) ، لكنها لا تساعد في التفكير المنطقي ، وهذا هو السبب في فشل chatbots إلى حد كبير."

واحدة من المشاكل الرئيسية التي تواجهها جميع تطبيقات التعلم العميق هي جمع البيانات الصحيحة لتدريب نماذج الذكاء الاصطناعى الخاصة بهم. يعتمد الجهد والبيانات التي تدخل في تدريب شبكة عصبية لأداء المهمة على مدى مساحة المشكلة ومستوى الدقة المطلوب.

على سبيل المثال ، يقوم تطبيق تصنيف الصور ، مثل تطبيق Not Hotdog من وادي السيليكون في HBO ، بمهمة ضيقة ومحددة للغاية: فهو يخبرك ما إذا كانت كاميرا هاتفك الذكي تعرض هوت دوغ أم لا. مع وجود عدد كافٍ من صور hotdog ، يمكن لأداة التطبيق أن تؤدي وظيفتها المهمة بدرجة عالية من الدقة. وحتى إذا ارتكبت خطأ كل فترة من الوقت ، فلن تؤذي أحدا.

لكن تطبيقات الذكاء الاصطناعي الأخرى ، مثل X.ai التي تقوم ببنائها ، تعالج مشكلات أوسع بكثير ، مما يعني أنها تتطلب الكثير من الأمثلة الجيدة. أيضا ، التسامح مع الأخطاء أقل بكثير. هناك فرق واضح بين الخلط بين خيار وجود هوت دوج وجدولة اجتماع عمل مهم في وقت غير مناسب.

لسوء الحظ ، فإن جودة البيانات ليست سلعة تمتلكها جميع الشركات.

يقول الدكتور ستيف مارش: "تتمثل قاعدة التجربة في أنه كلما كانت المشكلة أكثر عمومية التي تحاول منظمة العفو الدولية معالجتها ، كلما زادت حالات الحافة أو السلوكيات غير العادية التي يمكن أن تحدث. هذا يعني حتماً أنك بحاجة إلى المزيد من الأمثلة التدريبية لتغطية كل شيء". CTO في Geospock. "لا تتمتع الشركات الناشئة عمومًا بإمكانية الوصول إلى كميات هائلة من بيانات التدريب ، وبالتالي فإن النماذج التي يمكن أن تصنعها عمليًا ستكون مناسبة للغاية وهشة ، والتي لا ترقى عادةً إلى مستوى توقعاتها."

هذه الثروة من المعلومات هي في حوزة الشركات الكبيرة فقط مثل Facebook و Google ، التي كانت تجمع بيانات المليارات من المستخدمين لسنوات. يتعين على الشركات الصغيرة دفع مبالغ كبيرة للحصول على بيانات التدريب أو إنشائها ، مما يؤخر إطلاق تطبيقاتها. البديل هو إطلاق أي حال والبدء في تدريب الذكاء الاصطناعى الخاص بك على الطاير ، باستخدام المدربين البشريين وبيانات العملاء الحية على أمل أن يصبح الذكاء الاصطناعى في النهاية أقل اعتمادًا على البشر.

على سبيل المثال ، قامت Edison Software ، وهي شركة مقرها كاليفورنيا بتطوير تطبيقات لإدارة رسائل البريد الإلكتروني ، بإطلاع موظفيها على رسائل البريد الإلكتروني لعملائها لتطوير ميزة "الرد الذكي" لأنهم لا يملكون بيانات كافية لتدريب الخوارزمية ، الشركة وقال الرئيس التنفيذي لصحيفة وول ستريت جورنال. إنشاء الردود الذكية مهمة واسعة وصعبة. حتى Google ، التي لديها حق الوصول إلى رسائل البريد الإلكتروني لمليارات المستخدمين ، تقدم ردود ذكية للحالات الضيقة للغاية.

لكن استخدام البشر لتدريب الذكاء الاصطناعي باستخدام بيانات المستخدم الحية لا يقتصر على الشركات الأصغر.

في عام 2015 ، أطلق Facebook موقع M ، وهو chatbot لمنظمة العفو الدولية يمكنه فهم الفروق الدقيقة في المحادثات والرد عليها وإنجاز العديد من المهام. أتاح Facebook M لعدد محدود من المستخدمين في كاليفورنيا وقام بتعيين موظفين من المشغلين البشريين الذين سيراقبون أداء الذكاء الاصطناعى ويتدخلون لتصحيحه عندما لا يستطيع فهم طلب المستخدم. كانت الخطة الأصلية مخصصة للمشغلين البشريين لتعليم المساعد للاستجابة لحالات الحافة التي لم يسبق لها مثيل. بمرور الوقت ، ستكون M قادرة على العمل دون مساعدة البشر.

هدف غير قابل للتحقيق؟

ليس من الواضح كم سيستغرق الأمر من أجل Edison Software و X.ai وغيرها من الشركات التي أطلقت أنظمة بشرية في حلقة لجعل الذكاء الاصطناعي بالكامل. هناك أيضًا شك في أن الاتجاهات الحالية لمنظمة العفو الدولية يمكنها الوصول إلى نقطة الانخراط في مجالات أوسع.

في عام 2018 ، أغلق Facebook M دون نشره رسميًا. لم تقم الشركة بمشاركة التفاصيل ، لكن من الواضح أن إنشاء chatbot يمكنه المشاركة في محادثات واسعة أمر صعب للغاية. وإتاحة M لجميع مستخدمي Facebook البالغ عددهم ملياري مستخدم دون جعله قادرًا بشكل كامل على الاستجابة تلقائيًا لجميع أنواع المحادثات ، كان يتطلب عملاق الوسائط الاجتماعية توظيف طاقم ضخم من البشر لملء الفجوات في M.

يعتقد موجان في DeepGrammar أننا سنكون قادرين في النهاية على إنشاء الذكاء الاصطناعي الذي يمكن أن يحل المنطق المنطقي ، وهو ما يصنفه الآخرون على أنه الذكاء الاصطناعي العام. لكن هذا لن يحدث في أي وقت قريب. يقول موجان: "لا توجد حاليًا طرق في الأفق ستمكن الكمبيوتر من فهم ما يعرفه طفل صغير". "بدون هذا الفهم الأساسي ، لن تتمكن أجهزة الكمبيوتر من أداء الكثير من المهام بشكل جيد بنسبة 100 بالمائة من الوقت."

لوضع ذلك في الاعتبار ، طور خبراء OpenAI مؤخرًا Dactyl ، وهي يد آلية يمكنها التعامل مع الأشياء. هذه مهمة يتعلمها أي طفل بشري لأداء اللاوعي في سن مبكرة. لكن الأمر استغرق 6414 وحدة المعالجة المركزية Dactyl و 8 وحدات معالجة الرسومات وخبرة حوالي مائة سنة لتطوير المهارات نفسها. في حين أنه إنجاز رائع ، فإنه يسلط الضوء أيضًا على الاختلافات الصارخة بين الذكاء الاصطناعي الضيق وطريقة عمل الدماغ البشري.

يقول مارش: "نحن بعيدون جدًا عن امتلاك الذكاء العام المصطنع ، ومن المحتمل جدًا أن يكون AGI هو مزيج وتنسيق العديد من أنواع مختلفة من الذكاء الاصطناعي الضيق أو الخاص بالتطبيق". "أعتقد أن هناك ميلًا إلى زيادة إمكانات الذكاء الاصطناعي في الوقت الحالي ، لكنني أرى أيضًا أن هناك قيمة هائلة في مجرد اتخاذ الخطوات الأولى وتنفيذ نماذج التعلم الآلي التقليدية."

هل تلوح في الأفق فصل الشتاء لمنظمة العفو الدولية؟

في عام 1984 ، حذرت الجمعية الأمريكية للذكاء الاصطناعي (التي أعيدت تسميتها فيما بعد إلى جمعية النهوض بالذكاء الاصطناعي) مجتمع الأعمال من أن الضجيج والحماس المحيطين بالذكاء الاصطناعي سيؤدي في النهاية إلى خيبة الأمل. بعد فترة وجيزة ، انهار الاستثمار والاهتمام بـ الذكاء الاصطناعى ، مما أدى إلى عصر يعرف باسم "فصل الشتاء لمنظمة العفو الدولية".

منذ أوائل عام 2010 ، تزايد الاهتمام والاستثمار في هذا المجال مرة أخرى. يخشى بعض الخبراء أنه إذا كانت طلبات الذكاء الاصطناعي منخفضة الأداء وفشلت في تلبية التوقعات ، فسوف يترتب على ذلك فصل شتاء آخر لمنظمة العفو الدولية. لكن الخبراء الذين تحدثنا إليهم يعتقدون أن الذكاء الاصطناعى قد أصبح مندمجًا بالفعل في حياتنا بحيث لا يسترجع خطواته.

يقول موغان: "لا أعتقد أننا نواجه خطر فصل الشتاء لمنظمة العفو الدولية كما هو الحال من قبل لأن منظمة العفو الدولية تقدم الآن قيمة حقيقية ، وليس فقط قيمة افتراضية". "ومع ذلك ، إذا واصلنا إخبار عامة الناس بأن أجهزة الكمبيوتر ذكية مثل البشر ، فإننا نجازف برد فعل عنيف. لن نعود إلى عدم استخدام التعلم العميق للإدراك ، ولكن قد يتم تلطيف مصطلح" الذكاء الاصطناعى "، ونحن يجب أن نسميها شيئا آخر."

ما هو مؤكد هو أنه على الأقل ، يقف عصر خيبة الأمل أمامنا. نحن على وشك معرفة مدى ثقتنا في المزج الحالي للذكاء الاصطناعى في المجالات المختلفة.

"ما أتوقع أن أراه هو أن بعض الشركات تفاجأت بسرور من السرعة التي يمكن أن توفر بها منظمة العفو الدولية لخدمة يدوية ومكلفة مسبقًا ، وأن الشركات الأخرى ستجد أن الأمر يستغرق وقتًا أطول مما توقعت لجمع بيانات كافية لتصبح يقول جيمس بيرجسترا ، مؤسس ورئيس قسم الأبحاث في Kindred.ai: "إذا كان هناك الكثير من الأخير وغير كافٍ من السابق ، فقد يؤدي ذلك إلى فصل شتاء جديد لمنظمة العفو الدولية بين المستثمرين."

  • الذكاء الاصطناعي لديه مشكلة التحيز ، وهذا خطأنا الذكاء الاصطناعي لديه مشكلة التحيز ، وهذا خطأنا
  • لماذا تعليم منظمة العفو الدولية للعب الألعاب أمر مهم لماذا تدريس منظمة العفو الدولية للعب الألعاب أمر مهم
  • تقدم منظمة العفو الدولية إمكانات ضخمة ، لكنها لن تحدث بين عشية وضحاها تقدم منظمة العفو الدولية إمكانات ضخمة ، لكنها لن تحدث بين عشية وضحاها

ويتوقع مارش من Geospock أنه على الرغم من أن التمويل لن يهدأ ، فسيكون هناك بعض التعديلات على ديناميكياته. نظرًا لأن المستثمرين يدركون أن الخبرة الحقيقية نادرة وأن أولئك الذين لديهم حق الوصول إلى البيانات لتدريب النماذج سيكونون مختلفين في الصناعة ، سيكون هناك توحيد كبير في السوق وسيحصل عدد أقل من الشركات الناشئة على التمويل.

ويخلص مارش إلى أنه "بالنسبة للعديد من الشركات الناشئة العاملة في مجال الذكاء الاصطناعى بدون تطبيق سوق مناسب أو كميات هائلة من البيانات: الشتاء قادم".

لماذا تستخدم شركات التكنولوجيا البشر لمساعدة منظمة العفو الدولية | بن ديكسون