بيت الآراء لماذا يجب أن تكشف منظمة العفو الدولية أنها منظمة العفو الدولية

لماذا يجب أن تكشف منظمة العفو الدولية أنها منظمة العفو الدولية

جدول المحتويات:

فيديو: بنتنا يا بنتنا (سبتمبر 2024)

فيديو: بنتنا يا بنتنا (سبتمبر 2024)
Anonim

قامت Google مؤخرًا بإعادة تشكيل دوبلكس لتكشف صراحةً لمضيفي المطاعم وموظفي الصالون أنهم يتحدثون مع مساعد Google ويجري تسجيلهم.

حذفت Google هذه التفاصيل الصغيرة ولكن المهمة عندما قدمت Duplex لأول مرة في مؤتمر مطور I / O في مايو. تلا ذلك رد فعل إعلامي ، وجدد النقاد المخاوف القديمة بشأن الآثار المترتبة على إطلاق عملاء منظمة العفو الدولية الذين يمكن أن ينتحلوا سلوك البشر بطرق لا يمكن تمييزها.

من خلال التغيير والتبديل على الوجهين ، تضع Google بعض هذه الانتقادات. ولكن لماذا من المهم للغاية أن تكون الشركات شفافة بشأن هوية وكلاء الذكاء الاصطناعى؟

هل يمكن لمساعدي الذكاء الاصطناعى خدمة أغراض الشر؟

يقول جوشوا مارش ، الرئيس التنفيذي لشركة "هناك توقع متزايد بأنه عندما تقوم بمراسلة شركة ، يمكنك أن تتفاعل مع chatbot مدعوم من منظمة العفو الدولية. لكن عندما تسمع فعليًا خطابًا يتحدث الإنسان ، تتوقع عمومًا أن تكون شخصًا حقيقيًا". من Coversocial.

يقول مارس بأننا في بداية الأشخاص الذين لديهم تفاعلات ذات مغزى مع الذكاء الاصطناعى بشكل منتظم ، وأن التطورات في هذا المجال خلقت الخوف من أن المتسللين قد يستغلون عملاء الذكاء الاصطناعى لأغراض ضارة.

يقول مارسيو أفيليز ، SVP of Networks في Cujo AI: "في أفضل السيناريوهات ، يمكن أن تؤدي روبوتات الذكاء الاصطناعي بنوايا خبيثة إلى الإساءة إلى الناس". لكن مارسيو يضيف أننا قد نواجه المزيد من التهديدات الرهيبة. على سبيل المثال ، يمكن لمنظمة العفو الدولية أن تتعلم أنماطًا لغوية معينة ، مما يجعل من الأسهل تكييف التكنولوجيا للتلاعب بالأشخاص وانتحال هوية الضحايا والقيام بهجمات تصيّد الأحياء وأنشطة مماثلة.

يتفق العديد من الخبراء على أن التهديد حقيقي. في عمود لـ CIO ، أوضح Steven Brykman الطرق المختلفة التي يمكن من خلالها استغلال تكنولوجيا مثل Duplex: "على الأقل مع اتصال البشر بالبشر ، لا يزال هناك عامل مقيد - لا يمكن للإنسان إجراء الكثير من المكالمات في الساعة يوميًا. يجب أن يتقاضى البشر أجورًا ، ويتخذون فترات راحة ، وما إلى ذلك. ولكن يمكن أن يقوم chatbot AI بإجراء عدد غير محدود من المكالمات لعدد غير محدود من الأشخاص بطرق غير محدودة!"

في هذه المرحلة ، معظم ما نسمعه هو المضاربة ؛ ما زلنا لا نعرف مدى وخطورة التهديدات التي يمكن أن تنشأ مع ظهور المساعدين الصوتيين. لكن العديد من الهجمات المحتملة التي تنطوي على مساعدين يعتمدون على الصوت يمكن إبطال مفعولها إذا كانت الشركة التي توفر التكنولوجيا تتواصل صراحة مع المستخدمين عندما يتفاعلون مع وكيل AI.

مخاوف الخصوصية

هناك مشكلة أخرى تحيط باستخدام تقنيات مثل Duplex وهي الخطر المحتمل على الخصوصية. تحتاج الأنظمة التي تعمل بالطاقة AI إلى بيانات المستخدم لتدريب الخوارزميات وتحسينها ، ولا يعد Duplex استثناءً من ذلك. من المهم جدًا كيفية تخزين هذه البيانات وتأمينها واستخدامها.

تنشأ لوائح جديدة تتطلب من الشركات الحصول على موافقة صريحة من المستخدمين عندما يرغبون في جمع معلوماتهم ، ولكن تم تصميمها في الغالب لتغطية التقنيات التي يبدأ المستخدمون من خلالها التفاعلات عن قصد. هذا الأمر منطقي بالنسبة لمساعدي الذكاء الاصطناعي مثل Siri و Alexa ، والتي يتم تنشيطها بواسطة المستخدم. ولكن ليس من الواضح كيف ستنطبق القواعد الجديدة على مساعدي الذكاء الاصطناعي الذين يصلون إلى المستخدمين دون أن يتم تشغيلهم.

في مقالته ، يشدد بريكمان على الحاجة إلى وضع ضمانات تنظيمية ، مثل القوانين التي تلزم الشركات بالإعلان عن وجود وكيل لمنظمة العفو الدولية - أو قانون ينص على أنه عندما تسأل chatbot ما إذا كان هذا برنامج chatbot ، فمن المطلوب أن يقول ، "نعم ، أنا chatbot ". مثل هذه الإجراءات ستمنح المحاور البشري فرصة لفك الارتباط أو على الأقل أن يقرر ما إذا كانوا يريدون التفاعل مع نظام الذكاء الاصطناعي الذي يسجل صوتهم.

حتى مع وجود مثل هذه القوانين ، لن تختفي مخاوف الخصوصية. "إن أكبر المخاطر التي أتوقعها في التجسد الحالي للتكنولوجيا هي أنها ستمنح Google مزيدًا من البيانات عن حياتنا الخاصة التي لم تكن تمتلكها بالفعل. حتى هذه المرحلة ، كانوا يعرفون فقط باتصالاتنا عبر الإنترنت ؛ وسيكتسبون الآن رؤية حقيقية حول يقول Vian Chinner ، مؤسس ورئيس مجلس إدارة Xineoh ، محادثاتنا في العالم الحقيقي.

أدت فضائح الخصوصية الأخيرة التي شملت شركات التكنولوجيا الكبيرة ، والتي استخدمت فيها بيانات المستخدم بطرق مشكوك فيها لتحقيق مكاسبها الخاصة ، إلى خلق شعور بعدم الثقة حول منحهم نوافذ أكثر في حياتنا. يقول تشينر: "عمومًا ، يشعر الناس أن شركات وادي السيليكون الكبيرة تنظر إليهم كمخزون بدلاً من العملاء ولديهم درجة كبيرة من عدم الثقة تجاه أي شيء يفعلونه تقريبًا ، بغض النظر عن الكيفية التي سينتهي بها الأمر إلى تغيير الحياة".

فشل وظيفي

على الرغم من وجود صوت ونغمة طبيعية واستخدام الأصوات المشابهة للإنسان مثل "mmhm" و "ummm" ، إلا أن Duplex لا يختلف عن تقنيات الذكاء الاصطناعي المعاصرة الأخرى ويعاني من نفس القيود.

سواء تم استخدام الصوت أو النص كواجهة ، فإن وكلاء الذكاء الاصطناعى يجيدون حل المشكلات المحددة. لهذا السبب نسميها "الذكاء الاصطناعي الضيق" (على عكس "الذكاء الاصطناعي العام" - وهو نوع من الذكاء الاصطناعي الذي يمكن أن ينخرط في حل المشكلات بشكل عام ، كما يفعل العقل البشري). على الرغم من أن الذكاء الضيق يمكن أن يكون جيدًا بشكل استثنائي في أداء المهام التي تمت برمجته لها ، إلا أنه قد يفشل بشكل مذهل عندما يتم إعطاؤه سيناريو ينحرف عن مجال المشكلة.

"إذا ظن المستهلك أنهم يتحدثون إلى إنسان ، فمن المحتمل أن يسألوا شيئًا ما خارج النص العادي لمنظمة العفو الدولية ، وسيحصلون بعد ذلك على استجابة محبطة عندما لا يفهم الروبوت" ، وفقًا لما قاله موقع Conversocial's March.

في المقابل ، عندما يعلم شخص ما أنه يتحدث إلى منظمة العفو الدولية التي تم تدريبها على حجز الطاولات في أحد المطاعم ، فسوف يحاولون تجنب استخدام لغة تربك الذكاء الاصطناعي وتسبب ذلك في التصرف بطرق غير متوقعة ، خاصةً إذا كان يحضر لهم عميل.

يقول أفيليز: "يجب أن يتلقى الموظفون الذين يتلقون مكالمات من دوبلكس أيضًا مقدمة مباشرة مفادها أن هذا ليس شخصًا حقيقيًا. سيساعد هذا التواصل بين الموظفين ومنظمة العفو الدولية على أن يكون أكثر تحفظًا وضوحًا".

لهذا السبب ، وإلى أن نطور (AI) إذا كان بإمكاننا تطوير أداء على قدم المساواة مع الذكاء البشري ، فمن مصلحة الشركات نفسها أن تكون شفافة بشأن استخدامها لمنظمة العفو الدولية.

في نهاية اليوم ، يعود سبب الخوف من وجود مساعدين صوتيين مثل Duplex إلى حقيقة أنهم جديدون ، وما زلنا معتادًا على مواجهتهم في إعدادات جديدة واستخدام الحالات. يقول تشينر: "على الأقل يبدو بعض الناس غير مرتاحين جدًا لفكرة التحدث إلى إنسان آلي دون معرفة ذلك ، لذلك في الوقت الحالي ، من المحتمل أن يتم الكشف عنه للأطراف المقابلة في المحادثة".

  • الذكاء الاصطناعى (أيضا) قوة للخير الذكاء الاصطناعى (أيضا) قوة للخير
  • عندما تطمس AI الخط الفاصل بين الواقع والخيال متى AI يطمس الخط الفاصل بين الواقع والخيال
  • الذكاء الاصطناعي لديه مشكلة التحيز ، وهذا خطأنا الذكاء الاصطناعي لديه مشكلة التحيز ، وهذا خطأنا

ولكن على المدى الطويل ، اعتدنا على التفاعل مع وكلاء الذكاء الاصطناعى الأكثر ذكاءً والأكثر قدرة على أداء المهام التي كان يعتقد سابقًا أنها المجال الحصري للمشغلين البشريين.

"لن يهتم الجيل التالي إذا كانوا يتحدثون إلى منظمة العفو الدولية أو إنسانًا عندما يتصلون بشركة ما. سيرغبون فقط في الحصول على إجابتهم بسرعة وسهولة ، وقد كبروا في التحدث إلى Alexa. في انتظار تقول كونفيرسوسال في مارس ، "إن التمسك بالتحدث إلى إنسان سيكون أكثر إحباطًا من مجرد التفاعل مع الروبوت".

لماذا يجب أن تكشف منظمة العفو الدولية أنها منظمة العفو الدولية