بيت الآراء التعلم من أخطاء أليكسا

التعلم من أخطاء أليكسا

جدول المحتويات:

فيديو: Ù...غربية Ù...ع عشيقها في السرير، شاهد بنفسك (شهر نوفمبر 2024)

فيديو: Ù...غربية Ù...ع عشيقها في السرير، شاهد بنفسك (شهر نوفمبر 2024)
Anonim

سجل جهاز Amazon Echo مؤخرًا المحادثة الخاصة لأحد المستخدمين وأرسلها إلى أحد جهات اتصالهم دون علمهم وموافقتهم. هذا (مرة أخرى) يثير مخاوف بشأن أمن وخصوصية مكبرات الصوت الذكية. كما أصبح واضحًا فيما بعد ، على الرغم من أن سلوك أليكسا الغريب لم يكن جزءًا من مؤامرة تجسس شريرة - بل كان سببها سلسلة من الإخفاقات المرتبطة المنسوبة إلى طريقة عمل السماعة الذكية.

وفقًا لحساب قدمه أمازون: "استيقظ الصدى بسبب كلمة في محادثة في الخلفية تبدو مثل" Alexa ". بعد ذلك ، تم سماع المحادثة اللاحقة كطلب "إرسال رسالة" ، وعندها قال أليكسا بصوت عالٍ "إلى من؟" عند هذه النقطة ، تم تفسير محادثة الخلفية كاسم في قائمة جهات اتصال العميل ، ثم سألته Alexa بصوت عالٍ ، "أليس كذلك؟" ثم فسر أليكسا محادثة الخلفية بأنها "صحيحة". على الأرجح ، نظرًا لأن سلسلة الأحداث هذه ، فإننا نقوم بتقييم الخيارات لجعل هذه الحالة أقل احتمالًا."

السيناريو هو حالة حافة ، وهذا النوع من الحوادث التي تحدث نادرا جدا. لكنها أيضًا دراسة مثيرة للاهتمام في حدود تقنية الذكاء الاصطناعي التي تشغل أجهزة الصدى وغيرها من الأجهزة "الذكية".

الكثير من سحابة الاعتماد

لفهم الأوامر الصوتية ، تعتمد السماعات الذكية مثل Echo و Google Home على خوارزميات التعليم العميق ، والتي تتطلب طاقة حوسبية مكثفة. نظرًا لعدم توفر موارد الحوسبة لأداء المهمة محليًا ، يجب عليهم إرسال البيانات إلى خوادم السحابة الخاصة بالشركة المصنعة ، حيث تقوم خوارزميات الذكاء الاصطناعي بتحويل بيانات الكلام إلى نص ومعالجة الأوامر.

لكن لا يمكن للمتحدثين الأذكياء إرسال كل ما يسمعونه إلى خوادمهم السحابية ، لأن ذلك سيتطلب من الشركة المصنعة تخزين كميات كبيرة من البيانات على خوادمهم - ومعظمها سيكون عديم الفائدة. كما أن تسجيل وتخزين المحادثات الخاصة الجارية في منازل المستخدمين سيشكل أيضًا تحديًا للخصوصية وقد يواجه المصنّعون مشكلة ، لا سيما مع لوائح خصوصية البيانات الجديدة التي تضع قيودًا صارمة على كيفية قيام شركات التكنولوجيا بتخزين البيانات واستخدامها.

لهذا السبب تم تصميم مكبرات الصوت الذكية ليتم تشغيلها بعد أن ينطق المستخدم كلمة تنبيه مثل "Alexa" أو "Hey Google". فقط بعد سماع كلمة الاستيقاظ ، يبدأون في إرسال إدخال الصوت الخاص بميكروفوناتهم إلى السحابة للتحليل والمعالجة.

بينما تعمل هذه الميزة على تحسين الخصوصية ، فإنها تقدم تحدياتها الخاصة ، كما أوضح حادثة Alexa الأخيرة.

يقول جوشوا مارش ، الرئيس التنفيذي لشركة Conversocial: "إذا تم إرسال كلمة - أو شيء يشبه إلى حد كبير - في منتصف الطريق خلال محادثة ، فلن يكون لدى Alexa أي من السياق السابق". "في هذه المرحلة ، يتم الاستماع بشدة لأي أوامر متعلقة بالمهارات التي قمت بإعدادها (مثل تطبيقات المراسلة الخاصة بهم). بالنسبة للجزء الأكبر ، يتم تحسين الخصوصية بشكل كبير عن طريق تقييد السياق الذي تولي Alexa الانتباه إليه (كما إنه لا يسجل أو يستمع إلى أي من محادثاتك العادية) ، على الرغم من أن ذلك عكس ذلك في هذه الحالة."

التقدم في الحوسبة الحافة قد يساعد في تخفيف هذه المشكلة. نظرًا لأن AI والتعلم العميق يجدان طريقهما إلى المزيد والمزيد من الأجهزة والتطبيقات ، فقد أنشأت بعض الشركات المصنعة للأجهزة معالجات متخصصة لأداء مهام AI دون الاعتماد على الموارد السحابية بشكل كبير. يمكن لمعالجات Edge AI مساعدة أجهزة مثل Echo في فهم المحادثات ومعالجتها بشكل أفضل دون التعدي على خصوصية المستخدمين عن طريق إرسال جميع البيانات إلى السحابة.

السياق والقصد

بصرف النظر عن تلقي قطع صوتية متباينة ومجزأة ، تكافح Amazon's AI لفهم الفروق الدقيقة في المحادثة البشرية.

يقول مارش: "على الرغم من التقدم الكبير الذي أحرز في التعلم العميق خلال السنوات القليلة الماضية ، مما مكّن البرنامج من فهم الكلام والصور بشكل أفضل من أي وقت مضى ، إلا أنه لا يزال هناك الكثير من القيود". "بينما يمكن للمساعدين الصوتيين التعرف على الكلمات التي تقولها ، إلا أنهم ليس لديهم بالضرورة أي نوع من الفهم الحقيقي للمعنى أو القصد من وراءها. العالم مكان معقد ، لكن أي نظام واحد لمنظمة العفو الدولية اليوم قادر فقط على التعامل مع حالات استخدام محددة وضيقة."

على سبيل المثال ، نحن البشر لدينا العديد من الطرق لتحديد ما إذا كانت الجملة موجهة نحونا ، مثل نغمة الصوت أو اتباع الإشارات المرئية - على سبيل المثال ، الاتجاه الذي ينظر إليه المتحدث.

في المقابل ، تفترض Alexa أنها مستفيدة من أي جملة تحتوي على كلمة "A". هذا هو السبب في أن المستخدمين غالبا ما يؤدي ذلك عن طريق الخطأ.

جزء من المشكلة هو أننا نبالغ في قدرات تطبيقات الذكاء الاصطناعي الحالية ، وغالبًا ما نضعها على قدم المساواة مع العقل البشري أو أعلى منه ونضع الكثير من الثقة فيه. لهذا السبب فوجئنا عندما فشلوا بشكل مذهل.

يقول باسكال كوفمان ، عالم الأعصاب ومؤسس Starmind: "جزء من المشكلة هنا هو أن مصطلح" الذكاء الاصطناعي "تم تسويقه بقوة حتى أن المستهلكين وضعوا قدراً غير مستحق من الإيمان في المنتجات المرتبطة بهذا المصطلح". "توضح هذه القصة أن لدى Alexa العديد من القدرات وفهمًا محدودًا نسبيًا لكيفية وتوقيت تطبيقها بشكل مناسب."

خوارزميات التعليم العميق عرضة للفشل عندما تواجه إعدادات تنحرف عن البيانات والسيناريوهات التي يتم تدريبهم عليها. يقول كوفمان: "إن أحد الميزات المحددة في الذكاء الاصطناعي على مستوى الإنسان هو الكفاءة المكتفية ذاتياً والفهم الحقيقي للمحتوى". "هذا جزء أساسي من اعتبار الذكاء الاصطناعي" ذكيًا "وضروريًا لتنميته. إن إنشاء مساعدين رقميين مدركين للذات ، يجلبون معهم فهمًا كاملاً للطبيعة البشرية ، سيمثلون تحولهم من حداثة ممتعة إلى حقيقة اداة مفيدة."

لكن إنشاء الذكاء الاصطناعي على مستوى الإنسان ، والذي يشار إليه أيضًا باسم الذكاء الاصطناعى العام ، هو أسهل من الفعل. لعقود عديدة ، كنا نفكر في قاب قوسين أو أدنى ، فقط لنفزع لأن التقدم التكنولوجي أظهر مدى تعقيد العقل البشري. يعتقد العديد من الخبراء أن مطاردة منظمة العفو الدولية غير مجدية.

وفي الوقت نفسه ، لا يزال الذكاء الاصطناعي الضيق (كما هو موضح في تقنيات الذكاء الاصطناعي الحالي) يقدم العديد من الفرص ويمكن إصلاحه لتجنب تكرار الأخطاء. لتوضيح ذلك ، لا يزال التعلم العميق والتعلم الآلي حديثي الولادة ، وتقوم شركات مثل Amazon باستمرار بتحديث خوارزميات الذكاء الاصطناعي الخاصة بها لمعالجة الحالات المتطورة في كل مرة تحدث فيها.

ما نحتاج إلى فعله

يقول إريك مولر ، CTO لـ Atomic X: "هذا مجال ناشئ ، فالتفهم الطبيعي للغات في مراحله الأولى ، لذلك هناك الكثير الذي يمكننا القيام به هنا".

يعتقد مولر أنه يمكن ضبط خوارزميات الذكاء الاصطناعي للتحليل الصوتي لفهم التجويد والانحراف بشكل أفضل. يقول مولر "استخدام كلمة" Alexa "في جملة أوسع يبدو مختلفًا عن الاحتجاج أو الأمر. يجب ألا تستيقظ Alexa لأنك قلت هذا الاسم". من خلال التدريب الكافي ، ينبغي أن يكون الذكاء الاصطناعي قادرًا على التمييز بين النغمات المحددة الموجهة إلى السماعة الذكية.

يمكن لشركات التقنية أيضًا تدريب الذكاء الاصطناعي الخاص بهم لتكون قادرة على التمييز عندما تتلقى ضوضاء في الخلفية بدلاً من التحدث إليهم مباشرة. يقول مولر: "يحتوي الثرثرة في الخلفية على" توقيع "سمعي فريد من نوعه مفاده أن البشر يجيدون التقاط الصور وتوليفها بشكل انتقائي. لا يوجد سبب لعدم تمكننا من تدريب نماذج الذكاء الاصطناعي على أن تفعل الشيء نفسه.

كإجراء وقائي ، يجب على مساعدي الذكاء الاصطناعي تقييم تأثير القرارات التي يتخذونها وإشراك القرار الإنساني في الحالات التي يرغبون في القيام بشيء يحتمل أن يكون حساسًا. يجب على الشركات المصنعة أن تضع المزيد من الإجراءات الوقائية في تقنياتها لمنع إرسال المعلومات الحساسة دون موافقة المستخدم الصريحة والواضحة.

يقول ساغي إلياهي ، الرئيس التنفيذي لشركة Tonkean: "على الرغم من أن Amazon قد أبلغت أن Alexa حاولت تأكيد الإجراء الذي فسرته ، إلا أن بعض الإجراءات تحتاج إلى أن تدار بعناية وتلتزم بمستوى أعلى من تأكيد نية المستخدم". "لدى البشر نفس مشكلات التعرف على الكلام ، أحيانًا ما يشبهون الطلبات. على عكس أليكسا ، من المرجح أن يؤكد الإنسان تمامًا أنهم يفهمون طلبًا غير واضح ، والأهم من ذلك ، يقيسون احتمال الطلب مقارنةً بالطلبات السابقة".

في هذه الأثناء…

بينما تقوم شركات التكنولوجيا بتحديد تطبيقات AI الخاصة بها لتقليل الأخطاء ، سيتعين على المستخدمين اتخاذ القرار النهائي بشأن مقدار ما يريدون التعرض للأخطاء المحتملة التي قد تحدثها أجهزتهم التي تعمل بنظام AI.

يقول دوغ روز ، خبير علم البيانات وكاتب العديد من الكتب حول الذكاء الاصطناعي والبرامج: "تظهر هذه القصص تعارضًا مع كمية البيانات التي يرغب الأشخاص في مشاركتها ضد وعد تقنيات الذكاء الاصطناعي الجديدة". "قد تثير غضب سيري لكونها بطيئًا. ولكن أفضل طريقة لها لتحقيق قدر أكبر من الذكاء هي غزو محادثاتنا الخاصة. لذا فإن السؤال الأساسي على مدى العقد المقبل أو نحو ذلك هو إلى أي مدى سنسمح لوكلاء الذكاء الاصطناعي بالاطلاع على سلوكنا؟ ؟"

"ما هي الأسرة التي ستضع مساعدًا بشريًا في غرفة المعيشة وتسمح لهذا الشخص بالاستماع إلى أي نوع من المحادثة طوال الوقت؟" يقول كوفمان ، عالم الأعصاب من Starmind. "يجب علينا على الأقل تطبيق نفس المعايير على ما يسمى بأجهزة" الذكاء الاصطناعي "(إن لم تكن أعلى) بحيث نطبقها أيضًا على الكائنات الذكية للإنسان عندما يتعلق الأمر بالخصوصية أو السرية أو الموثوقية."

التعلم من أخطاء أليكسا