بيت الآراء كيف gdpr سوف تؤثر على صناعة منظمة العفو الدولية | بن ديكسون

كيف gdpr سوف تؤثر على صناعة منظمة العفو الدولية | بن ديكسون

جدول المحتويات:

فيديو: بسم الله Official CLIP BISMILLAH Edition 2013 ARABE (شهر نوفمبر 2024)

فيديو: بسم الله Official CLIP BISMILLAH Edition 2013 ARABE (شهر نوفمبر 2024)
Anonim

في ما يمكن وصفه بنوع من سباق التسلح ، قامت شركات التكنولوجيا بتجميع كميات كبيرة من بيانات المستخدم لصقل خوارزميات الذكاء الاصطناعي التي تشغل تطبيقاتها ومنصاتها. حتى الآن ، تمكنوا في الغالب من التهرب من المساءلة عندما دفعتهم ممارساتهم إلى المناطق الرمادية من الناحية القانونية والأخلاقية.

لكن هذا قد يتغير في 25 مايو ، عندما تدخل القواعد العامة لحماية البيانات في الاتحاد الأوروبي حيز التنفيذ. سيفرض الناتج المحلي الإجمالي قيودًا غير مسبوقة على جمع ومعالجة بيانات المستخدم في منطقة الاتحاد الأوروبي وفرض عقوبات شديدة على الشركات التي لا تمتثل.

قد يبدو ذلك خبراً سيئًا للشركات التي تستخدم خوارزميات الذكاء الاصطناعي ، والتي استفادت من لوائح جمع البيانات التراخية (ووثائق شروط الخدمة الطويلة والمملة والغامضة). يخشى البعض من أن القواعد الأكثر صرامة ستعرقل الابتكار ونشر الذكاء الاصطناعي في العديد من التطبيقات والمجالات. يعتقد آخرون أن التوجيه الجديد سيخلق أساسًا حيث ستصبح تطبيقات الذكاء الاصطناعي أكثر موثوقية وثقة.

أيا كان الأمر ، فإن صناعة الذكاء الاصطناعى في تحول كبير في عصر الناتج المحلي الإجمالي.

ملكية البيانات والخصوصية

يقول تيم إستس ، مؤسس ورئيس شركة Digital Reasoning: "إجمالي الناتج المحلي يمثل مشكلة كبيرة بالنسبة إلى الذكاء الاصطناعى ، لأنه يستلزم أن نفكر بطريقة مختلفة عن كيفية جمع واستخدام البيانات". "لفترة طويلة جدًا ، أصرت شركات التكنولوجيا على أنه من أجل الحصول على قيمة من منتجاتها وخدماتها ، كان يتعين عليك التخلي عن بياناتك."

في السابق ، كان يتعين على الشركات الحصول على موافقة غامضة فقط من المستخدمين لجمع جميع أنواع البيانات. يقول إستس: "لقد ساعدت الذكاء الاصطناعى في الحفاظ على الضجيج الكبير للبيانات - وهو ما يوفر سببًا آخر لقيام الشركات بجمع واستخراج جميع البيانات المتاحة". "لقد بدأت العديد من الشركات في تطبيق الذكاء الاصطناعى لتحليل بياناتهم لمجرد أنهم يعتقدون أنه ينبغي عليهم ذلك - دون التفكير في التأثير على خصوصية المستخدم أو ملكية البيانات."

الفرضية الأساسية للناتج المحلي الإجمالي هي أن البيانات تخص المستخدمين. بموجب الناتج المحلي الإجمالي ، يتعين على الشركات الكشف عن النطاق الكامل للمعلومات التي تجمعها وكذلك كيفية استخدامها وكيفية حمايتها ومنع الوصول غير المصرح به. ستجبر القواعد الجديدة شركات AI على أن تكون أكثر دقة بشأن البيانات التي تجمعها بدلاً من الانخراط في اكتناز معلومات المستخدم ومعالجتها ومشاركتها بطريقة عشوائية.

الحق في النسيان

يمنح GNR المستخدمين القدرة على مطالبة الشركة بمسح جميع بياناتهم من خوادمها. لن يتماشى ذلك مع شركات AI ، التي لديها مصلحة راسخة في الاحتفاظ بأكبر قدر ممكن من بيانات المستخدم لأداء مهام مثل التنبؤ بالاتجاهات وسلوك المستخدم.

تقول Maryna Burushkina ، الرئيس التنفيذي لشركة GrowthChannel: "في نهاية اليوم ، يتعلق إجمالي الناتج المحلي بكيفية جمع وإدارة البيانات وليس بالضرورة حول مقدار البيانات التي لديك". "إن الصعوبة الرئيسية التي ستواجهها معظم الشركات لا تتعلق بالكثير من الاشتراكات ، بل تتعلق بالمزيد من إدارة البيانات ، وإبلاغ المستخدمين باستخدام البيانات ، وإتاحة الفرصة للمستخدمين لحذفها".

سيتعين على شركات الذكاء الاصطناعى اتخاذ خطوات إضافية لإخفاء هوية بياناتها إذا كانت لا تزال ترغب في الوصول إلى هذه الأفكار. لكن هناك تحديات أخرى تواجه الشركات التي لديها بالفعل مخازن كبيرة لبيانات المستخدم.

يقول أمنون دروري ، الرئيس التنفيذي لشركة Octopai: "في إطار إجمالي الناتج المحلي ، إذا أرادت شركة ما محو معلومات شخصية محددة ، فعليها التأكد من محوها في كل مكان". يمكن أن تكون هذه مهمة شاقة لتنفيذها يدويًا عندما تكون بياناتك مبعثرة عبر خوادم مختلفة وتخزينها بتنسيقات مختلفة وغير منظمة.

على سبيل المثال ، عند حذف رقم بطاقة ائتمان المستخدم (بالتأكيد جزء حساس من المعلومات) ، يتعين على الشركات النظر في كل تقرير وقاعدة بيانات وكائن قاعدة بيانات و ETL حيث يتم تخزين المعلومات. "في بعض الأحيان ، نرى أسماء بيانات وصفية مختلفة لنفس العنصر: على سبيل المثال ،" رقم بطاقة الائتمان "،" رقم cc "، رقم الائتمان c ،" رقم البطاقة "،" رقم بطاقة الائتمان ". على ، "يقول دروري. يقول دروري إنه من المستحيل في كثير من الأحيان معرفة مكان النظر وقد تستغرق العملية أسابيع أو حتى أشهر ، ومثل العديد من العمليات اليدوية ، فإنها عرضة للخطأ البشري وعدم الدقة.

سوف الناتج المحلي الإجمالي أيضا رفع تكلفة الأخطاء البشرية في التعامل مع البيانات. يقول دروري: "لهذا السبب تسعى العديد من الشركات اليوم إلى حل تلقائي لإدارة بيانات التعريف الخاصة بها بدقة". ربما من المفارقات أن الذكاء الاصطناعي بحد ذاته يمكن أن يكون حلاً في هذا الصدد. يمكن لأدوات إدارة البيانات الوصفية المدعومة من منظمة العفو الدولية أن تفحص جميع مصادر البيانات داخل المؤسسة وتوطد العلاقات بين الأدوات المختلفة ومصادر البيانات.

الحق في التفسير

أحد أهم أجزاء الناتج المحلي الإجمالي فيما يتعلق بمنظمة العفو الدولية هو ما أصبح يُعرف باسم "الحق في التفسير". ينص التوجيه على أنه يجب على الشركات إخطار المستخدمين حول "وجود عملية صنع القرار الآلي" وتزويدهم "بمعلومات مفيدة حول المنطق المعني ، وكذلك الأهمية والنتائج المتوقعة لهذه المعالجة بالنسبة لموضوع البيانات."

هذا يعني بشكل أساسي أنه يجب على المستخدمين معرفة متى يخضعون بشكل مباشر أو غير مباشر لخوارزميات الذكاء الاصطناعى ويجب أن يكونوا قادرين على تحدي القرارات التي تتخذها الخوارزميات ويطلبون دليلاً على كيفية استنتاج النتيجة. سيكون هذا أحد أكبر التحديات التي ستواجهها صناعة الذكاء الاصطناعى.

الشبكات العصبية العميقة ، التكنولوجيا الرئيسية وراء خوارزميات الذكاء الاصطناعي المعاصرة ، هي هياكل برمجية معقدة تنشئ قواعد وظيفية خاصة بها من خلال تحليل مجموعات كبيرة من البيانات وإيجاد الارتباطات والأنماط. مع نمو الشبكات العصبية أكثر تعقيدًا ، يزداد صعوبة تحلل سلوكها. في كثير من الأحيان ، لا يمكن حتى للمهندسين شرح الأسباب الكامنة وراء القرارات التي تتخذها خوارزميات الذكاء الاصطناعي.

نظرًا لما يطلق عليه مشكلة "الصندوق الأسود" ، فإن صعوبة تفسير خوارزميات الذكاء الاصطناعي جعلت من الصعب تنفيذها في قرارات المحكمة ، وتطبيق القانون ، وتطبيقات القروض والائتمان ، والتجنيد ، والرعاية الصحية ، وغيرها من المجالات الحيوية. لكن بدون أي نفوذ قانوني ، لم يكن لدى شركات الذكاء الاصطناعي حافز كبير لجعل خوارزميات الذكاء الاصطناعي الخاصة بها أكثر شفافية ، خاصةً عندما كانت مرتبطة بشكل وثيق بأسرارها التجارية.

الآن ، سيعمل الناتج المحلي الإجمالي على محاسبة شركات الذكاء الاصطناعي على القرارات التي تتخذها الخوارزميات.

يقول باسكال جينينز ، باحث الأمن في Radware: "كجزء من إجمالي الناتج المحلي ، تكون المؤسسات مسؤولة عن وصف طريقة المعالجة بوضوح باللغة البشرية مع طلب موافقة من الموضوع". "نظرًا لتطور التعلم العميق وعدم قدرة علماء البيانات على وصف الطبيعة الحتمية وراء تفكير الشبكة العصبية ، فقد يصبح هذا الوصف أكثر تعقيدًا ويصعب تفسيره."

يقول جينس إن الناتج القومي الإجمالي يتعلق بشكل أساسي بجعل البشر الذين يقومون بمعالجة البيانات مسؤولين. لذلك إذا كنت تستخدم خوارزميات التعلم الآلي للقيام بالمعالجة ، فيجب عليك تصميمها بطريقة ستمكنك من شرح القرارات التي تتخذها نيابة عنك.

تحاول حفنة من المنظمات تطوير تقنيات لجعل الذكاء الاصطناعي أكثر شفافية. ومن أبرزها مشروع DARPA Explainable AI (XAI) ، وهو مشروع بحثي يهدف إلى جعل القرارات المستندة إلى الذكاء الاصطناعي مفهومة.

الاستعانة بمصادر خارجية لمنظمة العفو الدولية

سيؤثر الناتج المحلي الإجمالي أيضًا على المنظمات التي تتيح بياناتها لأطراف ثالثة. ومن الأمثلة البارزة على مثل هذه الشركة Facebook. في فضيحة Cambridge Analytica ، فشلت شركة التواصل الاجتماعي العملاقة في منع شركة استخراج البيانات من جمع وإساءة استخدام بيانات 87 مليون مستخدم. لكن الناتج المحلي الإجمالي سيكون له أيضًا آثار بالنسبة للشركات التي تقوم بالاستعانة بمصادر خارجية في وظائف AI الخاصة بها وإتاحة بياناتها لموفري AI.

يقول إستيس ، "بينما يفترض الكثيرون أن مقدمي خدمات الذكاء الاصطناعي يشبهون مقدمي الخدمات الآخرين - ببساطة يقدمون تقنيتهم ​​في مقابل تعويض نقدي - الحقيقة هي أن مزودي الذكاء الاصطناعي يدخلون أيضاً في شراكات تجارية كوسيلة للبناء على تكنولوجياتهم وتطويرها". التنفيذي من التفكير الرقمي. هذا يعني أن موفر الذكاء الاصطناعي قد يرغب في التمسك ببيانات العميل لتدريب الخوارزميات الخاصة به واستخدامها في المجالات الأخرى.

على سبيل المثال ، قد يصادف موفر الذكاء الاصطناعى الذي يساعد منظمة الرعاية الصحية في العثور على أنماط في الأعراض وتحسين التشخيصات مجموعة بيانات تعمل على تحسين خوارزميات الملكية الخاصة بها. قد ترغب شركة AI في الاستفادة من البيانات لتحسين خوارزمياتها لأنواع أخرى من رعاية المرضى ، لتطوير قدراتها لمساعدة مقدمي الرعاية الصحية الآخرين. بموجب إجمالي الناتج المحلي ، ستتم محاسبة مؤسسة الرعاية الصحية المسؤولة عن البيانات عن أي استخدام غير أخلاقي من قبل موفر الذكاء الاصطناعى. يعتقد إستيس أن المفتاح هو أن تبحث الشركات عن مزودي الذكاء الاصطناعى الذين يؤمنون بامتلاك الخوارزميات وليس البيانات.

يقول إستيس: "سوف يجبر الناتج المحلي الإجمالي الشركات على إيلاء اهتمام أوثق لكيفية ومتى يتم استخدام بياناتهم وأين يتم تخزينها وما يحدث لها بعد اكتمال المشروع". "هذا يعني العمل مع موفري الذكاء الاصطناعى الذين يساعدون في تحديد خطوط ملكية البيانات وتنفيذ الاستراتيجيات التي تحمي معلومات المستخدم ، مع عدم عرقلة الطرق التي يمكنه بها المساعدة في تطوير نجاح خوارزميات الذكاء الاصطناعي."

هل سيعيق الناتج المحلي الإجمالي الابتكار لمنظمة العفو الدولية؟

الخبراء الذين تحدثنا إليهم يعتقدون أنه على الرغم من أن اللوائح الجديدة ستتحدى الممارسات والعادات الحالية التي اعتمدتها شركات AI ، فإنها ستجبرهم أيضًا على إيجاد طرق جديدة للابتكار وكذلك للحفاظ على احترام الخصوصية والمعايير الأخلاقية.

يقول Burushkina من GrowthChannel: "مع دخول لائحة إجمالي الناتج المحلي حيز التنفيذ ، تتخذ جميع شركات البرمجيات الكبرى التدابير اللازمة ليس فقط لضمان الامتثال ولكن أيضًا للابتكار والتفكير خارج الصندوق لإيجاد فرص جديدة في السوق".

يقول دروري من Octopai: "لن يتم إعاقة الابتكار - بل يتم توجيهه وتحفيزه - من قبل إجمالي الناتج المحلي". وفي الوقت نفسه ، سوف يؤدي إجمالي الناتج المحلي أيضًا إلى إنشاء شركات وتكنولوجيات جديدة ستساعد المؤسسات على تحقيق والحفاظ على امتثال الناتج المحلي الإجمالي.

قد تساعد المعايير التي وضعها الناتج المحلي الإجمالي في الواقع في سد فجوة الثقة الآخذة في الاتساع بين مقدمي الخدمات ومستخدميها. يعتقد Estes أن الناتج المحلي الإجمالي سوف يجعل كلاً من مزودي الذكاء الاصطناعى وأولئك الذين ينفذون تقنيتهم ​​أكثر مسؤولية عن كيفية ومكان استخدامهم لموارد البيانات ودفعهم إلى وضع المستخدمين أمام الأرباح. يقول: "في نهاية اليوم ، يجب أن يحتاج مقدمو الذكاء الاصطناعى فقط لامتلاك الخوارزميات - وليس البيانات - لابتكار قدراتهم وحلولهم."

كيف gdpr سوف تؤثر على صناعة منظمة العفو الدولية | بن ديكسون