فك شفرة الحق في التفسير في الذكاء الاصطناعي
نشرت: 2020-10-31تم تضمين أحد أهم التطورات السياسية لتنظيم تطبيق الذكاء الاصطناعي في اللائحة العامة لحماية البيانات في عام 2018
تشبه إلى حد كبير مجموعة محركات الاحتراق الداخلي الموجودة اليوم ، فإن نماذج وخوارزميات الذكاء الاصطناعي من أنواع مختلفة بمستويات متفاوتة من التعقيد
عند اتخاذ القرارات ، لا يعلق الذكاء الاصطناعي المعنى ولا يصنف المعلومات الجديدة بنفس طريقة البشر
الذكاء الاصطناعي ، بالنسبة لمعظم الناس ، هو تقنية تعمل على تشغيل برامج الدردشة أو التعرف على الصور في أحسن الأحوال - في الأساس ، برنامج يخبر صور القطط من الكلاب. يرى آخرون أنه يمثل تهديدًا خطيرًا لوظائفهم اليومية العادية. بغض النظر عن تأثيره على حياتهم ، ينظر الناس إلى الذكاء الاصطناعي على أنه تقنية ذات إمكانات مستقبلية هائلة. بينما يثير مستقبل الذكاء الاصطناعي الرعب والخوف ، يظل تأثيره على الحاضر غير معترف به إلى حد كبير. من القائمة المختصرة إلى نشر الدعاية ، يعمل الذكاء الاصطناعي علينا بجد أكثر مما يعرفه معظمنا. الآثار كبيرة والقادة في جميع أنحاء العالم يستيقظون بسرعة.
من أجل الحصول على الإطار التنظيمي في ندوة AeroAstro Centennial بمعهد ماساتشوستس للتكنولوجيا ، قال إيلون ماسك : "إنني أميل بشكل متزايد إلى التفكير في أنه يجب أن يكون هناك بعض الإشراف التنظيمي ، ربما على المستويين الوطني والدولي ، فقط للتأكد من أننا لا نفعل شيئًا أحمق جدا. أعني بالذكاء الاصطناعي أننا نستدعي الشيطان. "
تم تضمين أحد أهم التطورات السياسية لتنظيم تطبيق الذكاء الاصطناعي في اللائحة العامة لحماية البيانات في عام 2018. وتنص المادة 22 ، بموجب القسم 4 من اللائحة العامة لحماية البيانات ، في جوهرها ، على أنه إذا تم رفض طلبك للحصول على وظيفة أو قرض أو جنسية بناءً على الدرجات لبرامج المعالجة الذكية المؤتمتة ، يحق لك طلب تفسير. يمكن أن يؤدي عدم الامتثال إلى دفع غرامة تصل إلى 20 مليون يورو أو 4٪ من حجم المبيعات السنوي العالمي للشركة. الفكرة هي القضاء على تنبؤات السلوك التمييزية والقوالب النمطية القائمة على البيانات. وهذا هو الحق في التفسير باختصار.
لماذا الحق في التفسير ضروري؟
تستند الدرجات المستخدمة لعمل التنبؤات إلى تقييم العديد من المتغيرات التي تبدو غير مرتبطة وعلاقاتها مع مجموعة من الخوارزميات. بدون تدخل بشري ، يمكن أن تكون النتائج غير منتظمة في بعض الأحيان. إذا لم يتم التحقق منها ، يمكن أن تمهد الطريق للصور النمطية للعصر الجديد وتغذي التحيزات الموجودة. بينما يعمل الذكاء الاصطناعي مع البيانات ، يمكن للبيانات نفسها أن تؤدي إلى فشل التحيز حتى في أقوى أنظمة الذكاء الاصطناعي.
على سبيل المثال ، يمكن أن يكون لرفض طلب الرهن العقاري من قبل نظام قائم على الذكاء الاصطناعي بعض التداعيات غير المقصودة. قد تتطابق خوارزمية التعلم الذاتي ، استنادًا إلى البيانات التاريخية ، مع العمر والرمز البريدي لمقدم الطلب مع مجموعة من الأشخاص الذين تخلفوا عن سداد قروضهم في الربع الأخير. أثناء القيام بذلك ، قد يتغاضى عن معايير مواتية معينة ، مثل جودة الأصول ، غائبة في البيانات التاريخية.
بدون تفسير صحيح ، يمكن أن يؤدي الرفض إلى اتخاذ إجراءات قانونية للقولبة والتمييز ، خاصة إذا كان الحي يضم أشخاصًا ينتمون في الغالب إلى مجموعة أقلية. لذلك ، باعتبارها تقنية لديها القدرة على اتخاذ القرارات نيابة عن البشر ، يحتاج الذكاء الاصطناعي إلى تحقيق الأخلاق والإنصاف والعدالة في التفاعلات البشرية. كحد أدنى ، يجب أن تفي بالأنواع التالية من العدالة:
موصى به لك:
- التوزيع - التوزيع العادل اجتماعيًا للموارد والفرص والمكافآت
- الإجرائية - عملية عادلة وشفافة للتوصل إلى نتيجة
- تفاعلي - يحتاج كل من العملية والنتيجة إلى معاملة الأشخاص المتضررين بكرامة واحترام
الحق في التفسير يغلق حلقة العدالة بالغة الأهمية في استخدام الذكاء الاصطناعي.
الذكاء الاصطناعي وتحديات حق الشرح
تشبه إلى حد كبير مجموعة محركات الاحتراق الداخلي الموجودة اليوم ، فإن نماذج وخوارزميات الذكاء الاصطناعي من أنواع مختلفة ومستويات متفاوتة من التعقيد. من السهل نسبيًا تفسير نتيجة النماذج الأبسط ، مثل الانحدار الخطي. المتغيرات المعنية ووزنها ومجموعاتها للوصول إلى درجة المخرجات معروفة.
تعمل الخوارزميات المعقدة مثل التعلم العميق ، بينما تسعى جاهدة لتحقيق دقة أكبر ، كصندوق أسود - ما يحدث في الداخل ، يبقى في الداخل. باستخدام الخوارزميات التي تتعلم بنفسها وتبني الأنماط ، يصعب تفسير سبب نتيجة معينة ، وذلك للأسباب التالية:
- المتغيرات التي تستخدمها الخوارزميات في الواقع غير معروفة
- لا يمكن حساب الأهمية / الوزن المرتبط بالمتغيرات بأثر رجعي
- لا تزال العديد من التركيبات والعلاقات الوسيطة بين المتغيرات غير معروفة
إذا كانت عمليات القبول في الجامعة مدعومة بالكامل من قبل الشبكات العصبية ، لكانت قد جعلت العملية غير واضحة مما هي عليه اليوم. إذا رفضت الحصول على مقعد في إحدى الجامعات الرائدة ، لأن خوارزميتها وجدت أن "خلفية" معينة ليست مناسبة بشكل مناسب ، فستتساءل عن أي جزء من "خلفيتك" يعمل ضدك. والأسوأ من ذلك أن لجنة القبول ستفشل في شرح ذلك لك. في دولة تكثر فيها التفاوتات الاجتماعية ، فإن الذكاء الاصطناعي الغامض هو آخر ما تطلبه الجامعات.
من ناحية أخرى ، من شأن الذكاء الاصطناعي الشفاف تمامًا أن يجعل الخوارزمية عرضة للتلاعب ويؤدي إلى اختطاف عملية القبول بأكملها. وبالتالي ، فإن الحق في التفسير يتعلق بتحقيق الذكاء الاصطناعي لدرجة الشفافية الصحيحة ؛ لا يمكن أن يكون شفافًا تمامًا ولا معتمًا.
الطريق الى الامام
عند اتخاذ القرارات ، لا يعلق الذكاء الاصطناعي المعنى ولا يصنف المعلومات الجديدة بنفس طريقة البشر. يعزز الأنماط الأكثر شيوعًا ويستبعد الحالات التي ليست في الأغلبية. أحد الحلول التقنية الممكنة التي يتم استكشافها بنشاط هو جعل الذكاء الاصطناعي قابلاً للتفسير. لا غنى عن الذكاء الاصطناعي القابل للتفسير (XAI) في حالات الاستخدام ذات الصلة عالية الخطورة والمخاطر ، مثل التشخيص الطبي حيث تكون الثقة جزءًا لا يتجزأ من الحل. بدون شفافية كافية في معالجتها الداخلية ، تفشل خوارزميات Blackbox في تقديم مستوى الثقة المطلوب لإنقاذ الحياة.
مع ترسيخ الهشاشة في بنيتها الأساسية - التكنولوجية والإحصائية على حد سواء - يحتاج الذكاء الاصطناعي إلى التنظيم. كما كتب سوندار بيتشاي في صحيفة فاينانشيال تايمز في وقت سابق من هذا العام ، " الآن ليس هناك شك في ذهني أن الذكاء الاصطناعي بحاجة إلى التنظيم. من المهم جدًا عدم القيام بذلك. السؤال الوحيد هو كيف نتعامل معها. "
يتطور الإطار القانوني المنظم للذكاء الاصطناعي وهو في حالة تغير مستمر في أجزاء مختلفة من العالم.
في الهند ، مع احتلال الحق في الخصوصية مركز الصدارة في النقاش الوطني قبل بضعة أشهر ، لسنا بعيدين عن قانون شامل ينظم الذكاء الاصطناعي. والجدير بالذكر أن ورقة مناقشة نشرتها NITI Aayog في يونيو 2018 تطرح الموضوع بتفصيل كبير. بمرور الوقت ، مع توسع مجال تأثير الذكاء الاصطناعي ، ستصبح القوانين ، استجابةً لذلك ، أكثر صرامة لتشمل المزيد من الأحكام.
مع تطور التكنولوجيا واكتشاف تطبيقاتها الجديدة ، هناك حاجة للتنظيم الذاتي من قبل الصناعة. تحتاج المنظمات إلى التركيز بشكل استباقي على تنفيذ XAI الذي يحافظ على الطبيعة البشرية للتفاعلات التي تقوم على الثقة والتفاهم. إذا لم يكن هناك شيء ، فسوف يمنع ذلك من خنق الابتكارات التي قد تغير الحياة من خلال ما يمكن أن يكون قوانين حماية حسنة النية. كما هو الحال مع معظم الأشياء في الحياة ، يكمن الحل في تحقيق التوازن الصحيح.