لماذا نستخدم نهج الإنسان في الحلقة (HITL) في التعلم الآلي؟
نشرت: 2022-07-20هل سمعت عن سيارة أوبر ذاتية القيادة التي صدمت وقتلت امرأة في ولاية أريزونا؟ في مناسبة أخرى ، أظهر حل التعرف على الوجه صورة لرجل بريء ملون كمجرم في نيوجيرسي ، وأظهرت أداة التوظيف التي تعتمد على الذكاء الاصطناعي في أمازون تحيزًا ضد المرشحات.
من الواضح أن الذكاء الاصطناعي يخطئ. أخطاء جسيمة ، بل ومُغيِّرة للحياة. إذن ، كيف لا يزال بإمكاننا الحصول على فوائد الذكاء الاصطناعي مع التخلص من هذا النوع من الأخطاء؟ أحد الخيارات هو السماح للخبراء البشريين بتدريب وتقييم ومراقبة حلول أعمال الذكاء الاصطناعي بعد النشر. يسمى هذا المفهوم التعلم الآلي للإنسان في الحلقة (HITL). تتوقع Gartner أنه في بعض الصناعات ، ستشكل حلول HITL AI حوالي 30 ٪ من جميع عروض الأتمتة بحلول عام 2025.
تحدثنا إلى خبير الذكاء الاصطناعي لدينا ، ماكسيم بوشوك ، لفهم كيفية تناسب البشر في الحلقة ، والفوائد التي يجلبونها ، وكيفية تنظيم هذه العملية.
تعريف الإنسان في الحلقة وفوائدها
أن تخطئ هو أمر بشري ، فالتعويض عن الأشياء الفاسدة يتطلب جهاز كمبيوتر.
- بول إيلريش ، طبيب ألماني وحائز على جائزة نوبل
الآن اقتباس Ehlrich أكثر أهمية من أي وقت مضى. مع معالجة الذكاء الاصطناعي للتطبيقات الهامة ، يصبح هامش الخطأ أقل حجماً. والآلات ليست مثالية. يبنون فهمهم للمهمة بناءً على بيانات التدريب المستلمة ، ويمكنهم وضع افتراضات خاطئة.
وهذا يأخذنا إلى مصطلحات التعلم الآلي للإنسان في الحلقة.
يعني الإنسان في الحلقة دمج الموظفين البشريين في خط أنابيب التعلم الآلي حتى يتمكنوا من تدريب النماذج والتحقق منها باستمرار. يشمل هذا جميع الأشخاص الذين يعملون مع النماذج وبيانات التدريب الخاصة بهم.
كيف يضيف الإنسان في الحلقة قيمة إلى خوارزميات التعلم الآلي الخاصة بك
يحافظ على مستوى عالٍ من الدقة. هذا مهم بشكل خاص للمجالات التي لا تتسامح مع الأخطاء. على سبيل المثال ، عند تصنيع معدات مهمة لطائرة ، نريد الأتمتة والسرعة ، لكن لا يمكننا تعريض السلامة للخطر. HITL مفيد في التطبيقات الأقل أهمية أيضًا. على سبيل المثال ، تقوم الشركات الاستشارية الكبيرة التي تعتمد بشكل كبير على الذكاء الاصطناعي للامتثال التنظيمي للوثائق بإشراك الإنسان في حلقة التعلم الآلي للتحقق من صحة خوارزميات معالجة اللغة الطبيعية.
يزيل التحيز. يمكن أن تصبح نماذج التعلم الآلي متحيزة أثناء التدريب. علاوة على ذلك ، يمكنهم الحصول على التحيز بعد النشر ، مع استمرارهم في التعلم. يمكن للموظفين البشريين اكتشاف هذه الظاهرة والقضاء عليها في مراحل مبكرة عن طريق تصحيح الخوارزمية وفقًا لذلك.
يضمن الشفافية. تقوم خوارزميات ML بتقييم الآلاف أو حتى الملايين من المعلمات لاتخاذ قرار نهائي ، وغالبًا لا يمكن تفسير ذلك. مع HITL ، هناك إنسان يفهم كيفية عمل الخوارزميات ويمكنه تبرير القرارات التي يتخذونها. وهذا ما يسمى بالذكاء الاصطناعي القابل للتفسير. على سبيل المثال ، عندما يتقدم شخص ما بطلب للحصول على قرض ويتم رفضه ، فقد يطلب من موظف القرض شرح السبب وراء الرفض وما يمكن لمقدم الطلب القيام به لزيادة فرصه في المرة القادمة.
يفتح فرص العمل. كثيرًا ما نسمع عن الذكاء الاصطناعي الذي يسرق وظائف الأشخاص. يقدم التعلم الآلي مع وجود إنسان في الحلقة مثالاً على كيف يمكن للتكنولوجيا أن تخلق وظائف شاغرة جديدة. مجرد إلقاء نظرة على سوق شروح البيانات الهندية.
دور البشر في خط أنابيب الذكاء الاصطناعي
ماكسيم يشرح كيف يمكن للبشر أن يكونوا جزءًا من خط أنابيب الذكاء الاصطناعي لتعزيز قدرته على عمل التنبؤات. تعمل نماذج التعلم الآلي إما في ظل أوضاع تعلم خاضعة للإشراف أو غير خاضعة للإشراف. في حالة التعلم الخاضع للإشراف ، يمكن للأشخاص أداء المهام التالية:
- وضع العلامات والشرح. يقوم موظف بشري بتسمية مجموعة بيانات التدريب. اعتمادًا على الخبرة المطلوبة ، يمكن أن يكون هذا خبيرًا في المجال أو أي موظف لديه تدريب مناسب.
- إعادة هندسة النموذج. إذا لزم الأمر ، يمكن لمهندسي ومبرمجي التعلم الآلي إجراء تعديلات على الخوارزمية للتأكد من أنها يمكن أن تحقق أقصى استفادة من مجموعة البيانات المتوفرة.
- التدريب واعادة التدريب. يقوم الموظفون بتغذية النموذج بالبيانات المشروحة وعرض المخرجات وإجراء التصحيحات وإضافة المزيد من البيانات إن أمكن وإعادة تدريب النموذج.
- مراقبة أداء النموذج بعد النشر. لا تتوقف دورة حياة التعلم الآلي للإنسان في الحلقة بعد نشر حل الذكاء الاصطناعي في مقر العميل. يواصل مهندسو ML مراقبة أدائها بموافقة العميل وإجراء تعديلات على النموذج عند الحاجة من خلال التحقق الانتقائي من مخرجاته. ستعمل الحالات التي تم الحصول عليها من خلال التحقق الانتقائي على زيادة مجموعة بيانات التدريب الأولية لتحسين أداء الخوارزمية.
في التعلم الآلي غير الخاضع للإشراف ، تأخذ الخوارزميات البيانات غير المسماة كمدخلات وتجد بنية بمفردها. في هذه الحالة ، لا يعلق البشر على مجموعة البيانات ولا يتدخلون كثيرًا في التدريب الأولي. لكن يمكنهم إثراء النموذج بشكل كبير من خلال تنفيذ الخطوة 4 أعلاه.
عندما يكون الإنسان في حلقة التعلم الآلي هو ضرورة مطلقة
يعتقد ماكسيم أن نهج الإنسان في الحلقة مفيد لمعظم حالات استخدام التعلم الآلي. تعد حلول الذكاء الاصطناعي مثيرة للإعجاب في إجراء التنبؤات المثلى عند تدريبها على مجموعات بيانات كبيرة واسعة النطاق ، بينما يمكن للبشر التعرف على الأنماط من الإمداد المحدود لعينات البيانات منخفضة الجودة. يمكن أن يؤدي الجمع بين كلتا الإمكانيات معًا إلى إنشاء نظام قوي. على الرغم من أن نماذج ML في بعض التطبيقات يمكن أن تعمل بشكل جيد مع تدخل بشري محدود ، إلا أن هناك حالات يكون فيها الإنسان الكامل في نظام الحلقة أمرًا ضروريًا:
- عندما يكون أي خطأ من قبل الخوارزمية يمكن أن يكون مكلفًا للغاية ، كما هو الحال في التشخيص الطبي.
- عندما تكون البيانات التي تحتاجها لتدريب الخوارزمية بشكل صحيح نادرة. المزيد من بيانات التدريب تعني دائمًا أداء نموذج أفضل. بمساعدة مراقبة نموذج ما بعد الإنتاج ، يمكنك زيادة بيانات التدريب بالعينات ذات الصلة ، وإعطاء النموذج المزيد من الأمثلة للتعلم منها.
- في حالة التعلم بلقطة واحدة عندما يتم تدريب الخوارزمية على مئات أو حتى آلاف العينات لتصنيف بعض الكائنات. ثم يضاف فصل آخر ، ويتعين على الخوارزمية أن تتعلم التعرف عليه من خلال عينات تدريب قليلة فقط.
- في الصناعات شديدة التنظيم حيث من الضروري شرح كيفية وصول الخوارزميات إلى استنتاجاتها. على سبيل المثال ، عندما يستخدم الأطباء الذكاء الاصطناعي لاقتراح علاجات مخصصة للسرطان ، فإنهم بحاجة إلى تبرير خطة العلاج هذه للمريض.
عند النظر إلى نوع البيانات التي تعالجها خوارزميات ML ، سيكون HITL AI ضروريًا لتطبيقات رؤية الكمبيوتر ومعالجة اللغة الطبيعية (NLP) ، خاصةً عندما يتعلق الأمر بتحليل المشاعر لنص قد يحتوي على سخرية. HITL أقل أهمية بالنسبة للبيانات الجدولية وتحليل السلاسل الزمنية.
نصائح حول تعزيز الذكاء الاصطناعي مع ممارسات الإنسان في الحلقة
يقدم Maksym النصائح التالية حول كيفية تنفيذ نهج الإنسان في الحلقة في التعلم الآلي بنجاح:
- عند مراقبة وتحليل أداء الخوارزمية بعد النشر ، بغض النظر عن مدى جودة الإنسان في نظام الحلقة ، لن يتمكن المشاركون البشريون من الانتباه إلى كل مدخلات عمليات الخوارزمية وكل ناتج تولده. اختر حالاتك بحكمة. استخدم التحقق الانتقائي لاختيار الحالات التي تستحق اهتمامك. يقترح ماكسيم هذه الأساليب لاختيار الحالات الذكية:
- بناء على مستويات الثقة. على سبيل المثال ، تحتاج الخوارزمية إلى تصنيف كل صورة إدخال إما على أنها قطة أو كلب. الصور التي تحصل على مستوى ثقة يبلغ حوالي 48/52 أو أي شيء مشابه هي تلك التي تخلط بين الخوارزميات وتحتاج إلى تصنيفها بشكل صحيح واستخدامها لإعادة تدريب النموذج.
- التحقق العشوائي من الحالات "التافهة". لنفترض أن حالة واحدة فقط من كل عشر حالات تحتوي على معلومات قيمة عندما يتعلق الأمر بأداء الخوارزمية. مثال على مثل هذه الحالة هو عندما يكون النموذج مفرط الثقة بشأن التنبؤ الخاطئ. يجب أن تفكر بالتأكيد في هذه الحالة ، ولكنك تحتاج أيضًا إلى اختيار واحد عشوائيًا من الحالات التسع المتبقية للتأكد من أن الخوارزمية لا تزداد ثقةً بتنبؤاتها الخاطئة أو تسمح بالتحيز.
- عند تحليل الحالات التي اخترتها في الخطوة السابقة ، لا تقصر نفسك على النتيجة النهائية. بدلاً من النظر إلى ناتج المجموعة النهائية من الخلايا العصبية في الشبكات العصبية ، تحقق من الطبقة السابقة ، كما في الصورة أدناه ، وقم بتحليل توزيع المسافات بين التنبؤ الخاطئ وأقرب التنبؤات الصحيحة التي تقوم بها الخوارزمية.
- شجع المستخدمين النهائيين للخوارزمية على تقديم ملاحظات حول أدائها. قم ببناء نماذج التعليقات وإتاحتها للجميع ، بحيث يمكن للمستخدمين نقل أي مخاوف قد تكون لديهم.
- استمر في زيادة مجموعة بيانات التدريب بشكل متكرر باستخدام نقاط البيانات من الخطوات السابقة. بهذه الطريقة ، ستكون متأكدًا من أن الخوارزمية الخاصة بك تظل ذات صلة حتى عند حدوث بعض التغييرات في عمليات العميل.
أدوات الذكاء الاصطناعي التي تدعم HITL الجاهزة للاستخدام
هناك بعض الأدوات البشرية الجاهزة في حلقة التعلم الآلي التي تسمح لك بتسمية مجموعات بيانات التدريب والتحقق من النتيجة. ومع ذلك ، قد لا تتمكن من تنفيذ النصائح المذكورة أعلاه باستخدام هذه الأدوات الموحدة. فيما يلي بعض الأمثلة على أداة الإنسان في الحلقة الحلقية:
جوجل كلاود HITL
يوفر هذا الحل سير عمل وواجهة مستخدم (UI) يمكن للأشخاص استخدامها لتسمية البيانات المستخرجة من المستندات ومراجعتها وتحريرها. يمكن للشركة العميلة إما استخدام موظفيها كمصنّفات أو يمكنها توظيف فريق عمل Google HITL لإنجاز المهمة.
تحتوي الأداة على ميزات معينة لواجهة المستخدم لتبسيط سير عمل أدوات الملصقات وتصفية المخرجات بناءً على حد الثقة. كما يسمح للشركات بإدارة مجموعة ملصقات العلامات الخاصة بهم.
الذكاء الاصطناعي المعزز من أمازون (Amazon A2I)
تسمح أداة الذكاء الاصطناعي البشري في الحلقة للأشخاص بمراجعة تنبؤات ML ذات الثقة المنخفضة والتنبؤات العشوائية. على عكس Google Cloud HITL ، الذي يعمل فقط على النص ، يمكن أن تكمل Amazon A2I التعرف على Amazon لاستخراج الصور والتحقق من النتائج. يمكن أن يساعد أيضًا في مراجعة البيانات المجدولة.
إذا لم يكن العميل سعيدًا بسير عمل A2I المقدم ، فيمكنه تطوير أسلوبه الخاص باستخدام SageMaker أو أداة مماثلة.
داتا روبوت متواضع AI
يسمح الذكاء الاصطناعي المتواضع للأشخاص بتحديد مجموعة من القواعد التي يتعين على نماذج ML تطبيقها أثناء إجراء التنبؤات. تتضمن كل قاعدة شرطًا وإجراءً مقابلًا. حاليًا ، هناك ثلاثة إجراءات:
- لا توجد عملية ، عندما يقوم البشر فقط بمراقبة الحالة المقابلة دون التدخل
- تجاوز التنبؤ ، عندما يمكن للأشخاص استبدال مخرجات النموذج بقيمة مختلفة
- إرجاع الخطأ ، ببساطة تجاهل التنبؤ تمامًا
إذن ، هل التعلم الآلي مع وجود إنسان في الحلقة هو أفضل نهج بالنسبة لك؟
يؤدي توظيف الإنسان في حلقة الذكاء الاصطناعي إلى تحسين الدقة والشفافية وجودة التنبؤات. كما أنه يزيد من التكاليف والوقت اللازمين لإكمال المهمة بسبب التدخل البشري أثناء خلق فرص العمل ، وهو أحد الآثار الجانبية الإيجابية.
على الرغم من الفوائد الواضحة لـ HITL AI ، هناك تطبيقات يكون فيها الإنسان خارج الحلقة هو النهج المفضل بسبب المخاطر المرتبطة ببعض الأنشطة. فكر في تطوير الأسلحة المستقلة ونشرها.
إذا كنت تشعر أن خوارزميات ML الخاصة بك يمكنها استخدام الإنسان في الحلقة ، لكنك لست متأكدًا من كيفية موازنة التكاليف التشغيلية والدقة المطلوبة وإمكانية الشرح ، فتواصل مع مستشاري التعلم الآلي. سيعملون معك للعثور على الشكل المناسب. إذا لم يكن التعلم الآلي البشري في الحلقة هو الحل الأمثل في حالتك ، فهناك حيل أخرى للتعلم الآلي يمكن أن تساعدك في التغلب على مشكلة ندرة بيانات التدريب:
- نقل التعلم ، عندما تقوم بضبط النماذج المدربة مسبقًا باستخدام بياناتك الخاصة
- التعلم شبه الخاضع للإشراف ، عندما تستخدم مجموعة بيانات كبيرة غير مسماة مع عدد صغير من العينات المصنفة
- التعلم تحت الإشراف الذاتي ، عندما تقوم بإخفاء جزء عشوائي من عينة التدريب في كل دفعة وتحاول الخوارزمية التنبؤ به
هل تفكر في تحسين دقة نموذج ML وإمكانية شرحه؟ ابقى على تواصل! سيدرس خبراء ITRex AI وضعك ويبتكرون نهج الإنسان الأمثل في الحلقة لتلبية احتياجاتك.
نُشر في الأصل على https://itrexgroup.com في 17 يوليو 2022.