เหตุใดจึงต้องใช้แนวทาง Human in the Loop (HITL) ในการเรียนรู้ของเครื่อง
เผยแพร่แล้ว: 2022-07-20คุณเคยได้ยินเกี่ยวกับรถ Uber ที่ขับด้วยตนเองซึ่งชนและฆ่าผู้หญิงคนหนึ่งในรัฐแอริโซนาหรือไม่? ในอีกโอกาสหนึ่ง โซลูชันการจดจำใบหน้าระบุว่าชายผู้บริสุทธิ์ที่มีผิวสีเป็นอาชญากรในรัฐนิวเจอร์ซีย์ และเครื่องมือสรรหาบุคลากรที่ขับเคลื่อนด้วย AI ของ Amazon แสดงความลำเอียงต่อผู้สมัครที่เป็นผู้หญิง
เห็นได้ชัดว่าปัญญาประดิษฐ์ทำผิดพลาด ข้อผิดพลาดที่สำคัญแม้กระทั่งการเปลี่ยนแปลงชีวิต แล้วเราจะยังได้รับประโยชน์จาก AI ในขณะที่ขจัดข้อผิดพลาดประเภทนี้ได้อย่างไร ทางเลือกหนึ่งคือการให้ผู้เชี่ยวชาญที่เป็นมนุษย์ฝึกฝน ประเมิน และตรวจสอบโซลูชันธุรกิจ AI หลังจากปรับใช้ แนวคิดนี้เรียกว่าการเรียนรู้ด้วยเครื่องของมนุษย์ในวง (HITL) Gartner คาดการณ์ว่าในบางอุตสาหกรรม โซลูชัน HITL AI จะประกอบด้วยระบบอัตโนมัติทั้งหมดประมาณ 30% ภายในปี 2568
เราได้พูดคุยกับ Maksym Bochok ผู้เชี่ยวชาญด้าน AI เพื่อทำความเข้าใจว่ามนุษย์มีความเกี่ยวข้องอย่างไร ประโยชน์ที่พวกเขานำมา และวิธีจัดระเบียบกระบวนการนี้
นิยามและประโยชน์ของมนุษย์ในวงกว้าง
การทำผิดพลาดคือมนุษย์ การทำผิดจริง ๆ ต้องใช้คอมพิวเตอร์
–Paul Ehlrich แพทย์ชาวเยอรมันและผู้ได้รับรางวัลโนเบล
ตอนนี้คำพูดของ Ehlrich มีความเกี่ยวข้องมากกว่าที่เคย ด้วย AI ที่จัดการแอปพลิเคชันที่สำคัญ ระยะขอบสำหรับข้อผิดพลาดจะบางลง และเครื่องจักรไม่สมบูรณ์แบบ พวกเขาสร้างความเข้าใจในงานตามข้อมูลการฝึกอบรมที่ได้รับ และสามารถตั้งสมมติฐานที่ผิดพลาดได้
และสิ่งนี้นำเราไปสู่คำศัพท์การเรียนรู้ของเครื่องที่มนุษย์อยู่ในวง
Human in the loop หมายถึงการรวมพนักงานที่เป็นมนุษย์เข้ากับไปป์ไลน์แมชชีนเลิร์นนิงเพื่อให้พวกเขาสามารถฝึกฝนและตรวจสอบโมเดลได้อย่างต่อเนื่อง ซึ่งรวมถึงทุกคนที่ทำงานกับโมเดลและข้อมูลการฝึกอบรมของพวกเขา
วิธีที่มนุษย์ในวงรอบเพิ่มมูลค่าให้กับอัลกอริธึมแมชชีนเลิร์นนิงของคุณ
รักษาระดับความเที่ยงตรงสูง นี่เป็นสิ่งสำคัญอย่างยิ่งสำหรับโดเมนที่ไม่สามารถทนต่อข้อผิดพลาดได้ ตัวอย่างเช่น เมื่อผลิตอุปกรณ์ที่สำคัญสำหรับเครื่องบิน เราต้องการระบบอัตโนมัติและความเร็ว แต่เราไม่สามารถเสี่ยงต่อความปลอดภัยได้ HITL มีประโยชน์ในการใช้งานที่มีความสำคัญน้อยกว่าเช่นกัน ตัวอย่างเช่น บริษัทที่ปรึกษาขนาดใหญ่ที่พึ่งพา AI อย่างมากในการปฏิบัติตามกฎระเบียบของเอกสาร เกี่ยวข้องกับมนุษย์ในการเรียนรู้เครื่องจักรแบบวนซ้ำเพื่อตรวจสอบอัลกอริธึมการประมวลผลภาษาธรรมชาติของพวกเขา
ขจัดความลำเอียง โมเดลแมชชีนเลิร์นนิงอาจมีอคติระหว่างการฝึก ยิ่งไปกว่านั้น พวกเขาสามารถได้รับอคติหลังจากการปรับใช้ เนื่องจากพวกเขาเรียนรู้ต่อไป พนักงานที่เป็นมนุษย์สามารถตรวจจับและขจัดปรากฏการณ์นี้ได้ในระยะแรกโดยแก้ไขอัลกอริทึมให้เหมาะสม
รับรองความโปร่งใส อัลกอริธึม ML ประเมินพารามิเตอร์หลายพันหรือล้านตัวเพื่อตัดสินใจขั้นสุดท้าย และมักจะอธิบายไม่ได้ ด้วย HITL มีมนุษย์คนหนึ่งที่เข้าใจวิธีการทำงานของอัลกอริธึมและสามารถปรับการตัดสินใจที่พวกเขาทำ สิ่งนี้เรียกว่า AI ที่อธิบายได้ ตัวอย่างเช่น เมื่อบุคคลยื่นขอสินเชื่อและถูกปฏิเสธ พวกเขาอาจขอให้เจ้าหน้าที่สินเชื่ออธิบายเหตุผลเบื้องหลังการปฏิเสธและสิ่งที่ผู้สมัครสามารถทำได้เพื่อเพิ่มโอกาสในครั้งต่อไป
เปิดโอกาสการจ้างงาน เรามักได้ยินเกี่ยวกับ AI ที่ขโมยงานของผู้คน แมชชีนเลิร์นนิงกับมนุษย์ในวงกว้างแสดงตัวอย่างว่าเทคโนโลยีสามารถสร้างตำแหน่งงานว่างใหม่ได้อย่างไร เพียงแค่ดูที่ตลาดผู้ทำหมายเหตุประกอบข้อมูลของอินเดีย
บทบาทของมนุษย์ในไปป์ไลน์ AI
Maksym อธิบายว่ามนุษย์สามารถเป็นส่วนหนึ่งของไปป์ไลน์ AI เพื่อเพิ่มความสามารถในการทำนายได้อย่างไร โมเดลแมชชีนเลิร์นนิงทำงานภายใต้โหมดการเรียนรู้ภายใต้การดูแลหรือไม่มีผู้ดูแล ในกรณีของการเรียนรู้ภายใต้การดูแล ผู้คนสามารถทำงานต่อไปนี้:
- การติดฉลากและคำอธิบายประกอบ พนักงานที่เป็นมนุษย์ติดป้ายกำกับชุดข้อมูลการฝึกอบรม อาจเป็นผู้เชี่ยวชาญโดเมนหรือพนักงานที่ได้รับการฝึกอบรมที่เหมาะสม ทั้งนี้ขึ้นอยู่กับความเชี่ยวชาญที่จำเป็น
- ปรับวิศวกรรมโมเดลใหม่ หากจำเป็น วิศวกรและโปรแกรมเมอร์ของ ML สามารถปรับเปลี่ยนอัลกอริธึมเพื่อให้แน่ใจว่าจะได้รับประโยชน์สูงสุดจากชุดข้อมูลที่มีให้
- การฝึกอบรมและการฝึกอบรมซ้ำ พนักงานป้อนโมเดลด้วยข้อมูลที่มีคำอธิบายประกอบ ดูผลลัพธ์ ทำการแก้ไข เพิ่มข้อมูลถ้าเป็นไปได้ และฝึกอบรมโมเดลอีกครั้ง
- การตรวจสอบประสิทธิภาพของโมเดลหลังการปรับใช้ มนุษย์ในวงจรชีวิตการเรียนรู้ของเครื่องแบบวนรอบไม่หยุดหลังจากปรับใช้โซลูชัน AI ในสถานที่ของลูกค้า วิศวกร ML ยังคงตรวจสอบประสิทธิภาพอย่างต่อเนื่องโดยได้รับความยินยอมจากลูกค้าและทำการปรับเปลี่ยนแบบจำลองเมื่อจำเป็นผ่านการตรวจสอบคัดเลือกของผลลัพธ์ กรณีที่ได้รับผ่านการตรวจสอบแบบคัดเลือกจะเสริมชุดข้อมูลการฝึกอบรมเบื้องต้นเพื่อปรับปรุงประสิทธิภาพของอัลกอริธึม
ในแมชชีนเลิร์นนิงที่ไม่มีผู้ดูแล อัลกอริทึมจะรับข้อมูลที่ไม่มีป้ายกำกับเป็นอินพุตและค้นหาโครงสร้างด้วยตนเอง ในกรณีนี้ มนุษย์จะไม่ใส่คำอธิบายประกอบชุดข้อมูลและไม่รบกวนมากนักในการฝึกครั้งแรก แต่สามารถเสริมสร้างโมเดลได้อย่างมากโดยทำตามขั้นตอนที่ 4 ด้านบน
เมื่อมนุษย์ในการเรียนรู้เครื่องจักรแบบวนซ้ำเป็นสิ่งจำเป็นอย่างยิ่ง
Maksym เชื่อว่ามนุษย์ในแนวทางลูปจะเป็นประโยชน์สำหรับกรณีการใช้งานแมชชีนเลิร์นนิงส่วนใหญ่ โซลูชัน AI นั้นน่าประทับใจในการคาดการณ์ที่เหมาะสมที่สุดเมื่อฝึกกับชุดข้อมูลขนาดใหญ่ ในขณะที่มนุษย์สามารถรับรู้รูปแบบจากตัวอย่างข้อมูลคุณภาพต่ำที่มีให้อย่างจำกัด การรวมความสามารถทั้งสองเข้าด้วยกันสามารถสร้างระบบที่ทรงพลังได้ แม้ว่าในบางแอปพลิเคชัน โมเดล ML สามารถทำได้ดีโดยมีการแทรกแซงของมนุษย์อย่างจำกัด แต่ก็มีบางกรณีที่ต้องมีมนุษย์เต็มเป่าในระบบวนซ้ำ:
- เมื่อมีข้อผิดพลาดใด ๆ โดยอัลกอริทึมอาจมีราคาแพงมาก เช่น ในการวินิจฉัยทางการแพทย์
- เมื่อข้อมูลที่คุณต้องการฝึกฝนอย่างถูกต้อง อัลกอริทึมนั้นหายาก ข้อมูลการฝึกอบรมเพิ่มเติมจะเท่ากับประสิทธิภาพของโมเดลที่ดีขึ้นเสมอ ด้วยความช่วยเหลือของการตรวจสอบแบบจำลองหลังการผลิต คุณสามารถเพิ่มข้อมูลการฝึกอบรมด้วยตัวอย่างที่เกี่ยวข้อง ให้ตัวอย่างเพิ่มเติมเพื่อเรียนรู้จากแบบจำลอง
- ในกรณีของการเรียนรู้แบบครั้งเดียวเมื่ออัลกอริทึมได้รับการฝึกอบรมเกี่ยวกับตัวอย่างหลายร้อยหรือหลายพันตัวอย่างเพื่อจำแนกวัตถุบางอย่าง จากนั้นมีการเพิ่มคลาสอื่นและอัลกอริทึมต้องเรียนรู้ที่จะระบุจากตัวอย่างการฝึกอบรมเพียงไม่กี่ตัวอย่าง
- ในอุตสาหกรรมที่มีการควบคุมอย่างเข้มงวด ซึ่งจำเป็นต้องอธิบายว่าอัลกอริธึมบรรลุข้อสรุปได้อย่างไร ตัวอย่างเช่น เมื่อแพทย์ใช้ AI เพื่อแนะนำการรักษามะเร็งเฉพาะบุคคล พวกเขาจำเป็นต้องปรับแผนการรักษานี้ให้กับผู้ป่วย
เมื่อดูประเภทข้อมูลที่ประมวลผลด้วยอัลกอริธึม HITL AI จะมีความจำเป็นสำหรับแอปพลิเคชันวิทัศน์คอมพิวเตอร์และการประมวลผลภาษาธรรมชาติ (NLP) โดยเฉพาะอย่างยิ่งเมื่อต้องวิเคราะห์ความรู้สึกของข้อความที่อาจมีการเสียดสี HITL มีความสำคัญน้อยกว่าสำหรับข้อมูลแบบตารางและการวิเคราะห์อนุกรมเวลา
เคล็ดลับในการเสริมปัญญาประดิษฐ์กับมนุษย์ในแนวปฏิบัติ
Maksym เสนอเคล็ดลับต่อไปนี้เกี่ยวกับวิธีการนำมนุษย์ไปใช้ในลูปให้ประสบความสำเร็จในการเรียนรู้ของเครื่อง:
- เมื่อตรวจสอบและวิเคราะห์ประสิทธิภาพของอัลกอริธึมหลังการใช้งาน ไม่ว่ามนุษย์ในระบบลูปจะดีเพียงใด ผู้เข้าร่วมที่เป็นมนุษย์จะไม่สามารถให้ความสนใจกับทุกอินพุตของกระบวนการอัลกอริทึมและทุกเอาต์พุตที่สร้างขึ้น เลือกกรณีของคุณอย่างชาญฉลาด ใช้การตรวจสอบแบบคัดเลือกเพื่อเลือกกรณีที่คุณควรให้ความสนใจ Maksym แนะนำแนวทางเหล่านี้ในการเลือกเคสอัจฉริยะ:
- ขึ้นอยู่กับระดับความมั่นใจ ตัวอย่างเช่น อัลกอริธึมจำเป็นต้องจำแนกทุกภาพที่ป้อนเข้า ไม่ว่าจะเป็นแมวหรือสุนัข ภาพที่ได้รับระดับความมั่นใจประมาณ 48/52 หรือสิ่งที่คล้ายกันเป็นภาพที่สร้างความสับสนให้กับอัลกอริธึมและจำเป็นต้องติดป้ายกำกับอย่างเหมาะสมและใช้เพื่อฝึกโมเดลใหม่
- สุ่มตรวจสอบกรณี "เล็กน้อย" สมมติว่ามีเพียงหนึ่งในสิบกรณีเท่านั้นที่มีข้อมูลที่มีค่าเมื่อพูดถึงประสิทธิภาพของอัลกอริธึม ตัวอย่างของกรณีดังกล่าวคือเมื่อตัวแบบมีความมั่นใจมากเกินไปเกี่ยวกับการคาดคะเนที่ผิด คุณควรพิจารณากรณีนี้อย่างแน่นอน แต่คุณต้องสุ่มเลือกหนึ่งในเก้ากรณีที่เหลือเพื่อให้แน่ใจว่าอัลกอริทึมจะไม่เกิดความมั่นใจมากเกินไปกับการคาดคะเนที่ผิดหรือยอมให้มีอคติ
- เมื่อวิเคราะห์กรณีต่างๆ ที่คุณเลือกในขั้นตอนก่อนหน้า อย่าจำกัดตัวเองให้อยู่ที่ผลลัพธ์สุดท้าย แทนที่จะดูผลลัพธ์ของเซลล์ประสาทชุดสุดท้ายในโครงข่ายประสาทเทียม ให้ตรวจสอบเลเยอร์ก่อนหน้า เช่นในภาพด้านล่าง และวิเคราะห์การกระจายของระยะทางระหว่างการคาดคะเนที่ผิดและการทำนายที่ถูกต้องใกล้เคียงที่สุดที่อัลกอริธึมทำ
- ส่งเสริมให้ผู้ใช้ปลายทางของอัลกอริทึมแสดงความคิดเห็นเกี่ยวกับประสิทธิภาพของอัลกอริทึม สร้างแบบฟอร์มคำติชมและทำให้ทุกคนใช้งานได้ เพื่อให้ผู้ใช้สามารถแจ้งข้อกังวลใดๆ ที่พวกเขาอาจมีได้
- เพิ่มชุดข้อมูลการฝึกอบรมซ้ำๆ โดยใช้จุดข้อมูลจากขั้นตอนก่อนหน้า ด้วยวิธีนี้ คุณจะมั่นใจได้ว่าอัลกอริธึมของคุณยังคงมีความเกี่ยวข้อง แม้ว่าการเปลี่ยนแปลงบางอย่างจะเกิดขึ้นที่การดำเนินงานของลูกค้า
เครื่องมือ AI ที่เปิดใช้งาน HITL ที่มีจำหน่ายทั่วไป
มีมนุษย์สำเร็จรูปบางส่วนในเครื่องมือการเรียนรู้ของเครื่องแบบวนรอบที่ให้คุณติดป้ายกำกับชุดข้อมูลการฝึกอบรมและตรวจสอบผลลัพธ์ได้ อย่างไรก็ตาม คุณอาจใช้คำแนะนำข้างต้นกับเครื่องมือมาตรฐานเหล่านี้ไม่ได้ ต่อไปนี้คือตัวอย่างมนุษย์บางส่วนในเครื่องมือลูป:
Google Cloud HITL
โซลูชันนี้มีเวิร์กโฟลว์และอินเทอร์เฟซผู้ใช้ (UI) ที่ผู้ใช้สามารถใช้เพื่อติดป้ายกำกับ ตรวจสอบ และแก้ไขข้อมูลที่ดึงมาจากเอกสาร บริษัทลูกค้าสามารถใช้พนักงานของตนเองเป็นผู้ติดฉลากหรือจ้างพนักงาน Google HITL ให้ทำงานให้สำเร็จได้
เครื่องมือนี้มีคุณสมบัติ UI บางอย่างเพื่อปรับปรุงเวิร์กโฟลว์ของผู้ติดฉลากและกรองเอาต์พุตตามเกณฑ์ความเชื่อมั่น นอกจากนี้ยังช่วยให้บริษัทต่างๆ สามารถจัดการกลุ่มผู้ติดฉลากได้
AI เสริมของ Amazon (Amazon A2I)
เครื่องมือปัญญาประดิษฐ์ของมนุษย์ในวงนี้ช่วยให้ผู้คนตรวจสอบการคาดการณ์ ML ที่มีความมั่นใจต่ำและสุ่มได้ ไม่เหมือนกับ Google Cloud HITL ซึ่งทำงานเฉพาะกับข้อความเท่านั้น Amazon A2I สามารถเสริม Amazon Recognition เพื่อดึงภาพและตรวจสอบผลลัพธ์ได้ นอกจากนี้ยังสามารถช่วยตรวจสอบข้อมูลแบบตารางได้อีกด้วย
หากลูกค้าไม่พอใจกับเวิร์กโฟลว์ A2I ที่ให้มา พวกเขาสามารถพัฒนาแนวทางของตนเองด้วย SageMaker หรือเครื่องมือที่คล้ายกัน
DataRobot Humble AI
AI ที่อ่อนน้อมถ่อมตนอนุญาตให้ผู้คนระบุชุดของกฎที่โมเดล ML ต้องใช้ขณะคาดการณ์ ทุกกฎมีเงื่อนไขและการดำเนินการที่เกี่ยวข้อง ปัจจุบันมีสามการกระทำ:
- ไม่มีการดำเนินการเมื่อมนุษย์เพียงแค่ตรวจสอบสภาพที่สอดคล้องกันโดยไม่รบกวน
- เหนือกว่าการคาดคะเน เมื่อผู้คนสามารถแทนที่ผลลัพธ์ของแบบจำลองด้วยค่าอื่นได้
- ส่งกลับข้อผิดพลาดเพียงแค่ละทิ้งการทำนายทั้งหมด
ดังนั้นแมชชีนเลิร์นนิงกับมนุษย์ในวงจึงเป็นแนวทางที่ดีที่สุดสำหรับคุณหรือไม่
การใช้แนวทาง AI ของมนุษย์ในวงจะช่วยปรับปรุงความแม่นยำ ความโปร่งใส และคุณภาพของการคาดคะเน นอกจากนี้ยังเพิ่มค่าใช้จ่ายและเวลาที่จำเป็นในการทำงานให้เสร็จสมบูรณ์เนื่องจากการแทรกแซงของมนุษย์ในขณะเดียวกันก็สร้างโอกาสในการจ้างงานซึ่งเป็นผลข้างเคียงในเชิงบวก
แม้จะมีประโยชน์ที่ชัดเจนของ HITL AI แต่ก็มีแอปพลิเคชั่นที่มนุษย์ไม่อยู่ในวงกว้างเป็นแนวทางที่ต้องการเนื่องจากความเสี่ยงที่เกี่ยวข้องกับกิจกรรมบางอย่าง นึกถึงการพัฒนาและปรับใช้อาวุธอัตโนมัติ
หากคุณรู้สึกว่าอัลกอริธึม ML ของคุณสามารถใช้มนุษย์ในวงได้ แต่คุณไม่แน่ใจว่าจะปรับสมดุลค่าใช้จ่ายในการดำเนินงานและความแม่นยำที่ต้องการและอธิบายได้อย่างไร โปรดติดต่อที่ปรึกษาด้านการเรียนรู้ของเครื่อง พวกเขาจะทำงานร่วมกับคุณเพื่อค้นหาสิ่งที่เหมาะสม หากการเรียนรู้ด้วยเครื่องมนุษย์ในลูปไม่ใช่ทางออกที่ดีที่สุดในกรณีของคุณ มีเทคนิค ML อื่นๆ ที่สามารถช่วยคุณเอาชนะปัญหาการขาดแคลนข้อมูลการฝึกได้:
- โอนย้ายการเรียนรู้ เมื่อคุณปรับแต่งโมเดลที่ฝึกไว้ล่วงหน้าด้วยข้อมูลของคุณเอง
- การเรียนรู้กึ่งควบคุม เมื่อคุณใช้ชุดข้อมูลขนาดใหญ่ที่ไม่มีป้ายกำกับร่วมกับตัวอย่างที่มีป้ายกำกับจำนวนน้อย
- Self-supervised learning เมื่อคุณปิดบังส่วนหนึ่งของตัวอย่างการฝึกอบรมในแต่ละชุดและอัลกอริทึมจะพยายามทำนาย
คุณกำลังพิจารณาที่จะปรับปรุงความแม่นยำและความสามารถในการอธิบายของแบบจำลอง ML ของคุณหรือไม่? ได้รับการติดต่อ! ผู้เชี่ยวชาญของ ITRex AI จะศึกษาสถานการณ์ของคุณและคิดค้นวิธีการแบบวนรอบเพื่อจัดการกับความต้องการของคุณ
เผยแพร่ครั้งแรกที่ https://itrexgroup.com เมื่อวันที่ 17 กรกฎาคม 2022