การถอดรหัสสิทธิ์ในการอธิบายในปัญญาประดิษฐ์
เผยแพร่แล้ว: 2020-10-31การพัฒนานโยบายที่สำคัญที่สุดอย่างหนึ่งในการควบคุมการใช้ AI ได้รวมอยู่ใน GDPR ในปี 2018
เช่นเดียวกับเครื่องยนต์สันดาปภายในที่มีอยู่ในปัจจุบัน โมเดล AI และอัลกอริธึมมีหลายประเภทและมีระดับความซับซ้อนต่างกัน
ในการตัดสินใจ AI จะไม่แนบความหมายและจัดหมวดหมู่ข้อมูลใหม่ในลักษณะเดียวกับมนุษย์
ปัญญาประดิษฐ์สำหรับคนส่วนใหญ่เป็นเทคโนโลยีที่ขับเคลื่อนแชทบอทหรือการจดจำรูปภาพได้ดีที่สุด โดยพื้นฐานแล้ว ซอฟต์แวร์ที่บอกภาพแมวจากสุนัข คนอื่นมองว่าเป็นภัยคุกคามร้ายแรงต่องานประจำของพวกเขา ผู้คนมองว่า AI เป็นเทคโนโลยีที่มีศักยภาพในอนาคตโดยไม่คำนึงถึงผลกระทบต่อชีวิตของพวกเขา ในขณะที่อนาคตของ AI ทำให้เกิดความกลัวและความกลัว ผลกระทบที่มีต่อปัจจุบันยังไม่เป็นที่ทราบแน่ชัด ตั้งแต่การกรอกประวัติย่อไปจนถึงการเผยแพร่โฆษณาชวนเชื่อ AI กำลังทำงานอย่างหนักเพื่อพวกเรามากกว่าที่พวกเราส่วนใหญ่รู้ ผลกระทบมีความสำคัญและผู้นำทั่วโลกต่างตื่นตัวอย่างรวดเร็ว
Elon Musk มองว่ากรอบการกำกับดูแลที่ งาน AeroAstro Centennial Symposium ของ MIT มากขึ้นเรื่อยๆ "ฉันมีแนวโน้มมากขึ้นที่จะคิดว่าควรมีการกำกับดูแลด้านกฎระเบียบบางอย่าง ทั้งในระดับประเทศและระดับนานาชาติ เพื่อให้แน่ใจว่าเราจะไม่ทำอะไรบางอย่าง โง่มาก ฉันหมายถึงด้วยปัญญาประดิษฐ์ เรากำลังอัญเชิญปีศาจ ”
การพัฒนานโยบายที่สำคัญที่สุดอย่างหนึ่งในการควบคุมการใช้ AI นั้นรวมอยู่ใน GDPR ในปี 2018 โดยสาระสำคัญแล้ว มาตรา 22 ภายใต้มาตรา 4 ของ GDPR ระบุว่าหากการสมัครงานหรือเงินกู้หรือสัญชาติของคุณถูกปฏิเสธโดยพิจารณาจากคะแนน ของซอฟต์แวร์ประมวลผลอัจฉริยะอัตโนมัติ คุณมีสิทธิ์เรียกร้องคำอธิบาย การไม่ปฏิบัติตามข้อกำหนดอาจทำให้ถูกปรับสูงถึง 20 ล้านยูโรหรือ 4% ของมูลค่าการซื้อขายประจำปีทั่วโลกของบริษัท แนวคิดคือการกำจัดการทำนายพฤติกรรมการเลือกปฏิบัติและการสร้างภาพเหมารวมตามข้อมูล และนั่นคือสิทธิในการอธิบายโดยสังเขป
ทำไมจึงจำเป็นต้องอธิบายให้ถูกต้อง?
คะแนนที่ใช้สำหรับการทำนายจะขึ้นอยู่กับการประเมินตัวแปรที่ดูเหมือนไม่เกี่ยวข้องหลายตัวและความสัมพันธ์กับชุดของอัลกอริธึม หากปราศจากการแทรกแซงของมนุษย์ ผลลัพธ์ก็อาจไม่แน่นอนในบางครั้ง หากไม่มีการตรวจสอบ สิ่งเหล่านี้สามารถกำหนดเวทีสำหรับแบบแผนยุคใหม่และเติมเชื้อเพลิงอคติที่มีอยู่ ในขณะที่ AI ทำงานกับข้อมูล ตัวข้อมูลเองก็สามารถสร้างอคติที่ล้มเหลวได้ แม้แต่ระบบ AI ที่แข็งแกร่งที่สุด
ตัวอย่างเช่น การปฏิเสธคำขอจำนองโดยระบบที่ใช้ AI อาจมีผลเสียที่ไม่ได้ตั้งใจ อัลกอริธึมการเรียนรู้ด้วยตนเองโดยอิงจากข้อมูลในอดีต อาจตรงกับอายุและรหัสไปรษณีย์ของผู้สมัครกับกลุ่มคนที่ผิดนัดเงินกู้ในไตรมาสที่แล้ว ขณะทำเช่นนั้น อาจมองข้ามเกณฑ์ที่ดีบางอย่าง เช่น คุณภาพสินทรัพย์ ซึ่งไม่มีอยู่ในข้อมูลย้อนหลัง
หากไม่มีคำอธิบายที่ถูกต้อง การปฏิเสธอาจเชิญดำเนินการทางกฎหมายสำหรับการสร้างภาพเหมารวมและการเลือกปฏิบัติ โดยเฉพาะอย่างยิ่ง หากพื้นที่ใกล้เคียงเป็นที่อยู่อาศัยของผู้คนส่วนใหญ่ที่อยู่ในกลุ่มชนกลุ่มน้อย ดังนั้นในฐานะเทคโนโลยีที่มีศักยภาพในการตัดสินใจในนามของมนุษย์ AI จำเป็นต้องส่งมอบจริยธรรม ความยุติธรรม และความยุติธรรมในการปฏิสัมพันธ์ของมนุษย์ อย่างน้อยที่สุดก็ต้องตอบสนองความยุติธรรมประเภทต่อไปนี้:
แนะนำสำหรับคุณ:
- การกระจาย - การจัดสรรทรัพยากรโอกาสและผลตอบแทนทางสังคมเท่านั้น
- ขั้นตอน - กระบวนการ ที่ยุติธรรมและโปร่งใสเพื่อให้ได้ผลลัพธ์
- Interactional – กระบวนการและผลลัพธ์ที่ทั้งคู่ต้องปฏิบัติต่อผู้ได้รับผลกระทบอย่างมีศักดิ์ศรีและความเคารพ
สิทธิ์ในการอธิบายปิดวงจรความยุติธรรมที่สำคัญทั้งหมดนี้ในการใช้ AI
AI และการท้าทายสิทธิในการอธิบาย
เช่นเดียวกับเครื่องยนต์สันดาปภายในที่มีอยู่ในปัจจุบัน โมเดล AI และอัลกอริธึมมีหลายประเภทและมีระดับความซับซ้อนต่างกัน ผลลัพธ์ของตัวแบบที่ง่ายกว่า เช่น การถดถอยเชิงเส้น นั้นค่อนข้างง่ายที่จะอธิบาย ทราบตัวแปรที่เกี่ยวข้อง น้ำหนัก และชุดค่าผสมเพื่อให้ได้คะแนนเอาต์พุต
อัลกอริธึมที่ซับซ้อน เช่น การเรียนรู้เชิงลึก ในขณะที่มุ่งมั่นเพื่อความแม่นยำที่มากขึ้น ทำหน้าที่เป็นกล่องดำ สิ่งที่เกิดขึ้นภายในจะอยู่ภายใน ด้วยอัลกอริธึมที่เรียนรู้ด้วยตนเองและสร้างรูปแบบ สาเหตุของผลลัพธ์บางอย่างจึงอธิบายได้ยาก เนื่องจาก:
- ตัวแปรที่ใช้จริงโดยอัลกอริทึมไม่เป็นที่รู้จัก
- ความสำคัญ/น้ำหนักที่แนบมากับตัวแปรไม่สามารถคำนวณย้อนหลังได้
- โครงสร้างระดับกลางและความสัมพันธ์ระหว่างตัวแปรหลายตัวยังไม่ทราบ
หากกระบวนการรับเข้าเรียนในมหาวิทยาลัยขับเคลื่อนด้วยโครงข่ายประสาทเทียมทั้งหมด ก็จะทำให้กระบวนการนี้ไม่ชัดเจนกว่าที่เป็นอยู่ในปัจจุบัน ปฏิเสธที่นั่งในมหาวิทยาลัยชั้นนำ เนื่องจากอัลกอริธึมของพวกเขาพบว่า "พื้นหลัง" บางอย่างไม่พอดี คุณจะถูกทิ้งให้สงสัยว่าส่วนใดของ "พื้นหลัง" ของคุณที่ใช้ได้ผลกับคุณ ที่แย่ไปกว่านั้น คณะกรรมการรับสมัครจะล้มเหลวในการอธิบายให้คุณฟัง ในรัฐที่ความไม่เท่าเทียมกันทางสังคมมีอยู่มาก AI ที่ทึบแสงเป็นสิ่งสุดท้ายที่มหาวิทยาลัยจะขอ
ในทางกลับกัน AI ที่โปร่งใสอย่างสมบูรณ์จะทำให้อัลกอริธึมเสี่ยงต่อการถูกเล่นเกมและนำไปสู่การจี้กระบวนการรับเข้าเรียนทั้งหมด สิทธิ์ในการอธิบายจึงเป็นเรื่องของ AI ที่ได้รับระดับความโปร่งแสงที่เหมาะสม ไม่สามารถโปร่งใสหรือทึบแสงได้อย่างสมบูรณ์
ทางข้างหน้า
เมื่อทำการตัดสินใจ AI จะไม่แนบความหมายและจัดหมวดหมู่ข้อมูลใหม่ในลักษณะเดียวกับมนุษย์ เป็นการตอกย้ำรูปแบบที่พบบ่อยที่สุดและไม่รวมกรณีที่ไม่ได้อยู่ในส่วนใหญ่ หนึ่งในโซลูชันทางเทคนิคที่เป็นไปได้ที่มีการสำรวจอย่างแข็งขันคือการทำให้ AI สามารถอธิบายได้ Description AI (XAI) เป็นสิ่งที่ขาดไม่ได้ในกรณีการใช้งานที่มีความเสี่ยงสูงและมีความเสี่ยงสูง เช่น การวินิจฉัยทางการแพทย์ที่ความไว้วางใจเป็นส่วนประกอบสำคัญในการแก้ปัญหา หากไม่มีความโปร่งใสเพียงพอในการประมวลผลภายใน อัลกอริธึมของ Blackbox ล้มเหลวในการมอบระดับความน่าเชื่อถือที่จำเป็นสำหรับการช่วยชีวิต
ด้วยความเปราะบางที่ฝังแน่นอยู่ในสถาปัตยกรรมพื้นฐาน – ทั้งเทคโนโลยีและสถิติ – AI จำเป็นต้องมีการควบคุม ดังที่ Sundar Pichai เขียนไว้ใน Financial Times เมื่อต้นปีนี้ว่า “ ตอนนี้ไม่มีคำถามในใจแล้วว่าปัญญาประดิษฐ์จำเป็นต้องได้รับการควบคุม มันสำคัญเกินไปที่จะไม่ คำถามเดียวคือวิธีการเข้าหามัน ”
กรอบกฎหมายที่ควบคุม AI กำลังพัฒนาและอยู่ในสภาวะที่เปลี่ยนแปลงไปในส่วนต่างๆ ของโลก
ในอินเดีย เมื่อไม่กี่เดือนที่ผ่านมา สิทธิในความเป็นส่วนตัวกลายเป็นประเด็นหลักในการอภิปรายระดับประเทศ เราอยู่ไม่ไกลจากกฎหมายที่ครอบคลุมซึ่งควบคุม AI ให้เป็นรูปเป็นร่าง โดยเฉพาะอย่างยิ่ง บทความอภิปรายที่ตีพิมพ์โดย นิติ อาโยก เมื่อเดือนมิถุนายน พ.ศ. 2561 ได้เจาะลึกหัวข้อนี้อย่างละเอียด เมื่อเวลาผ่านไป เมื่อขอบเขตของอิทธิพลของ AI ขยายตัว กฎหมายก็จะเข้มงวดมากขึ้นในการรวมบทบัญญัติเพิ่มเติม
เมื่อเทคโนโลยีถูกเปิดเผยและแอปพลิเคชั่นใหม่ ๆ ถูกค้นพบ อุตสาหกรรมจึงจำเป็นต้องควบคุมตนเอง องค์กรจำเป็นต้องมุ่งเน้นในเชิงรุกในการใช้ XAI ที่รักษาธรรมชาติของการปฏิสัมพันธ์ของมนุษย์ซึ่งอยู่บนพื้นฐานของความไว้วางใจและความเข้าใจ หากไม่เป็นเช่นนั้น มันจะป้องกันนวัตกรรมที่อาจเปลี่ยนแปลงชีวิตจากการถูกยับยั้งโดยกฎหมายคุ้มครองที่มีเจตนาดี เช่นเดียวกับสิ่งต่างๆ ในชีวิต การแก้ปัญหาอยู่ที่การสร้างสมดุลที่เหมาะสม







