解碼人工智能中的解釋權
已發表: 2020-10-312018 年,規範人工智能應用的最重要政策發展之一被納入 GDPR
就像當今存在的各種內燃機一樣,人工智能模型和算法具有不同的類型,具有不同的複雜程度
在做出決策時,人工智能不會像人類那樣附加意義並對新信息進行分類
對大多數人來說,人工智能充其量是一種支持聊天機器人或圖像識別的技術——基本上,一種從狗中分辨出貓的圖像的軟件。 其他人則認為這是對他們日常工作的嚴重威脅。 不管它對他們的生活產生怎樣的影響,人們都將人工智能視為一種具有巨大未來潛力的技術。 雖然人工智能的未來引發了敬畏和恐懼,但它對現在的影響在很大程度上仍未得到承認。 從入圍簡歷到傳播宣傳,人工智能在我們身上的工作比我們大多數人所知道的都要努力。 影響是顯著的,世界各地的領導人正在迅速意識到這一點。
埃隆馬斯克在麻省理工學院航空航天百年研討會上為監管框架而戰,他認為: “我越來越傾向於認為應該有一些監管監督,也許在國家和國際層面,只是為了確保我們不做某事非常愚蠢。 我的意思是用人工智能我們正在召喚惡魔。 ”
2018 年,規範人工智能應用的最重要政策發展之一被納入 GDPR。GDPR 第 4 條第 22 條實質上規定,如果您的工作或貸款或公民身份申請因分數被拒絕自動化智能處理軟件,您有權要求解釋。 違規可能會導致高達 2000 萬歐元或公司全球年營業額 4% 的罰款。 這個想法是消除基於數據的歧視性行為預測和刻板印象。 簡而言之,這就是解釋權。
為什麼需要解釋權?
用於進行預測的分數基於對幾個看似不相關的變量及其與一組算法的關係的評估。 如果沒有人為乾預,結果有時會不穩定。 如果不加以控制,這些可能會為新時代的刻板印象奠定基礎,並助長現有的偏見。 雖然人工智能與數據一起工作,但數據本身會滋生偏見,即使是最強大的人工智能係統也會失敗。
例如,基於人工智能的系統拒絕抵押貸款申請可能會產生一些意想不到的後果。 基於歷史數據的自學習算法可能會將申請人的年齡和郵政編碼與上一季度拖欠貸款的一群人相匹配。 在這樣做的同時,它可能會忽略歷史數據中不存在的某些有利標準,例如資產質量。
如果沒有有效的解釋,拒絕可能會招致陳規定型和歧視的法律訴訟,特別是如果附近居住的人大多屬於少數群體。 因此,作為一項有潛力代表人類做出決策的技術,人工智能需要在人類互動中實現道德、公平和正義。 至少,它需要滿足以下類型的正義:
為你推薦:
- 分配性——資源、機會和獎勵的社會公正分配
- 程序 –公平和透明的過程以達成結果
- 互動的——過程和結果都需要以尊嚴和尊重對待受影響的人
解釋權關閉了人工智能使用中最重要的正義循環。
人工智能和解釋權的挑戰
就像當今存在的各種內燃機一樣,人工智能模型和算法具有不同的類型,具有不同的複雜程度。 更簡單的模型(如線性回歸)的結果相對容易解釋。 所涉及的變量、它們的權重以及達到輸出分數的組合是已知的。
諸如深度學習之類的複雜算法在努力提高準確性的同時,充當了一個黑匣子——裡面發生了什麼,就留在裡面。 對於自學習和構建模式的算法,特定結果的原因很難解釋,因為:
- 算法實際使用的變量未知
- 附加到變量的重要性/權重不能回算
- 變量之間的幾個中間結構和關係仍然未知
如果大學錄取過程完全由神經網絡驅動,那麼這個過程就會變得比現在更不透明。 拒絕在一所領先大學的席位,因為他們的算法發現某個“背景”不太合適,你會想知道你的“背景”的哪一部分對你不利。 更糟糕的是,招生委員會不會向你解釋。 在一個社會不平等現像比比皆是的州,不透明的人工智能是大學最不想要的東西。
另一方面,完全透明的 AI 會使算法容易被欺騙,並導致整個錄取過程被劫持。 因此,解釋權是關於人工智能實現正確程度的半透明; 它既不能完全透明,也不能完全不透明。
前進的道路
在做出決策時,人工智能不會像人類那樣附加意義並對新信息進行分類。 它強化了最常見的模式並排除了不佔多數的情況。 正在積極探索的可能技術解決方案之一是讓 AI 可解釋。 可解釋的 AI (XAI) 在相關的高風險和高風險用例中必不可少,例如醫療診斷,信任是解決方案不可或缺的一部分。 如果內部處理沒有足夠的透明度,黑盒算法就無法提供挽救生命所需的信任級別。
由於脆弱性根深蒂固於其基本架構——技術和統計——人工智能需要監管。 正如Sundar Pichai 今年早些時候在英國《金融時報》上所寫的那樣,“現在毫無疑問,人工智能需要受到監管。 不這樣做太重要了。 唯一的問題是如何處理它。 ”
監管人工智能的法律框架正在世界不同地區不斷發展並處於不斷變化的狀態。
在印度,隨著隱私權幾個月前成為全國辯論的中心議題,我們離制定一項規範人工智能的全面法律不遠了。 值得注意的是,NITI Aayog 於 2018 年 6 月發表的一篇討論論文相當詳細地討論了這個主題。 隨著時間的推移,隨著人工智能影響範圍的擴大,作為回應,法律將變得更加嚴格,包括更多的規定。
隨著技術的發展和新應用的發現,行業需要自我監管。 組織需要主動專注於實施 XAI,以保留基於信任和理解的交互的人性。 如果沒有的話,它將防止可能改變生活的創新被可能是善意的保護性法律所扼殺。 與生活中的大多數事情一樣,解決方案在於取得適當的平衡。







