人工知能で説明する権利を解読する

公開: 2020-10-31

AI の適用を規制するための最も重要な政策展開の 1 つは、2018 年に GDPR に含まれました。

今日存在するさまざまな内燃エンジンと同じように、AI モデルとアルゴリズムは、さまざまなレベルの複雑さを持つさまざまな種類のものです。

AI は意思決定の際、人間のように新しい情報に意味を付けたり、分類したりしません。

ほとんどの人にとって、人工知能はせいぜいチャットボットまたは画像認識を強化する技術であり、基本的には犬と猫の画像を区別するソフトウェアです。 他の人は、それを通常の日常業務に対する深刻な脅威と見なしています。 AI が生活に与える影響に関係なく、人々は AI を途方もない将来の可能性を秘めたテクノロジーと見なしています。 AI の未来は畏敬の念と恐怖を引き起こしますが、現在への影響はほとんど認められていません。 履歴書の候補リストからプロパガンダの拡散まで、AI は私たちのほとんどが知っているよりも懸命に働いています。 その影響は甚大で、世界中のリーダーが急速にその影響に気づきつつあります。

MIT の AeroAstro センテニアル シンポジウムで規制の枠組みを支持したイーロン マスクは、次のように述べています。非常に愚かです。 つまり、人工知能で悪魔を召喚しているということです。

AI の適用を規制するための最も重要な政策展開の 1 つは、2018 年に GDPR に含まれていました。GDPR のセクション 4 にある第 22 条は、本質的に、仕事、ローン、または市民権への申請がスコアに基づいて拒否された場合、次のように述べています。自動化された知的処理ソフトウェアについて、あなたには説明を求める権利があります。 違反した場合、最高で 2,000 万ユーロまたは会社の世界の年間売上高の 4% の罰金が科せられる可能性があります。 アイデアは、データに基づく差別的な行動予測と固定観念を排除することです。 そして、それは一言で言えば説明する権利です。

なぜ説明する権利が必要なのか?

予測を行うために使用されるスコアは、一見無関係ないくつかの変数の評価と、一連のアルゴリズムとの関係に基づいています。 人間の介入がなければ、結果が不安定になることがあります。 これらをチェックしないと、新しい時代のステレオタイプの舞台となり、既存の偏見を助長する可能性があります。 AI はデータを処理しますが、データ自体が偏見を生む可能性があり、最も堅牢な AI システムでさえ機能しません。

たとえば、AI ベースのシステムによる住宅ローンの申し込みの拒否は、意図しない影響をもたらす可能性があります。 過去のデータに基づく自己学習アルゴリズムは、申請者の年齢と郵便番号を、前四半期にローンを滞納した多数の人々と照合する可能性があります。 そうしている間、資産の質など、過去のデータにはない特定の好ましい基準を見落とす可能性があります。

有効な説明がなければ、拒否は固定観念と差別に対する法的措置を招く可能性があります。特に、近隣に主にマイノリティ グループに属する人々が住んでいる場合はなおさらです。 したがって、人間に代わって意思決定を行う可能性のあるテクノロジとして、AI は人間の相互作用において倫理、公平性、正義を実現する必要があります。 最低限、次の種類の正義を満たす必要があります。

あなたにおすすめ:

RBI のアカウント アグリゲーター フレームワークがインドのフィンテックを変革するためにどのように設定されているか

RBI のアカウント アグリゲーター フレームワークがインドのフィンテックを変革するためにどのように設定されているか

起業家は、「Jugaad」を通じて持続可能でスケーラブルなスタートアップを作成することはできません: CitiusTech CEO

起業家は、「Jugaad」を通じて持続可能でスケーラブルなスタートアップを作成することはできません: Cit...

メタバースがインドの自動車産業をどのように変革するか

メタバースがインドの自動車産業をどのように変革するか

反営利条項はインドのスタートアップ企業にとって何を意味するのか?

反営利条項はインドのスタートアップ企業にとって何を意味するのか?

Edtech の新興企業がどのようにスキルアップを支援し、従業員を将来に備えさせるか

Edtech スタートアップがインドの労働力のスキルアップと将来への準備をどのように支援しているか...

今週の新時代のテック株:Zomatoのトラブルは続き、EaseMyTripはスト...

  • 分配的 –リソース、機会、報酬の社会的に公正な配分
  • 手続き -結果に到達するための公正で透明なプロセス
  • 相互作用 -プロセスと結果の両方で、影響を受けた人々を尊厳と敬意を持って扱う必要があります

説明する権利は、AI の使用におけるこの非常に重要な正義のループを閉じます。

AIと説明の権利への挑戦

今日存在するさまざまな内燃機関と同じように、AI モデルとアルゴリズムは、さまざまなレベルの複雑さを持つさまざまな種類のものです。 線形回帰のような単純なモデルの結果は、比較的簡単に説明できます。 関連する変数、それらの重み、および出力スコアに到達する組み合わせはわかっています。

ディープ ラーニングなどの複雑なアルゴリズムは、より高い精度を目指しながら、ブラック ボックスとして機能します。 パターンを自己学習して構築するアルゴリズムでは、特定の結果の原因を説明するのは困難です。

  • アルゴリズムによって実際に使用される変数は不明です
  • 変数に付加された重要度/重みは逆算できません
  • いくつかの中間構造と変数間の関係は不明のままです

大学の入学手続きが完全にニューラル ネットワークによって行われていたら、その手続きは現在よりも不透明なものになっていたでしょう。 アルゴリズムが特定の「バックグラウンド」を適切でないと判断したため、一流大学の席を拒否された場合、「バックグラウンド」のどの部分があなたに不利に働いたのか疑問に思うでしょう. さらに悪いことに、入学委員会はあなたにそれを説明できません。 社会的不平等が蔓延している州では、不透明な AI は大学が要求する最後のものです。

一方、完全に透過的な AI は、アルゴリズムをゲームにかけられやすくし、入場プロセス全体の乗っ取りにつながります。 したがって、説明する権利は、AI が適切な程度の半透明性を達成することに関するものです。 完全に透明にすることも不透明にすることもできません。

今後の方法

AI は意思決定を行う際に、人間のように新しい情報に意味を付けたり、分類したりしません。 最も一般的なパターンを強調し、多数派ではないケースを除外します。 積極的に検討されている可能な技術的解決策の 1 つは、AI を説明可能にすることです。 説明可能な AI (XAI) は、信頼がソリューションに不可欠な医療診断など、関連するハイリスクかつハイステークスのユースケースに不可欠です。 内部処理に十分な透明性がなければ、Blackbox アルゴリズムは命を救うために必要なレベルの信頼を提供できません。

技術的にも統計的にも基本的なアーキテクチャに脆弱性が深く根付いているため、AI には規制が必要です。 サンダー ピチャイが今年初めにフィナンシャル タイムズに書いたように、「人工知能を規制する必要があることに疑いの余地はありません。 しないことも重要です。 唯一の問題は、それにどのようにアプローチするかです。

AI を規制する法的枠組みは進化しており、世界のさまざまな地域で流動的な状態にあります。

インドでは、数か月前にプライバシーの権利が全国的な議論の中心となり、AI を規制する包括的な法律が形成される日もそう遠くありません。 特に、2018 年 6 月に NITI Aayog によって発行されたディスカッション ペーパーでは、この問題がかなり詳細に説明されています。 時間が経つにつれて、AI の影響範囲が拡大するにつれて、法律はより厳しくなり、より多くの条項が含まれるようになります。

技術が発展し、その新しいアプリケーションが発見されるにつれて、業界による自主規制が必要になります。 組織は、信頼と理解に基づく対話の人間性を維持する XAI の実装に積極的に取り組む必要があります。 少なくとも、人生を変える可能性のあるイノベーションが、善意の保護法によって抑圧されるのを防ぐことができます。 人生のほとんどのことと同様に、解決策は適切なバランスを取ることにあります。