AI 導入における倫理、プライバシー、グローバル法: インドの立ち位置は?
公開: 2020-09-06機械が危険だからではなく、人間が危険だからです。
この点で最も厳しい法律は、EU によって制定された GDPR です。
31カ国が、必要な同意なしにデータ交換と共有を禁止するために必要な法律を制定することに成功しました
人類は神のコンプレックスに苦しんでいます。 芸術と科学は、人間の形、思考パターン、美学、倫理を再現しようと努力しています。 機械に自分で考えさせることで、人間の知性を複製することはできますか? 人工知能は、灰色の領域に入る選択を行うという道徳的ジレンマに直面していません。その出力はバイナリです。
AIの場合も、GIGOのガベージイン、ガベージアウトの概念が成り立ちます。 システムに供給されるデータに偏りがある場合 – 収集方法において、コンテキストまたは人的エラーを提供しないと、アルゴリズムに偏りが生じます。 また、出力が予測不能になる可能性もあります。 私たちが向かっている方向では、人々は人間を信頼するよりも機械を信頼しています。 AI を完全に公平な状態に保つことがさらに重要になります。 AI はテクノロジーであり、核融合が爆弾になる前の技術と同じです。
適切なチェックが今行われなければ、核爆発よりも壊滅的な大惨事が待ち構えていることになります。
繰り返しますが、信頼は人間の構築物です。 マシンはお互いを信頼する必要はありません。 しかし、テクノロジーを使用する人々はそうする必要があります。 機械が危険だからではなく、人間が危険だからです。 AI は人によって作成されるため、修正に長い時間がかかる壊滅的なエラーが発生する可能性があることに注意することが重要です。 これは、人は機械よりも賢くても、機械よりも遅いからです。 現実的には、偏見に気付くまでには長い時間がかかり、その時間内に大きな損害を与えていたでしょう。
ヘルスケア、教育、金融、農業、製造などのいくつかのカテゴリで AI が急速に採用されているため、時間内に観察して行動することが適切になります。 この点に関して最も厳しい法律は、EU によって制定された一般データ保護規則 (GDPR) です。
Covid-19パンデミックは、死の尊厳という神聖な考えが、はるかに激しく原始的な生存本能に取って代わられたのを見ました。 AI と人々は、世界をより安全な場所にするためにかつてないほど協力してきました。 また、プライバシーに関する法律、倫理、および AI のような新しくチェックされていない技術とそれが果たす目的に対する普遍的な行動規範の必要性を再検討する必要性ももたらしました。
世界中の既存の法律
AI はデータによって強化されており、より安全な世界を構築するための最初のステップは、データを人間または機械の安全な手に渡すことです。 ユーザーの機密データが、ソーシャル メディアのチェックインや Google マップの使用などの最も無害な詳細から人の詳細なデジタル ライフを再現する、データを大量に消費する AI アルゴリズムに公開されないようにするセキュリティ チェックを作成する必要があります。
これは進化する技術であり、定期的に評価され、必要に応じて変更される法律やガイドラインを作成することが今求められています。 AIの使用を管理する普遍的な法律がある世界を想像するのは夢想的ですが、国連のような機関は、核条約に沿ってすべての国に受け入れられるガイドラインを策定することを目指すことができます.
現時点では、AI に関する法律は国連の優先事項のリストに含まれていません。 その結果、いくつかの国の規制体制は些細なままです。 法律を改正し、AI に関する新しい規制を導入しようとしている最も重要な機関の 1 つは、欧州連合です。
あなたにおすすめ:
31 か国が、必要な同意なしにデータ交換と共有を禁止するために必要な法律を制定することに成功しています。 欧州連合の 27 か国が一般データ保護規則 (GDPR) の遵守を義務付けられていることに加えて、米国 (US)、英国 (UK)、およびブラジルの多くの州も、データ プライバシーに関する禁止法を提案しています。 .
連邦レベルの法律を考慮すると、米国はせいぜいデータ ポリシーに対する誠実さしかありません。 その結果、国は規制法を完全にチェックしました。 欧州連合 (EU) は 2018 年に、データのプライバシーを維持するためにメンバーに禁止規則を維持することを義務付ける GDPR を提案しました。
また、企業のリーダーがプライバシー ソリューションを最前線に持ち込む必要もあります。 政府に関して言えば、減税の観点から、AI などの機密技術を扱う際にプライバシー プロトコルに厳密に従っているベンチャー企業に、いくつかのメリットを提供できます。
インドのデータ保護法
インドにはデータ保護に関する特定の法律はありませんが、個人情報は情報技術法のセクション 43A およびセクション 72A に基づいて保護されています。 GDPR と同様に、個人情報の不適切な開示に対する補償を受ける権利を与えます。 2017 年、最高裁判所はプライバシー権をインド憲法の下で保護される基本的権利として宣言しました。
AI は、2035 年にインドの現在の総価値の約 15% に相当する 957 億ドルを追加する見込みです。AI は、今後数年間で何らかの形ですべての人の生活に触れることができるようになります。 2018 年、NITI Aayog (政策委員会) は、AI のアプリケーションに関するさまざまなプログラムを開始しました。
AI の複数の倫理的問題を強調および分析するために、電子情報技術省によって 4 つの委員会が設立されました。 合同議会委員会は現在、データ保護に関する法案に基づいて、PDP 法案 – 個人データ保護法案 2019 を検討しています。 法案が上下両院で可決されれば、法律となります。
2020 年 1 月には、NITI Aayog の推奨により、AI の明示的なマシン フレームワークである「 AIRWAT」が確立されました。 その意図は、新興企業、AI の研究者、学生の継続的なニーズを満たすことでした。 インドの関連する IT 法には、1970 年の特許法、1957 年の著作権法、知的財産の所有権、ライセンス契約などがあります。
インドには、農業と医療の分野で政府が立ち上げた有望な AI パイロット プロジェクトがあります。 AIの確立と応用は、民間機関が精力的に進めています。 インド政府がデジタル化を推進し、より多くの AI イニシアチブを制定するにつれて、民間企業は大規模な契約を獲得し、新しい AI 関連の新興企業をスピンアウトするために群がります。
法律は、AI などの新興技術の成長を制限する可能性があります。 インドでは、産業や一般人口全体でまだ AI が大量に採用されていません。 十分な事例研究が行われると、AI の倫理に関する公の議論が続くでしょう。 現在、プライバシーの侵害に悩まされている人はほとんどおらず、一般の人々は、制御不能な AI が健康とメンタルヘルスにもたらす脅威に気づいていません。 AI を使用することの利点に関する情報は、脅威も明らかにします。
インドでは、AI の採用のペースは、それを規制するために形成された規則よりも速いです。 業界は現在、AI テクノロジーを使用して人材のスキルを向上させるプロセスを開始しています。 最近発表された新しい教育方針では、クラス VI の学生の権利に対してコーディングを教えることを強調しています。 インドは、今後数年間で新しい AI テクノロジーのハブになるでしょう。
法律は基本的に弱者、つまり自分の権利を認識していないことが多い弱者を保護します。 時が経てば、AI を管理する世界的な法律が策定され、国がその人口にとって何が正しくて何が間違っているかを定義する特定の行為や法律を持つようになるでしょう。 AI は世界を仮想的に近づけるのに役立ち、人間と共にパンデミックとの戦いを戦ってきました。
私たちが法律を提供しない限り、良くも悪くも、AI が発達し、独自の道徳的行動規範を書き始める可能性があります。