解码人工智能中的解释权

已发表: 2020-10-31

2018 年,规范人工智能应用的最重要政策发展之一被纳入 GDPR

就像当今存在的各种内燃机一样,人工智能模型和算法具有不同的类型,具有不同的复杂程度

在做出决策时,人工智能不会像人类那样附加意义并对新信息进行分类

对大多数人来说,人工智能充其量是一种支持聊天机器人或图像识别的技术——基本上,一种从狗中分辨出猫的图像的软件。 其他人则认为这是对他们日常工作的严重威胁。 不管它对他们的生活产生怎样的影响,人们都将人工智能视为一种具有巨大未来潜力的技术。 虽然人工智能的未来引发了敬畏和恐惧,但它对现在的影响在很大程度上仍未得到承认。 从入围简历到传播宣传,人工智能在我们身上的工作比我们大多数人所知道的都要努力。 影响是显着的,世界各地的领导人正在迅速意识到这一点。

埃隆马斯克在麻省理工学院航空航天百年研讨会上为监管框架而战,认为: “我越来越倾向于认为应该有一些监管监督,也许在国家和国际层面,只是为了确保我们不做某事非常愚蠢。 我的意思是用人工智能我们正在召唤恶魔。

2018 年,规范人工智能应用的最重要政策发展之一被纳入 GDPR。GDPR 第 4 条第 22 条实质上规定,如果您的工作或贷款或公民身份申请因分数被拒绝自动化智能处理软件,您有权要求解释。 违规可能会导致高达 2000 万欧元或公司全球年营业额 4% 的罚款。 这个想法是消除基于数据的歧视性行为预测和刻板印象。 简而言之,这就是解释权。

为什么需要解释权?

用于进行预测的分数基于对几个看似不相关的变量及其与一组算法的关系的评估。 如果没有人为干预,结果有时会不稳定。 如果不加以控制,这些可能会为新时代的刻板印象奠定基础,并助长现有的偏见。 虽然人工智能与数据一起工作,但数据本身会滋生偏见,即使是最强大的人工智能系统也会失败。

例如,基于人工智能的系统拒绝抵押贷款申请可能会产生一些意想不到的后果。 基于历史数据的自学习算法可能会将申请人的年龄和邮政编码与上一季度拖欠贷款的一群人相匹配。 在这样做的同时,它可能会忽略历史数据中不存在的某些有利标准,例如资产质量。

如果没有有效的解释,拒绝可能会招致陈规定型和歧视的法律诉讼,特别是如果附近居住的人大多属于少数群体。 因此,作为一项有潜力代表人类做出决策的技术,人工智能需要在人类互动中实现道德、公平和正义。 至少,它需要满足以下类型的正义:

为你推荐:

RBI 的账户聚合器框架将如何改变印度的金融科技

RBI 的账户聚合器框架将如何改变印度的金融科技

企业家无法通过“Jugaad”创建可持续、可扩展的初创公司:CitiusTech 首席执行官

企业家无法通过“Jugaad”创建可持续、可扩展的初创公司:Cit...

元界将如何改变印度汽车业

元界将如何改变印度汽车业

反暴利条款对印度初创企业意味着什么?

反暴利条款对印度初创企业意味着什么?

Edtech 初创公司如何帮助提高技能并使劳动力为未来做好准备

教育科技初创公司如何帮助印度的劳动力提高技能并为未来做好准备……

本周新时代科技股:Zomato 的麻烦仍在继续,EaseMyTrip 发布强...

  • 分配性——资源、机会和奖励的社会公正分配
  • 程序 –公平和透明的过程以达成结果
  • 互动的——过程和结果都需要以尊严和尊重对待受影响的人

解释权关闭了人工智能使用中最重要的正义循环。

人工智能和解释权的挑战

就像当今存在的各种内燃机一样,人工智能模型和算法具有不同的类型,具有不同的复杂程度。 更简单的模型(如线性回归)的结果相对容易解释。 所涉及的变量、它们的权重以及达到输出分数的组合是已知的。

诸如深度学习之类的复杂算法在努力提高准确性的同时,充当了一个黑匣子——里面发生了什么,就留在里面。 对于自学习和构建模式的算法,特定结果的原因很难解释,因为:

  • 算法实际使用的变量未知
  • 附加到变量的重要性/权重不能回算
  • 变量之间的几个中间结构和关系仍然未知

如果大学录取过程完全由神经网络驱动,那么这个过程就会变得比现在更不透明。 拒绝在一所领先大学的席位,因为他们的算法发现某个“背景”不太合适,你会想知道你的“背景”的哪一部分对你不利。 更糟糕的是,招生委员会不会向你解释。 在一个社会不平等现象比比皆是的州,不透明的人工智能是大学最不想要的东西。

另一方面,完全透明的 AI 会使算法容易被欺骗,并导致整个录取过程被劫持。 因此,解释权是关于人工智能实现正确程度的半透明; 它既不能完全透明,也不能完全不透明。

前进的道路

在做出决策时,人工智能不会像人类那样附加意义并对新信息进行分类。 它强化了最常见的模式并排除了不占多数的情况。 正在积极探索的可能技术解决方案之一是让 AI 可解释。 可解释的 AI (XAI) 在相关的高风险和高风险用例中必不可少,例如医疗诊断,信任是解决方案不可或缺的一部分。 如果内部处理没有足够的透明度,黑盒算法就无法提供挽救生命所需的信任级别。

由于脆弱性根深蒂固于其基本架构——技术和统计——人工智能需要监管。 正如Sundar Pichai 今年早些时候在英国《金融时报》上所写的那样,“现在毫无疑问,人工智能需要受到监管。 不这样做太重要了。 唯一的问题是如何处理它。

监管人工智能的法律框架正在世界不同地区不断发展并处于不断变化的状态。

在印度,随着隐私权几个月前成为全国辩论的中心议题,我们离制定一项规范人工智能的全面法律不远了。 值得注意的是,NITI Aayog 于 2018 年 6 月发表的一篇讨论论文相当详细地讨论了这个主题。 随着时间的推移,随着人工智能影响范围的扩大,作为回应,法律将变得更加严格,包括更多的规定。

随着技术的发展和新应用的发现,行业需要自我监管。 组织需要主动专注于实施 XAI,以保留基于信任和理解的交互的人性。 如果没有的话,它将防止可能改变生活的创新被可能是善意的保护性法律所扼杀。 与生活中的大多数事情一样,解决方案在于取得适当的平衡。