人工智能的争论

已发表: 2017-09-27

关于人工智能的争论并不新鲜——对于马斯克或整个社会来说。

作为技术先驱,埃隆马斯克几乎不是任何人眼中的卢德分子。 因此,当马斯克在推特上说与俄罗斯和中国的人工智能竞争将是第三次世界大战的“最有可能的原因”时,这让人们非常兴奋。 然而,关于人工智能的争议并不新鲜——对于马斯克或整个社会来说。

人工智能:从一开始就令人恐惧

早在人工智能成为一门科学之前,我们就担心创造人工存在的危险。 “机器人”一词来自于 Karel Capek 于 1920 年写的一部名为 RUR 的剧本——Rossum 的通用机器人(Rossumovi Univerzalni Roboti 在原捷克语中)。 该剧开始于一家制造合成人作为工人的工厂。 这些机器人最初是在没有人类情感的情况下创造出来的,但随着更多人类机器人的发展,它们会做……嗯,一群有知觉的机器人通常会做的事情。 再见,人类。

这是一个我们已经看到很多次的想法,以至于它已成为陈词滥调。 故事范围从威胁并杀死他们应该保护的人类的疯狂 AI(想想 2001 年的 HAL)到终结人类的全面战争(终结者系列中的天网),但是当计算机化的生物变得有知觉时,故事通常会结束对所涉及的人类不利。

但这不仅仅是科幻小说的比喻——一些现代科学家对人工智能也有类似的担忧。 史蒂芬霍金曾说过:“强大的人工智能的兴起将是人类有史以来最好的事情,也可能是最糟糕的事情。 我们还不知道是哪个。”

人工智能会是人类有史以来最好的事情还是最坏的事情?

机器人梦想电动世界统治吗?

在极端情况下,霍金并没有拐弯抹角。 “完全人工智能的发展可能意味着人类的终结,”他说。 霍金关心有感知的人工智能的想法。 这种类型的智能可以“以不断增加的速度重新设计自己”,人类无法与之竞争,因为我们“受到缓慢的生物进化的限制”。

霍金对人类被取代的担忧受到了很多媒体的关注,因为它们看起来太棒了,但他提出了另一个更直接的担忧:人工智能被人类控制器滥用的可能性。

“创造人工智能的成功将是我们文明史上最大的事件。 但它也可能是最后一次,除非我们学会如何规避风险。 除了好处之外,人工智能还会带来危险,比如强大的自主武器,或者少数人压迫多数人的新方法。”

在这些担忧中,硅谷内外的一些最杰出的思想领袖加入了他的行列。 2015 年,霍金加入了世界知名机器人和认知研究人员、硅谷先驱和其他思想领袖的行列,呼吁禁止自主武器——人工智能战争机器,“在没有人为干预的情况下选择和攻击目标”。 这封信将自主武器描述为“继火药和核武器之后的第三次战争革命”,并描述了如果发生新的军备竞赛,可能会造成巨大的破坏:

人工智能已经彻底改变了战争。

人工智能已经彻底改变了战争。

“对于所有重要的军事大国来说,它们将变得无处不在,而且价格低廉,可以大规模生产。 它们出现在黑市上并落入恐怖分子、希望更好地控制民众的独裁者、希望进行种族清洗的军阀等手中只是时间问题。自主武器是暗杀、破坏稳定等任务的理想选择。国家,压制人口并选择性地杀死特定种族。”

埃隆马斯克可能是最热衷于宣扬人工智能危险的人。 他曾与 Alphabet 首席执行官拉里佩奇等朋友公开争论,暗示他们可能在不知不觉中播下人类毁灭的种子。 他谈到了人工智能军备竞赛,并将人工智能比作“召唤[a]恶魔”。 出于这种担忧,他创立了 OpenAI,这是一个将人工智能永远从地球上驱逐出去的非营利组织。

为你推荐:

元界将如何改变印度汽车业

元界将如何改变印度汽车业

反暴利条款对印度初创企业意味着什么?

反暴利条款对印度初创企业意味着什么?

Edtech 初创公司如何帮助提高技能并使劳动力为未来做好准备

教育科技初创公司如何帮助印度的劳动力提高技能并为未来做好准备……

本周新时代科技股:Zomato 的麻烦仍在继续,EaseMyTrip 发布强...

印度初创公司走捷径寻求资金

印度初创公司走捷径寻求资金

据报道,数字营销初创公司 Logicserve Digital 从替代资产管理公司 Florintree Advisors 筹集了 80 卢比的资金。

数字营销平台 Logicserve 获得 80 卢比的资金,更名为 LS Dig...

不,对不起。 我们指的是一个致力于研究和构建“安全的通用人工智能”的非营利组织。 这听起来不像是人工智能对手会做的事情,是吗? 发生什么了?

人工智能的当前(并且稍微不那么可怕)状态

人工智能已经出现了——已经有很长一段时间了。 当 Facebook 自动在图片中建议您的名字时,或者您手机上的应用程序预测您将要写的下一个单词以节省您打字的时间? 那就是人工智能。 斯蒂芬霍金也使用人工智能。 肌萎缩侧索硬化症 (ALS) 让他几乎完全瘫痪,所以他不得不用脸颊的小动作来选择单词。 他有一个设备可以学习他的讲话模式,帮助他更轻松、更快速地选择正确的单词。

人工智能也在迅速发展。 Apple 的 Siri 和 Google Assistant 等数字助理在帮助你处理日常任务方面做得越来越好,从日程安排到使用自动化设备洗衣服,再到在你出去见朋友时分享你的位置。 人工智能已经在帮助检测肺癌、预防车祸,甚至诊断出让医生感到难过的罕见疾病。

人工智能已经在帮助检测癌症和其他疾病

人工智能已经在帮助检测癌症和其他疾病。

然而,人工智能也可以用于令人不安的技术。 警察随身摄像机中的面部识别可以帮助他们识别危险的嫌疑人,但它也可以用来追踪无辜的公民。 自动驾驶将继续使运输更安全、更高效,但它也可用于为自动无人机提供动力以用于破坏性目的,或被黑客劫持飞机。 然后是可怕的机器人叛乱。

问题不在于人工智能是否应该存在——它已经存在。 我们并没有争论人工智能是有帮助还是有破坏性,因为它显然可以是两者之一或两者兼而有之。 重要的问题是我们应该拥有什么样的人工智能,如何使用它,以及谁来控制它。

人工智能未来的问题

1. 什么样的? 人工智能与人工智能

那些机器人叛乱场景通常与人工智能(AGI)有关。 花园品种 AI 旨在解决特定问题,例如驾驶汽车或检测癌症。 通用人工智能更大——它指的是一种能够像人一样推理和思考的人工智能。 AGI 不一定必须有意识,但它能够像人类一样做事。 这可能意味着使用足够好的语言来说服人类说话者它是人类(图灵测试),进入普通家庭并制作咖啡(咖啡测试 - 由苹果联合创始人和人工智能“对手”史蒂夫沃兹尼亚克提出),甚至注册和通过一门课(机器人大学生测试)。

通用人工智能是斯蒂芬霍金和埃隆马斯克等人担心的人工智能,它可能会用另一种有意识的物种取代我们。 但这也是 OpenAI 研究所正在研究的类型,因为——尽管有所有耸人听闻的报道——阻止人工智能并不是马斯克的真正目标。

普通人工智能解决特定问题。 通用人工智能模仿人类推理。

2. 谁控制人工智能?
人工智能是一项强大的技术,它可以使人类在广泛的任务中更加有效。 OpenAI 等团体担心的一个问题是,这种权力将集中在少数人或坏人手中,从而使极权主义政府、恶意公司、恐怖分子或其他不良行为者能够做出各种破坏性的事情,直至并包括发动第三次世界大战。 开源方法通过确保没有任何团体能够垄断这项技术来平衡事情。

开源没有解决的另一个问题是经济中断。 随着技术的发展和效率的提高,它减少了所需的劳动力,这意味着更少的工作。 随着机器人和人工智能变得越来越强大,这个过程将会加速。 那些失业的人怎么办? 我们如何确保他们有合理的生活水平和社会地位? 最终目标应该是什么? 随着人工智能处理越来越多的工作,我们可以而且应该维持基于竞争的经济模式,还是必须演变为更加合作的模式?

3. 人工智能应该如何使用?

这是最明显的问题,但也是最难回答的问题,因为它要求我们承认我们不愿承认的事情:技术在道德上不是中立的——我们设计和制造的东西会产生后果。 我们想生活在一个拥有自主杀手机器人的世界里吗? 如果没有,我们如何阻止它们被创建? 识别面孔和追踪人的技术对我们的自由有危险吗? 如果是这样,我们需要对它们施加什么限制,我们如何执行这些限制?

我们如何确保人工智能带来更美好的世界?

我们需要谈谈人工智能

人工智能已经出现了,而且还会继续发展。 我们可能永远不会拥有完整的通用人工智能,但可以肯定的是,计算机将在完成广泛的任务方面变得更加强大。 这将意味着有前景的新技术,如癌症研究和更好的管理,但它也将导致危险的新风险。 那个未来是我们活得更久、更快乐、更充实的生活,还是更黑暗的未来,取决于我们现在做出的决定。


【本文首发于Proto.io,经授权转载。】