霍金们天天喊着让我们小心人工智能,有些人觉得是在危言耸听。他们提出了4点理由。

作者:李珂      班级:通院7班    学号:1601120536

澳门新葡萄京官网注册 1

近年来,人工智能这个话题大热。一些科幻电影中,人工智能的发展最终无法抑制,成为了人类文明的终结者。一些大牛们,如比尔盖茨、霍金,都对人工智能的发展提出了警告;不过也有人认为,人工智能在现在阶段并不是什么威胁。

【嵌牛导读】:去年,围棋程序阿尔法狗(AlphaGo)与韩国国手李世石的“人机大战”让人工智能成了人们关注的焦点。至今,阿尔法狗横扫人类高手,所向披靡。这难免引发人们对这近在身边又显得“神秘莫测”的“人工智能”产生好奇与想象。那么人工智能真的会超越人类吗?

真正的人工智能可能毁灭这个世界——但前提是人工智能可以被实现。

澳门新葡萄京官网注册 2

澳门新葡萄京官网注册 ,【嵌牛鼻子】:人工智能


2014年,SpaceX的CEO Elon
Musk发推说:“Bostrom的《超级智慧(Superintelligence)》非常值得一读。对待AI,我们需要小心翼翼。”同年,剑桥大学的宇宙学家史蒂芬·霍金(Stephen
Hawking)在接受BBC的访问时说:“完全的人工智能(full artificial
intelligence)的发展可能会导致人类的终结。”微软联合创始人比尔·盖茨(Bill
Gates)也警告说:“关于AI,我持谨慎怀疑态度。”

【嵌牛提问】:人工智能是如何发展起来的?人工智能真的会超越人类吗?

原文By Paul Ford February 11, 2015

关于AI带来的世界末日将如何展开,计算机科学家Eliezer
Yudkowsky在2008年发表的《全球灾难风险(Global Catastrophic
Risks)》中提出:AI在未来从单细胞生物发展到人类智力水平的可能性有多大呢?他回答道:“形成一个物理意义上的大脑是可能的,其计算的速度是人类大脑的一百万倍….如果人脑因此而加速,主观上一年的思考将在31秒内就完成了,一千年将在八个半小时内就过去了。”Yudkowsky认为,如果我们不这么做就太晚了:“人工智能所运行的时间维度与我们不同,当你的神经元完成思考说‘我应该做这件事情’时,你已经错过时机了。”

【嵌牛正文】

翻译By Lucent Moda July, 2017

牛津大学哲学家尼克·博斯特罗姆(Nick
Bostrom)在他的《超级智慧(Superintelligence)》中提出所谓的回形针最大化的思想实验:一个AI被设计来制造回形针,并且在耗尽其最初的原材料供应之后,它将利用在其可达范围内的任何可用原子,包括人类。正如他在2003年的一篇论文中所描述的那样,从那时开始“首先转化整个地球,为回形针制造设施增加空间”。短时间内,整个宇宙都由回形针和回形针制造器组成。

1人工智能是如何发展起来的


对此,我表示怀疑。首先,所有这样的末日情景都涉及一长串的“如果-那么(if-then)”意外事件,在任何点的失败都会推到所谓的世界末日。西英格兰布里斯托大学的电气工程教授艾伦·温菲尔德(Alan
Winfield)在2014年的一篇文章中这样说:“如果我们成功地构建与人类相同的AI,如果AI对它如何工作有着充分理解,如果它成功地改善自身成为超智能AI,如果这个超级AI意外或恶意地开始消耗资源,如果我们不能拔插头断电,那么,是的,我们可能有问题。这种危险,不是不可能,是不太可能发生。”

1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。IBM公司“深蓝”电脑击败了人类的世界国际象棋冠军更是人工智能技术的一个完美表现。

信任计算机去控制复杂的系统。

第二,如果按照时间段来检查的话,会发现人工智能的发展远低于预期。正如Google执行主席埃里克·施密特(Eric
Schmidt)在回应马斯克(Musk)和霍金(Hawking)时所说:“你认为人类不会注意到这种情况吗?你认为人类不会关闭这些电脑吗?”谷歌自己的DeepMind开发了一个AI关闭开关的概念,被戏称为“大红色按钮“,可以用来接管AI。正如百度副总裁吴安民(Andrew
Ng)所说的那样(回应Musk),“这就像是我们甚至还没有踏上火星,就在担心火星上会人口过剩。”

从1956年正式提出人工智能学科算起,50多年来,取得长足的发展,成为一门广泛的交叉和前沿科学。总的说来,人工智能的目的就是让计算机这台机器能够像人一样思考。如果希望做出一台能够思考的机器,那就必须知道什么是思考,更进一步讲就是什么是智慧。什么样的机器才是智慧的呢?科学家已经作出了汽车,火车,飞机,收音机等等,它们模仿我们身体器官的功能,但是能不能模仿人类大脑的功能呢?到目前为止,我们也仅仅知道这个装在我们天灵盖里面的东西是由数十亿个神经细胞组成的器官,我们对这个东西知之甚少,模仿它或许是天下最困难的事情了。

几年前我和一个创业的朋友喝咖啡。他刚满40,生病的父亲和背部疼痛让他感觉自己快要被生活压垮。
“别笑话我,“,他说, ”我可是指望着奇点呐。“

第三,AI的末日情景通常基于自然智能和人工智能之间的错误对比。哈佛大学实验心理学家Steven
Pinker在对2015年Edge.org年度问题“你对机器思考有什么看法”的回答中阐明:“AI反乌托邦项目将一个狭隘的阿尔法男性心理学投射到智力概念上。他们认为,超人类的智能机器人将‘放弃他们的主人或接管世界’作为自己的发展目标。”同样地,Pinker说道,“人工智能将沿着雌系自然发展——能够完全解决问题,但不会想要消灭无辜或支配文明。“

当计算机出现后,人类开始真正有了一个可以模拟人类思维的工具,在以后的岁月中,无数科学家为这个目标努力着。如今人工智能已经不再是几个科学家的专利了,全世界几乎所有大学的计算机系都有人在研究这门学科。

我朋友在科技领域工作;他看到了更快的芯片处理器和网络带来的巨大变化。他相信,在他中年时,机器的智能会超过人类——一个被未来学家称之为奇点的时刻。一个友善的超级智能以更快的速度分析人类的基因,解开青春不老的秘密。至少,它可能知道怎么治好背部的疼痛。

第四,暗示计算机将“想要”做某事(例如将世界变成回形针)就等同于AI有情感。正如科学作家Michael
Chorost所言:“AI真的想要做某事时,它将会生活在一个有奖励和惩罚的宇宙中,这其中就包括来自我们对不良行为的惩罚。”

2人工智能正在改变我们的生活

可是,如果它不这么友善呢?领导牛津大学人类未来研究所的哲学家Nick
Bostrom,在《Superintelligence》描述了这样一种场景,引发了对人工智能的未来的大量讨论。假设有有一个名字叫做“回形针最大化”的机器,它的目的就是尽可能的制造更多的回形针。现在,让我们再想象一下,这个机器变得无比的智能。为了达到目的,他可能制造出一种新的,更有效率的回形针生产设备——直到,它将所有的东西都变成回形针,如同米达斯把一切都变成黄金。

鉴于历史上对世界末日的几乎为0的预测率,加上人工智能在几十年来缓慢发展,我们有足够的时间建立故障安全系统,防止任何这样的人工智能所带来的世界末日。

人工智能除了会下棋,还可以做什么呢?以最简单的iPhone手机中Siri语音智能识别功能为例,很多人会觉得Siri属于语音识别的范畴而已,并不属于人工智能。但这里要明确一点,Siri的本质上并不是纯粹语音识别与信息检索调用回答,而是在原有语音识别的基础上加入了语义识别,而两者的结合本身就成为了人工智能领域的范畴。

你也许会说,不用担心,只需要编程让它只制造一百万个回形针就停止了啊。但是,假如它完成之后决定检查一下工作呢?计数是否准确?无疑它需要变得更加聪明。这个超级智能的机器制造某种还未发明的、原始计算材料(姑且叫它“计算单元”),然后用它来检查每一个疑问。每一个疑问引发另外的疑问,直到整个地球都被转化成这种“计算单元”,而不是那一百万个回形针。

来自:36Kr 作者:郝鹏程

Siri的革命性创新在于它不再简单的回答用户索要期待的答案。而是对提问产生自己理解的回答。普通语音识别软件,对于用户的提问时固定的,重复的且乏味的。机械化的回答虽然在结果上给予了用户精确答案,但是在感情上却让人冷冰冰的。举个例子,假如你问普通语音识别软件,现在是几点钟,它会告诉你现在是九点钟。假如你同样问Siri这个问题,它会告诉你现在是晚上九点钟有点晚。这就是Siri与一般语音识别软件的区别,Siri会尝试性的理解你的意图。你向你的手机Siri提出古怪的问题:“你爱我吗?”手机会回答你:“这个问题不能说,只能感受!”你再提问:“你能借我些钱吗?”它答复:“我的所有东西都是你的!”这些都是人工智能在起作用。

其实,Bostrom并不认为回形针制造器会真的出现。这是一个思想实验:用来表明无论多么精心设计的系统都无法约束极端的机器智能。不过他确信,超级智能肯定会产生,有可能会很棒,Bostrom认为也有另外一种可能:它不再需要人类。或者做了一些事情,毁灭了整个地球。第八章的标题是:默认的结局是毁灭吗?

自动驾驶已经为人们所熟知,在2016年10月20日,马斯克宣布所有特斯拉新车将装备具有全自动驾驶功能的硬件系统——Autopilot

如果你觉得很可笑,这很正常。批评者诸如机器人先锋Rodney
Brooks评论道,当我们说计算机思考或者正在变得聪明时,这些担心AI会偏离正常轨道的人对计算机在做什么有所误解。从这个角度来看,Bostrom所描述的超级智能会在遥远的未来,也许永远都不会出现。

2.0,这套系统包括了8个摄像机、12个超声波传感器以及一个前向探测雷达。摄像机将提供360度的视角,最大识别距离250米,其中三个将观察前方,提供冗余以确保安全;超声波传感器能够探测软性和硬性的物体;而雷达则可以确保在雨天、雾天、沙尘和雾霾天气中正常工作。。去年,在美国佛罗里达发生了一起自动驾驶撞到大卡车的车祸。尽管如此,自动驾驶依旧比人工驾驶出错概率要低。

但依然有很多聪明而有见地的人通知Bostrom的观点,并表示忧虑,这又是为何呢?

机器人和集群机器人是应用非常广泛的领域。例如在特斯拉工厂有150个机器人,里面几乎没有工作人员,机器人全面、自动地利用机器人工作。在2017年美国“超级碗”上,使用了300个机器人构成图形。央视的元宵节晚会上,机器人集群也在广州展示灯光秀。

自由意志

机器可以思考吗?
这个问题从一开始就给计算机科学蒙上了一层阴影。阿兰图灵在1950年提出了一个观点:可以像教小孩一样教机器。1955年,LISP语言的发明者,约翰
·
麦卡锡,发明了”人工智能“这个词。60年代和70年代,AI研究人员用计算机来识别图像、在不同语言之间进行翻译,识别自然语言中的指令,而不仅仅是代码,与此同时,计算机最终发展出可以交谈和思考的能力——进而变得邪恶——的看法开始进入主流文化中。不提老生常谈的《2001,空间奥德赛》的Hal电脑,在1970年的电影《巨人:福宾计划》,展示了一个巨大的闪闪微光的主机计算机将整个世界带入核战的边缘。13年以后,星际大战游戏也探索了同样的主题。1973年的电影《西部世界》中,机器人发疯了,随后开始了屠杀。

当AI的研究和高远的目标遥不可及的时候,AI领域的投资大幅缩水,开始了“漫长的冬天”。即便如此,智能机器的火炬在80年代和90年代被诸如科幻作者Vernor
Vinge,研究学者诸如机器人专家、计算机视觉专家Hans
Moravec,以及企业家兼工程师Ray
Kurzweil等接力而向前发展。Vinge让奇点这个观点变得流行。Kurzweil1999年出版了《精神机器的时代》。图灵提出类人智能的假设,而Vinge、Moravec、Kurzweil想的更加深远:当一个计算机能够独立找到方法达到目标,很有可能它具备了内省的能力——修改自己的软件让自己变得更加智能。说白了,这样的计算机能够自己设计硬件。

像Kurzweil所描绘的那样,这将是一个美好新时代。这样的计算有足够的insight和耐心(用皮秒来计量)来解决纳米科技和空间飞行的难题;他们可以提高人类的生活水平,可以让我们把意识上传成为一种永生的电子形式。智能可以在整个宇宙中扩散。

对于这种阳光乐观派,亦存在完全相反的观点。霍金警告说,由于人类无法和高级AI竞争,这
“会是人类种族终结的魔咒)”。在阅读了《Superintelligence》之后,埃隆马斯克发推文说,“希望我们不是数字超级智能的生物启动加载器。不幸的是,越来越有这种可能性。”
马斯克接着给未来生活研究所捐助了一百万美金。和Bostrom的研究中心不同的是,这是一个“致力于降低全人类生存风险”,其中包括来自于
“开发人类水平的人工智能”。

现在还没有任何证据表明超级智能的存在。事实上,对如何达到通用目的的人工智能,几乎没有什么进展,甚至连如何达到目标,也没有清晰的路径。近期AI方面的发展,包括Apple的Siri助手和谷歌的无人驾驶汽车,
都揭示出当前技术存在严重的局限。在遇到之前从来没有遇到过的问题的时候,两者都束手无策。人工神经网络通过学习可以识别照片中的猫),但是在此之前,需要经过上万个例子的学习,并且和小孩相比,依然不够准确。

这也是为什么有许多人,比如Brooks(iRobot和Rethink
Robotics的创始人),表示出怀疑。和早期计算机的能力相比,现在的计算机可谓非常令人感到惊讶,即便如此,计算机可以识别出图片中的猫,但是因为机器没有意志,它不知道猫到底是什么,也不知道图片中正在发生着什么,也不具备许多其他人类所独有的洞察力。按照这个观点来看,也许可以达到机器具有智能的地步,但是还需要做的工作远超Bostrom的想象了。假设即便发生了,也不意味着这就是末日审判。从当前的AI发展推导出未来的超级AI,“如同看到热效率提升的内燃机就推出曲速引擎唾手可得的结论一样荒谬”,
Brooks在近期在Edge.org)上写到。
至少数百年之内,没有必要担心“存在恶意的超级智能”。

在相对人文的领域,机器人居然也有不俗的表现。“双眸剪秋水,一手弹春风。歌尽琵琶怨,醉来入梦中。”当你输入关键词,机器人就会为你赋诗一首,韵味、韵律还颇“像回事儿”,甚至机器人还能驾驭不同画风的画作。

保险策略

超级智能的崛起可能在遥远的未来,但因此冒风险就有点不负责任了。加州大学伯克利计算机科学教授,斯图尔特
罗素(Stuart J.Russell)表达了和Bostrom同样的担心。罗素和Peter
Novig(Kurzweil在谷歌的同事)一起合著了20年来的AI领域的标准教科书《人工智能:一种现代方法》。

“有很多本应非常聪明的公众学者对此毫无头绪”,罗素告诉我,并指出,在过去的十年中,
AI的发展极为巨大。公众也许会从摩尔定律的角度来理解AI的发展(更快的计算机可以做更多的事情),实际上,近期AI的工作更多的是更底层的基础研究,使用类似深度学习这样的技术给计算机增加对周遭世界的自动感知。

鉴于谷歌,Facebook和其他公司正在积极创造一种聪明的,“会学习的”的机器,他说,“我想说的是,我们不应该做的事情之一就是全力以赴研发超级智能,而没有去考虑其潜在的风险。这显得有点狂热了。”
罗素做了一个比喻:“这就是像是核聚变试验。如果你问一个核聚变研究员他们在做什么,他们会说他们的工作就是控制。如果你需要无限制的能量,那么你需要控制核聚变反应。”
同样的,如果你需要无限制的智能,那你最好把计算机和人类的需求利益保持一致。

Bostrom的书中建议现在开始研究超级智能和人类利益关系。一个超级智能如同上帝一样,可是他是充满愤怒的还是充满爱意?
这取决于我们(也就是,工程师们)。如同父母一样,我们必须给孩子设定价值观。并且不是任意价值观,而是哪些符合人类利益的价值观。基本上,我们是在告诉一个神我们应当怎样被对待。那么,如何做到呢?

Bostrom的设想主要建立在一个叫Eliezer
Yudkowsky的思想家提出的“统一推理意志”之上——也即是我们所有人心中更好的自己。我们希望,AI会带给我们富有、欢乐、充实的人生:解决背部的疼痛,告诉我们如何去火星旅行。并且,由于我们无法真正就某一件事情达成一致,有时候我们需要AI帮我们做出决定——对人类全体利益最有利的决定。
那么,我们应该怎样把这些价值观编程到超级智能中呢?用什么样的数学公式来定义它?这些都是研究者们应该着手去解决的问题,并且是我们这个时代最核心的任务。

对普罗大众来说,没有必要因为机器人的可怕而辗转失眠。我们当前还没有任何技术能够达到人工智能。也即是为什么一些超级大公司深度投资研发智能计算机;一个真正的AI可以使得其中任何一家公司获得难以想象的优势。不过,他们也应当了解其中的劣势并且找到规避的办法。

这点闹人的建议是基于一封在未来生活研究所的官方网站的公开信)(没有宣称AI战争的来临)。信中号召在如何收割AI的收益并避免潜在瑕疵方面投入更多的研究,而不是警告人类的生存灾难。这封信的签名有不仅来自AI外行如霍金、马斯克和Bostrom等人的签名,还有知名计算机科学家(包括顶级AI研究员Demis
Hassabis)。你可以清楚看到他们从哪里来。毕竟,如何他们创造了一个不认同人类价值观的AI,那就是说,他们还不够聪明,无法控制他们自己的创造物。

保罗 福特,
自由记者,居于纽约。2014年3月、4月报道过比特币。

Lucentmoda, 软件工程师,自由翻译者,ever young, ever weeping.
联系翻译者请电邮lucentmoda@gmail.com

翻译自MIT Technology Review,链接:
https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/

版权声明:
著作版权@MIT Technology Review.
翻译文字版权由Lucentmoda保留。可以自由分享,转载需注明链接。

3人工智能会超越人类吗

在许多领域,人工智能都有超越人类工作的性能,比如下棋、物流、金融交易,在控制机器人方面也比人类有优势。许多专家都预测,以后的很多工作都会被机器人取代,霍金甚至认为这将带来人类的危机。

2014年,剑桥大学的宇宙学家史蒂芬·霍金(Stephen
Hawking)在接受BBC的采访时说:“完全的人工智能(full artificial
intelligence)的发展可能会导致人类的终结。”微软联合创始人比尔·盖茨(Bill
Gates)也警告说:“关于AI,我持谨慎怀疑态度。”

关于AI带来的世界末日将如何展开,计算机科学家Eliezer
Yudkowsky在2008年颁发的《全球灾难风险(Global Catastrophic
Risks)》中提出:AI在未来从单细胞生物发展到人类智力水平的可能性有多大呢?他回答道:“形成一个物理意义上的大脑是可能的,其计算的速度是人类大脑的一百万倍….假如人脑因此而加速,主观上一年的思考将在31秒内就完成了,一千年将在八个半小时内就过去了。”Yudkowsky认为,假如我们不这么做就太晚了:“人工智能所运行的时间维度与我们不同,当你的神经元完成思考说‘我应该做这件事情’时,你已经错过时机了。”

首先,以上所有这样的末日情景都涉及一长串的“假如-那么(if-then)”意外事件,在任何点的失败都会推到所谓的世界末日。西英格兰布里斯托大学的电气工程教授艾伦·温菲尔德(Alan
Winfield)在2014年的一篇文章中这样说:“假如我们成功地构建与人类相同的AI,假如AI对它如何工作有着充分理解,假如它成功地改善自身成为超智能AI,假如这个超级AI意外或恶意地最先消耗资源,假如我们不能拔插头断电,那么,是的,我们可能有问题。这种危险,不是不可能,是不太可能发生。”

第二,假如按照时间段来检查的话,会发现人工智能的发展远低于预期。正如Google执行主席埃里克·施密特(Eric
Schmidt)在回应马斯克(Musk)和霍金(Hawking)时所说:“你认为人类不会留意到这种情况吗?你认为人类不会关闭这些电脑吗?”谷歌本身的DeepMind开发了一个AI关闭开关的概念,被戏称为“大红色按钮“,可以用来接管AI。正如百度副总裁吴安民(Andrew
Ng)所说的那样(回应Musk),“这就像是我们甚至还没有踏上火星,就在担心火星上会人口过剩。”

第三,AI的末日情景通常基于自然智能和人工智能之间的错误对比。哈佛大学实验心理学家Steven
Pinker在对2015年Edge.org年度问题“你对机器思考有什么看法”的回答中阐明:“AI反乌托邦项目将一个狭隘的阿尔法男性心理学投射到智力概念上。他们认为,超人类的智能机器人将‘放弃他们的主人或接管世界’作为本身的发展目标。”同样地,Pinker说道,“人工智能将沿着雌系自然发展——能够完全解决问题,但不会想要消灭无辜或支配文明。“

鉴于历史上对世界末日的几乎为0的猜测率,加上人工智能在几十年来缓慢发展,我们有足够的时间建立故障安全系统,防止任何这样的人工智能所带来的世界末日。