8455澳门新


8455网站红包撕逼大战,撕的却是传统广告

8455澳门新文章已被作者删除

人工智能将消灭人类?专家认为机器智慧难超人

到底人工智能会不会统治世界?

• 作者 MIT Technology Review • 2015年03月22日09:16

  几年前,有次我和一位正在创业的朋友喝咖啡。当时他刚刚过了 40
岁生日,父亲生病了,又经常背痛,他觉得自己被生活压得透不过气。“别笑话我,”他对我说,“我可是盼着奇点来临拯救我呢。”

  我的这位朋友在科技行业工作,他目睹了微处理器的飞速发展和互联网的崛起。即便是在中年危机来到之前,想要让他相信机器智慧超越人类——也就是被未来学家称之为奇点的那一刻——也不是那么难。一种博爱的超级智慧或许能够迅速以更快的速度分析人类的基因密码,破解人类永葆青春的秘密。即便做不到这一点,或许至少能弄清楚如何解决背痛的问题。

8455澳门新 1

  但是如果它没有那么友好会怎样?牛津大学未来人类学院主任 (Future of
Humanity at the University of
Oxford) 尼克•博斯特姆 (Nick Bostrom)
在他的新书《超级智慧》(Superintelligence)
中描述了下面一种情况,这段内容也引发了一场有关未来人工智能的激烈辩论。试想一台我们可以称之为“纸夹最大器”(paper-clip
maximizer)
的机器,它的程序被设置成生产尽可能多的纸夹。现在我们假设,这台机器变得超级智能了。因为其目标已经设置好,它可能会接着自己决定生产新型的、更有效率的纸夹制造机——直到有一天,就像米达斯
(King Midas) 一样,它从本质上将所有东西都变成了纸夹子。

  不必担心,你可能会说:我们只要将其程序设置成生产 100
万个纸夹之后立刻停止就可以了。但是如果这台机器在生产了纸夹之后,又自己决定去检查制造的产品怎么办?检查计数是否准确怎么办?这台机器要变得更智能才可以确认这些问题。这台超级智能机器生产了一些还未被发明的粗糙计算材料
——称之为“计算质”(computronium)
并将其用于判断每个疑问。但是每一个新的问题又随着接踵而来,如此反复,直到整个地球都转化为“计算质”。当然,除了那
100 万个纸夹之外。

  博斯特姆并不认为“纸夹最大器”会发展成和上述情况一模一样,这只是一个思维试验。人们进行这种试验是为了说明,即便是再仔细的系统设计也可能无法控制机器智能的极端情况。但是他坚信超级智能会形成,并认为这种智能能发挥伟大的作用,但是也会自己决定不再需要周围的人类。

  如果这种说法听起来让你觉得很荒谬,你不是一个人。机器人专家罗德尼•布鲁克斯
(Rodney Brooks)
8455澳门新,就是批评者之一,他表示恐惧人工智能会失控的人误解了我们所说的电脑在思考或者电脑变得更智能。从这个角度来看,博斯特姆描述的所谓超级智能来临的日子还很远,甚至大概不可能实现。

  但是却有许多有智慧有思想的学者同意博斯特姆的看法,表现出担忧。这是为什么呢?

  自我意志 (volition)

  “一台电脑能够思考吗?”这个问题从一开始就忽略了计算机科学。1950
阿兰•图灵 (Alan Turing) 提出一台机器能够像小孩子般思考;编程语言
LISP 的发明者约翰•麦卡锡 (John McCarthy) 在 1955
年提出用“人工智能”定义该领域。随着 1960 年代和 1970
年代的人工智能研究者开始使用电脑辨析图像、翻译语言并理解代脉之外的自然语言指令,一种认为电脑最终会发展出能够说话以及思考的能力——并且会做坏事——的看法,在主流大众文化中开始出现。电影《
2001 太空漫游》(HAL from 2001: A Space Odyssey) 和 1970
年的《巨人:福宾计划》(Colossus: The
Forbin Project)
都出现了一台大型电脑将世界带到核毁灭边缘当中的剧情。同样的剧情在 13
年后也出现在《战争游戏》(WarGames)
当中,1973 年的《西部世界》(Westworld)
当中,机器人失去控制开始杀戮人类。

  就在人工智能研究距离远大目标还相聚甚远的时候,资金支持开始枯竭,“人工智能的冬天”来了。即便如此,智能机器在
1980 年代和 90
年代的科幻作家中仍旧受到欢迎,正是科幻作家维纳•温哲 (Vernor Vinge)
让奇点这个概念大众化并流行。还有机器人研究学者汉斯•莫拉维克 (Hans
Moravec),工程师/创业者雷•库兹维尔 (Ray
Kurzweil),他们三个人认为:当电脑能够独立思考不同的目标实现方法时,很可能会具有自我反省的能力——这样它就能够改变软件,让自己变得更智能。不久之后,这种计算机将能够设计它自己的硬件。

  正如库兹维尔所描述的,这种情况会开始一个美丽的新世界。这种机器将会具有洞察能力和耐心
(以万亿分之一秒计)
解决纳米科技和空间飞行中的问题;它们能够改进人体条件,让我们把自己的意识上传,变成一种永生的数字形式。智慧将在宇宙中自由传播。

  你也可以找到和这种阳关乐观派恰恰相反的论调。史蒂芬•霍金 (Stephen
Hawking)
就曾警告,因为人类无法在与高级人工智能的竞争中胜出,奇点“可能是人类末日的同义词”。在阅读了《超级智慧》一书之后,伊隆•马斯克
(Elon Musk) 发
Twitter 消息警诫世人,之后他向未来生命研究所 (Future of Life Institute)
捐赠了 1000
万美元。这家机构的目标就是要“努力排除人类现在面临的危机”(working to
mitigate existential risks facing
humanity)。

  现在还没有人表示类似这种超级智能的东西已经存在了。实际上,我们还没有这种通用的人工智能技术,甚至是一个清晰的技术实现路线方案。人工智能领域最近的进展,从苹果的自动化助手
Siri
到谷歌的无人驾驶汽车,全都暴露了科学技术的严重缺陷:这两个产品都遇到了从未碰到的局面。人工神经网络能够自己学习判断照片里的猫,但是它们要看过成百上千副照片才行,而且对猫的判断准确率比一个小孩儿更低。

  这也是诸如和布鲁克斯一样批评观点的来源,即便人工智能令人印象深刻——和早先的电脑能够做的事情相比——比如能够判断出图片中的一只猫,但机器并没有自主意志
(volition),它不知道和猫类似的东西是什么,照片里描述的是怎样一种情况,也无法做到拥有人类不计可数的洞察力。从这个角度来说,人工智能可能会带来智能机器,但是想要实现博斯特姆想象中的场景,还需要太多太多的工作要做。即便那一天真的出现了,智能也并不一定会带来感知能力。基于目前人工智能的发展情况,就推测超级智能将会到来,就好像“看到更多高效内燃机引擎出现就立刻判定
warp drive
马上会来一样。”布鲁克斯在他最近的一篇文章中写到,完全不需要担心“邪恶的人工智能”(Malevolent
AI)
,他说,至少在未来几百年里是如此。

  保护措施

  即便超级智能出现的机率和时间要很久,可能不采取措施也是不负责的。加州大学伯克利分校的计算机科学教授司徒特•拉塞尔
(Stuart J.
Russell) 与博斯特姆怀有同样的担心,他与库兹维尔在谷歌的同事彼得•诺维格
(Peter Norvig) 合著了 Artificial
Intelligence: A Modern Approach
一书,该书二十年来一直作为人工智能的标准教科书。

  “有许多本应该是很聪明的公共知识分子现在完全不知道正在发生什么,”拉赛尔告诉我说。他指出人工智能领域的进展在过去十年里非常可观,公众对其的理解还限于摩尔定律
(Moore’s
Law),而实际上现今的人工智能技术已经是基础性的,在计算机上使用诸如深度学习这样的技术能够让它们自己增加对这个世界的理解。

  考虑到谷歌、Facebook
还有其他公司都在积极主动研发智能的“学习型”机器,他解释说“我认为有一件人类不应该做的事情是,在考虑清楚可能的潜在危险之前,不要尽全力去制造这样一种超级智能机器。这样做有点不明智。”拉塞尔做了一个比较:“这就像合成试验。如果你问一个研究员他在做什么,他们会说在搞容器反应物。如果你想要无限的能源,你最好控制住合成反应。”同样的道理,他说,如果你想要无限的智能技术,你最好搞清楚怎样让计算机和人类需求一致。

  博斯特姆的书就是一个研究报告。超级人工智能将会是全能的,它怎么做完全取决于我们
(也就是,工程师们)。和任何一个父母一样,我们必须要给自己的孩子树立一定的价值观。不能是随便什么价值观,而是那些以人类最佳利益为本的价值观。我们基本上是在告诉一个神要如何对待我们。那么如何进行呢?

  博斯特姆很大程度上借鉴了思想家利泽•尤德考斯基 (Elizer Yudkowsky)
的一个想法,即“连贯推断意志”(coherent
extrapolated volition)——即从所有人当中持续发展 (consensus-derived)
出的一种“最佳自我”(best
self)。我们希望人工智能可以带给我们富饶、幸福、满足的生活:治愈背痛的疾病,帮助我们移居火星。考虑到人类从未完全在任何一件事上达成共识,我们将会需要在某一天为自己做决定——为全体人类做最佳的决定。那么我们如何将这些价值观设置成超级智能里的程序呢?怎样的数学可以定义出它们呢?这些都是问题所在,而博斯特姆认为,研究学者们现在应该开始着手解决了。他认为这是“我们这个时代的本质课题”。

  对于普通民众来说,现在还没有理由为了恐怖的机器人而担心。我们尚未实现哪怕有一点接近超级智能的技术。不过还要强调的是,世界上许多最大的科技公司都在投入资源,想要让他们的电脑更智能;一种真正的人工智能技术会给这些公司带来难以置信的优势。他们也应该考虑到这项技术潜在的不足,并且想办法避免它们。

  在未来生命研究所的网站上,有这样一封公开信。这封信并没有对可能存在的灾难发出警告,而是呼吁有更多研究能够收获人工智能技术的成果“同时避免潜在的问题”。这封信的签名者除了人工智能领域之外的人士比如霍金、马斯克和博斯特姆之外,还有一些著名的计算机科学家
(包括顶级人工智能学者丹米斯•哈撒比斯)。

  毕竟,如果这些学者们设计了一种人工智能却又无法实现最佳的人类价值观,那么说明他们还不够聪明,连自己的作品都无法掌控。

在不久的未来,人工智能(Artificial
Intelligence,英文缩写AI)技术会全面超越人类的智慧,甚至会反过来控制或毁灭人类这一灾难性的预测来自一群世界上公认最聪明的人,包括微软创始人比尔盖茨、英国科学家史蒂芬霍金以及美国的科技狂人埃隆马斯克。甚至有美国学者认为,人工智能超过人类的时间点奇点已经逼近,很可能就在几十年后。这一切真的会发生吗?还是正在发生之中?

科技巨头担忧人工智能失控

据多家美国媒体报道,在最近一次网络答问活动中,盖茨被提问如何看待人工智能的潜在危害,他表示,这确实是值得担心的问题。盖茨说:如果我们能够很好地驾驭,机器能够为人类造福,但如果若干年后机器发展得足够智能,就将成为人类的心头大患。

此前,数十位科学家、企业家及与人工智能领域有关的投资者曾联名发出一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效益。参加联署的人中包括霍金及马斯克等。据英国《金融时报》报道,这封发自生命未来研究所的公开信还附带了一篇论文,其中建议应优先研究强大而有益的人工智能。目前,人们日益担心机器的智力和能力可能会超过创造它们的人类,从而影响到人类的就业,甚至影响到人类的长期生存。马斯克表示,他相信不受控制的人工智能可能比核武器更危险。

《金融时报》2日一篇名为《机器人何时造反?》的文章称,物理学家霍金最近向BBC表示,完备人工智能的发展可能导致人类灭亡。霍金认为,一旦诞生了真正的人工智能即人类思想的全数字化版本它将开始自主迅速发展,并以越来越快的速度重新设计自己受限于缓慢生物进化的人类无法与之竞争,将被取代。

2045,人工智能超人脑?

人工智能全面超越人脑这样具有科幻色彩的话题,不仅在国内外科技界受到关注,甚至还有美国学者明确提出了人工智能超过人类的时间点。美国著名专家库兹韦尔在他的《奇点临近》一书中预测这个时间点将是2045年。

那什么是人工智能呢?从字面来看就是人造的智能,也就是让机器具备人类一样的行为能力及思维意识。美国麻省理工学院的温斯顿教授认为:人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。

那人工智能技术是否可以等同于机器人呢?360公司副总裁谭晓生11日接受《环球时报》记者采访时表示,机器人要用到人工智能技术,两者是一个交集关系,但不能完全等同。对于超级计算机和人工智能的关系,谭晓生认为,超算只是一个拥有巨大计算能力的载体,这是人工智能更深度发展的一个物质基础。除了这个物质基础,还有一些软性的东西。他认为,学界探讨的人工智能主要是指机器是否可能有自主意识,像人类一样去做一些复杂的智力活动。争论的核心可能包括,机器的智商能有多高?机器是否会产生自我意识?

谭晓生表示,人工智能近来受到关注可能与计算机芯片性能提升、计算能力提升以及算法的优化有关,但更重要的因素可能与深度学习技术的进步有关。深度学习技术就是机器模拟人脑的工作机理,这个理论很早就被提出了,但由于计算能力的限制,一直没法实现。随着深度学习的进步,使人类看到机器按照人脑的机理工作可以取得这么大的进步,因此产生了对于机器超越人脑的推理。

对于是否存在奇点的问题,国内的学界与产业界也存在着完全不同的观点。中科院计算所研究员、中国计算机学会副秘书长陈熙霖不认同2045奇点到来的结论。他认为,机器智慧很难超越人类,也许更像永远处在逼近的过程中。对于如何衡量智慧,如果仅仅是从记忆能力上看,或者计算能力上看,今天的计算机已经远远把人的能力甩在后面了。但从人类的智力活动来看,我们包括了记忆、联想、归纳、演绎、判断、思考、顿悟、甚至做梦等诸多智力活动,我们的智力还与情感有关,从这个意义上看机器智慧很难超越人类。

中国科学院计算所研究员、中国计算机学会高性能计算专委会秘书长张云泉也认为,机器智慧很难超越人类。仅从超级计算机的技术发展状况看,几十年内出现奇点的可能不大,但在资本的推动下,也有自我实现的可能。

而百度深度学习研究院(IDL)常务副院长余凯则认为,以他从事人工智能行业十几年的经验,再从上世纪八十年代到现在整个的发展看,人工智能产业发展非常快,至少从过去30年的进展看,计算能力跟数据量高速成长,人工智能(超越人类)的发展走势是有可能的。

英特尔中国研究院院长吴甘沙表示,相信奇点,但是采用一种预测的态度,而非预报,言之凿凿说2029或2045有点不合适。人的智慧形成,也存在奇点,在那之后加速进化。他表示,人的生理结构、DNA编码、脑和神经系统那么精密,常常有种错觉,人就是过了奇点的机器。吴甘沙写过一篇名为与机器赛跑:Win
or die的文章,总的观点是机器智能终将超越人类。

进化的机器会最终毁灭人类吗?

美国《华尔街日报》曾发表题为《人工智能不是威胁现在还不是》的文章称,在过去几十年里,从象棋到算术再到网上交易,计算机在许多事情上的表现都有长足进步,但到目前为止,它们还没有对我们或我们的财物表现出一星半点的兴趣。FT的文章也认为,人工智能展示的技术进展意义重大,它们展示了非凡计算能力、海量数据和案例分析软件所能形成的威力。它们将改善我们的生活、改变我们的经济,但它们造反的可能性与叉车没有两样。人类面临大量短期挑战,为什么要把未来的幽灵说成即将到来的恶魔呢?

谭晓生的观点则相对激进。他表示,文明的进化不用过分担心。哪天机器进化超过人了,从优胜劣汰角度,如果机器会带来更高的文明,人类为啥还要占着茅坑呢?看看《三体》、《星舰文明》,就很能理解。为了文明延续,要让最强者得到机会,4艘星舰留存1艘,其它舰人员甚至沦为食物,so
what?更何况,即使从文明延续的角度看,机器智能与人类也未必不能共处。(文中部分专家观点摘选自《互联网与人工智能的未来:奇点临近》专题沙龙)(刘扬
伊文)

相关文章

No Comments, Be The First!
近期评论
    功能
    网站地图xml地图