【导读】: 我们缺乏一种定义,人工智能是算法还是创造性,或者说算法能否抵达创造性的彼岸。人类的智慧是否足以诞生另一种智慧?我们对人工智能危机的忧虑其实恰恰源于我们自身智慧的缺陷。

关于世界末日的问题,大多数人尽量避免去思考; 但是有一群人,这却是他们的职业。英国牛津大学的人类未来研究学院,专门研究人类种族的未来“大图景”, 尤其是能彻底消灭我们的风险。
正如你可能想象的那样,所考虑的风险包括核战争和流星撞击,还有一个一般人也许意想不到的领域,那就是研究人工智能构成的潜在威胁。电脑会变得如此聪明,以至于成为我们的竞争对手,它们把所有的工作都做了,最终会不会把人类全部消灭?这种“终结者”式的场景过去似乎只存在于科幻小说,但现在它开始被那些研究人工智能发展方向的人所认真对待。
斯图尔特·阿姆斯特朗是该研究学院的一名哲学家和研究员,他说:“我认为现在发表的有关甲虫或星际旅行的学术论文远比关于研究实际存在的风险的论文多。”最近他开始专注于人工智能领域。“世界上很少有类似机构在研究这些大型风险.,相比其他小风险类型,如交通安全之类的风险,这种大型风险的研究更是少得可怜。

摘自:太空漫游”(2001年)
“一件很可怕的事是,如果人工智能的发展出现偏差,它可能导致人类灭绝的不多的几个原因之中的一个“。阿姆斯壮解释说:“其他的风险的发生,其实很难导致人类灭绝”,“比如发生一次核战争,这只会使杀死地球上很少比例的生物。就算辐射增强,核冬天的时间延长,如果真的出现这种情况,甚至在更严酷更极端的情况下,地球上的生物可能有90%,95%甚至99%的生物被杀死,但是却很难让人类灭绝,同样,流行病也是如此,甚至更致命的流行病也是如此。
“问题是,如果人工智能(AI)出现偏差,95%的人类会被杀死,然后剩下的5%不久也会被消灭。所以尽管有不确定性,但这种最可怕的风险仍然可能出现。
当一个人类与人工智能(AI)在酒吧相遇...
那么,我们在这里谈论的是什么样的威胁?
“首先忘记终结者,”阿姆斯特朗说。“机器人基本上都有武器装备,人类的进化的天性会让人类对此感到恐惧,但真正可怕的事是人工智能比我们聪明,比我们更善交际。当一个人工智能机器人走进一间酒,它手里抓着人类(男人或女人)走出来,那是一个什么恐怖场景?当然他们也可能让人类社会在政治,经济,技术研究上变得更好“。

阿姆斯特朗认为,人工智能(AI)的第一个影响是近乎全民失业。“如果人工智能(AI)达到人类智力水平,你会要一个AI,复制它100次,训练它,让它们有100种不同的职业技能,再重复这种方法100次,你就有了在100个行业10000个高技能的员工。培养它们也许只需要一周时间。然后你再复制更多的它们,你就可以拥有数百万的员工......如果他们是真正的超人,你会得到超出了我刚才所描述的超级雇员。“
为什么AI想要杀死我们?
好吧,让他们夺走我们的工作吧,那些更优秀的AI想杀死我们似乎不可思议。谷歌工程总监,瑞·古威尔持对经过有机和机械改造的生命形式持乐观的态度,认为这种改造可以成为一个更有效的方式,超级电脑天网没有成为现实,如果成为了现实,它不一定要转而反对它的创造者。但是阿姆斯特朗认为我们应该意识到风险,并且应准备应对将要到来的风险。
“争论的第一部分是他们可以变得非常聪明,因此很强大。争论的第二部分是,要达到那种智能水平,无论它的构造还是编程都是非常难设计的......这样就有了一个安全边界。
“一个专门查杀邮件病毒的程序,它的任务是努力从收到的电子邮件中把病毒过滤掉,程序要完成的这个最高任务,它必须是聪明的”, 阿姆斯特朗继续道 “如果制造出这样的超级智能程序,那么它就会认识到,如果杀死每个人,让每一台计算机关机,这样就没有电子邮件被发送,那么邮件携带的病毒也就不可能被发送,这样它的任务就能完美准确地完成。
“这也许是有点愚蠢的例子,但它说明的一点是,对于要被赋于这么多的要求、任务的程序来说,“杀死所有的人类”是一个完美解决方案”

难道我们不能设计出安全模式吗?一个具体的'不要杀人类”的规则?
“事实证明,这需要制定一个更复杂的规则,远远超过了我们最初的设定。假如你真的成功地编写了一个程序,也就是设法定义了人类是什么,生命和死忘是什么,以及类似的东西是什么样的,那设想一下,智能程序如何区别埋在坟墓里的人类和在地下10公里深的掩体里正在输液的人?稍有偏差就会导致灾难性的结果。
“所以,我们真正要做的是从本质上定义人类是怎样的生命形式,或者说哪些东西是不允许干涉的,哪些是允许干涉的,要做到这点,把这些定义编码置入人工智能里。
不确定不等同于“安全”
阿姆斯特朗描绘一幅人工智能接管了世界后的可怕画面,但这是必然发生的吗?这是不确定的,但我们不能就此放宽心。
“增加的不确定性是一个坏的迹象,而不是一个好的。当全球变暖的人群提到‘但这些会导致什么样的结果是不确定的’,人们往往会理解成‘因为不确定性增加了,所以我们更安全了’,这是很可怕的,增加的不确定性其实总会带来不好的结果。
“所以,如果人们说不确定因素增加,结果几乎总是增加了尾部风险的概率 – 如前面说的气候变化的结果是不确定的,其实结果就气候变得更糟糕。所以说:‘我们不太清楚人工智能(AI)会带来什么’与 ‘我们知道,AI是安全的’是不一样的,既使我们下意识地会认它们是一样的。 “
什么时候我们才可能看到真正的人工智能(AI)?
阿姆斯特朗说,预测何时我们能拥有超级智力的AI,是很难回答的问题。
在哪儿给人工智能编程?如果直接在计算机里编程,这里的不确定性非常高,因为我们拥有计算机的时间还很短,另一种方法是全脑仿真,有人把他们称作'上传',就是复制人脑的思想到计算机。这种方法也许更可靠,因为与人工智能相比,我们对自已要完成的任务很清晰,并有明确的路径达到它,这种方法制造的人工智能再花一个世纪左右的时间应该可以实现。“
如果计算机仅仅只是象人类那样思考,那可能就不会出现太糟糕的情况。
阿姆斯特朗说“(与)一个全脑仿真的AI就是一个自然人的心灵,这样我们就不必担心人的心灵会误解”保持人类安全“这个问题,我们需要担心的只是一个人出现暴力这种问题,这个问题也是我们过去经验中经常遇到过的,我们可以通过限制他的行为等方法,办法很多,当然这些方法可能有用也可能没用,但是与处理完全外来的人工智能的思想来说,就不算什么难题。“
大卫

真正的人工智能肯定比任何人类聪明,它们什么时候出现现在还不能预测。
“你可能认为你听到过比较靠谱的人(比如库兹威尔,也可能别的人,他们有的支持AI,有的反对AI)预测人工智能出现的时间。但是我回顾了一下,虽然没有理由怀疑这些专家都不知道自已在说什么,我要说的是真正的人工智能从来没有存在过,因为他们没有存在的,他们也不可能反馈任何有价值的信息,所以我们也就没有任何我们需要的有实际意义的理论。
“如果你预测他们会在下个世纪大量出现,那么接下来你会看到,其实是没有清晰的发展模式来支持这个说法。所以肯定的是有强有力的证据表明,没有人知道人工智能什么时候出现,是否会出现。
“这种不确定性是双向的,关于人工智能不会出现以及人工智能不会很快出现的论据不充分。因此,正如人们也许会猜测AI可能在一个世纪的时间内出现,同时也可以认为它在五年内出现。
“假设有人想出了一个完美算法,输入大量数据,得出结论,AI能够推广,把这个结论当成证据,但是AI不会很快出现的可能性更大。
技术的哲学
当我与阿姆斯特朗交谈后,我发现目前这一代的哲学家,往往被其他学术圈所忽略,他们扮演的角色就是指导人类如何与日益发展的“智力”技术术互动。
阿姆斯特朗把这个过程比作电脑编程。“我们试着把所有的一切都分解成最简单的术语,就像你把它编入一个AI或进入任何一台计算机一样。编程经验是很有用的。幸运的是,哲学家,特别是分析哲学家,已经在做这件事。你只需要稍稍再增加点程序。所以,看看你有什么,你如何落实它,你如何学习这些理论,你怎么知道世界上的一切,如何清楚地定义它们变得非常有用也是必须的。

AI对你的工作的威胁
阿姆斯特朗面临的最大的问题,人们根本不相信人工智能会对人类的工作产生毁灭性的威胁,这个问题其实是很重要的。
“人类不善于处理极端风险,”他说。“一般人和决策者, 还不能共同处理影响力大、概率却小的事件。。。人类深具探索性,也有心理地图把灭绝这类事件归入一个特殊的类别 - 也许它们是”探索者和宗教或疯狂的人“,或者类似的东西。”
阿姆斯特朗的工作正在取得进展,关于人工智能威胁我们的工作这个提法逐渐让人们接受, “,这是一个非常合理的恐惧,与中级风险与极端风险相比,这个问题似乎得到了人们的更多的重视“,他说。
“人工智能可以取代几乎任何人,包括那些过去不会被替换或者外包的职业。因此,即使我们不看危险的方面,这个问题也值得担心。我个人觉得,如果我说人们都失去他们的工作,比我说人类会灭绝更能引起人们的关注。这可能是前一个问题对所有人来说更实际。“

汽车装配,在这个领域,机器人早已取代人类的许多角色。
我觉得可以结束谈论这个哲学问题了。阿姆斯特朗的工作可以由AI来代替吗?或者哲学是人类固有追求?
“有趣的是为什么哲学家不会被AI取代,哲学家成为人工智能比成为人类更合适,因为哲学是人的职业,”他说。
“如果人工智能善于思考,它会发展得更好。我们会更愿意把更好的哲学思想置入人工智能,当AI开始自我学习时,就不会朝危险的或与人类期望相反的领域拓展。
“这并不意味着,在后人工智能的世界,就不会有人类哲学家研究人类哲学,我们希望人类做他们认为有价值的和有用的事。这是非常合理的,在后人工智能社会存在哲学家,另外的人们做他们觉得是值得的事。如果您想做浪漫一点的工作,那可能是传统的那种农民。
“我确实不知道你将如何组织一个社会,但你必须组织它使人们会发现一些有用的,富有成效的事,其中可能包括哲学。
“‘人工智能可以做事可以远超人类水平吗?“,可能是的,但最有可能的,我们不能轻易区别人类哲学家和人工智能。”
从终结者系列电影到成为现实,还有很长的路要走,在未来战场上,作为一种威慑,拥有杀人能力的自主机器人已经受到重视。
AI周围的不确定性就是为什么我们不应该忽略斯图尔特·阿姆斯特朗这样的专家给我们的警告。当机器在快速发展,我们需要作好准备。
微信号 | kldht2016

想看更多科技前沿、先锋技术、奇幻异象的文章
长按二维码 识别关注

