一
安东尼奥·加西亚·马丁内斯是典型的硅谷精英,几年前,他辞去了在Facebook担任的高级项目经理职务。他买了猎枪,然后离开家乡,在西雅图北边的森林里安了家,他正在尝试实现自给自足的生活。马丁内斯认为,人工智能将毁灭人类,他逃离城市,就是为了躲避即将到来的世界末日。

安东尼奥·加西亚·马丁内斯
和马丁内斯一样的人很多,他们的名字叫“末日备战者”。他们认为,人类社会变得复杂而脆弱,金融秩序崩溃,核战争,大规模传染病,毁灭性的自然灾害,都会给人类社会带来毁灭性的打击,所以,他们用自己的方式,积极地备战世界末日。末日备战者,已经发展成为一个全球性的民间组织,成员数以百万计。
居住在亚利桑那州菲尼克斯市郊区的莉萨·贝德福德,是典型的亚利桑那人,她和丈夫育有一儿一女,家里还养了一条狗和一只猫,她们一家,也是末日备战者。莉萨为家庭储存了半年的食物和各类物资,而专家给她的建议,物资不足以支撑长期生活,另外,末日到来时家庭的安全问题准备不足,所以建议她应该考虑紧急情况下,离开城市的路线。莉萨认为,她们的家被绵延数十英里的沙漠包围,而菲尼克斯周边只有三四条道路可以离开,如果末日到来,道路上会挤满逃生的人流,非常不安全。
莉萨不知道的是,2017年,比尔盖茨耗资8000万美元,在亚利桑那的沙漠中购买了54000英亩土地,开始兴建“贝尔蒙特”小镇,小镇是完全独立的社区,拥有非常完善的保障体系,而小镇就建在菲尼克斯市附近,距离莉萨的家,只有不到100公里。

“贝尔蒙特”小镇
比尔盖茨不是心血来潮,也不是特立独行,在美国的超级富豪圈里,备战世界末日,只是一件很普遍的事情。
拥有全球最大超市沃尔玛的沃尔顿家族,早已经在阿肯色州修建了家族避难地堡。在危机到来时,巨大的地堡足以容纳庞大家族的全部成员。作为沃尔玛的老板,地堡里自然储备着超出想象的充沛物资,全副武装的退役特种兵,24小时巡逻,把地堡变成了一座要塞。

沃尔顿家族避难地堡
和沃尔玛家族不一样,Paypal的联合创始人皮特,在新西兰买了447英亩土地,建立了自己的私人庇护区,他的计划也引起了大量硅谷精英的兴趣。在硅谷,他们流行把世外桃源般的新西兰叫做“The future”.

“The future”
富豪们的末日准备工作中,特斯拉创始人埃隆·马斯克走得最远。作为世界上最强的“准备者”,马斯克的公司正在努力实现火星计划。他常常念叨自己做的一个梦:“坐上自己的私人飞船,逃离地球这样一颗垂死的行星,去到火星上的私人殖民地,并且把人类文明在火星上做一个备份。”别人准备建设世外桃源,马斯克则准备在火星上建立另一个人类文明。

马斯克的“火星计划”
令人好奇的是,马斯克要逃离地球的理由,竟然和马丁内斯是一样的,他们都认为,人工智能的出现,将带来人类的末日。而比尔盖茨,也是这一论调的坚定支持者。
二
2014 年 10 月,在 麻省理工的一次研讨会上,马斯克语出惊人:“人工智能领域的研究如同在召唤恶魔。”2014 年 11 月,马斯克在 Edge 上再次发表观点,称人工智能机器可能在短短五年之内、最多十年之内,就会引发“一些非常危险的事件”。
2017 年 7 月 15 日的美国全国州长协会上,马斯克则将 AI 描述为“人类文明存在的根本性风险”,并呼吁政府主动监管人工智能而不是被动管理,否则将为时晚矣。他表示“我一直在敲警钟,但只有当人们看到机器人冲上街杀人,他们才会知道该如何应对,因为这看上去太不真实了”。马斯克还认为人工智能驱动的机器,很快就会全面取代人类。
马斯克的观点,得到了前世界首富的力挺。在2015 年的Reddit 论坛上,比尔·盖茨称:“我站在对超级人工智能感到担忧的一方。一开始机器能够为我们完成很多工作,还远没有达到超级智能的水平。如果我们能够妥善地管理,人工智能应该对我们是有利的。但是再过数十年,人工智能可能会强大到我们不得不担心。在这个问题上,我同意埃隆·马斯克和其他一些人的观点,我不理解为什么其他人对此并不担心。”
有意思的是,不久前去世的物理学泰斗霍金,也持有相同的观点,在生命的最后几年里,霍金多次提醒人们,警惕人工智能的危险性。
霍金,比尔·盖茨,马斯克的言论,很自然地引起了全世界的注意。然而,公开反对这种观点的名人也不在少数,围绕人工智能威胁论,一场口水大战随之爆发。
2017 年7 月 的一个下午,Facebook的创始人马克·扎克伯格,在自家后院与网友直播闲聊,一位网友提到了特斯拉创始人埃隆·马斯克的“AI 末日论”,请扎克伯格说说对此观点的看法。扎克伯格表示:无法理解那些宣扬 AI 将导致世界末日的人。他认为这些观点非常消极,并且实际上是非常不负责任的。他还指出未来 AI 将能够提供一些挽救生命的服务,比如诊断疾病和自动驾驶。
马斯克迅速做出了回应,他在推特上转发了一篇名为《扎克伯格炮轰埃隆·马斯克,指责他鼓吹人们警惕人工智能“非常不负责任”》的文章,并表示“我已经与马克聊过这事了,他对这个问题的理解有限”。有趣的是,马斯克自己就曾经被现代机器人之父罗德尼·布鲁克斯,评价为“并不懂 AI”。马斯克随后又转发了一篇 Tim Urban 发表于 2015 年的文章,标题为《AI 革命:通往超级人工智能之路》,再次宣告他的末日论立场坚定不动摇。
马斯克认为,人工智能对于人类的危险性是显而易见的,科学家和商业公司,不应该为了好奇和贪婪,忽视人工智能对于人类的巨大威胁。除了比尔盖茨和霍金,在全球商界和科学界,马斯克的观点拥有大量的支持者。
以扎克伯格为代表的另外一派,则认为持威胁论的人们完全是危言耸听,在和马斯克的辩论中,扎克伯克再次嘲讽马斯克并不真正理解人工智能,所以才会危言耸听。
事实并非如此,马斯克的确不是人工智能的技术专家,不过,这不代表他不懂人工智能。三年前他曾经在英国伦敦投资了一家小公司,后来,在一场规模不大的收购战中,谷歌公司击败了Facebook,成功收购了这家小公司,公司的名字叫Deepmind,后来叫做Google Deepmind,其开发出的人工智能产品Alphago,在2015年登上了《自然》杂志的封面,并且在随后进行的挑战中,轻松击败了围棋界所有的世界冠军,震惊了全世界。

Alphago击败李世石
作为谷歌竞争对手的扎克伯格,也对谷歌的成就表示了由衷的钦佩:人类在人工智能的探索道路上,谷歌已经完成了由0到1这最重要的一步。
Google Deepmind没有停止继续前进的脚步。击败了人类赖以自豪的围棋,只是证明人工智能,可以在任何一个特定领域的计算方法上优于人类,Deepmind并不满足于此,他们将目光瞄准了人类最喜欢的游戏之一:星际争霸。
在Deepmind看来,星际争霸和围棋不一样,在游戏的初期,玩家看不见对手的行动,这需要AI对于对手玩家可能采取的各种行动进行猜测和判断,大大提升了人工智能算法的要求。
2019年1月,Deepmind的论文再次登上了《Nature》杂志的封面,Deepmind在论文中宣布,在一个月前,也就是2018年的12月,在一场公平的比赛中,Alphaster击败了星际争霸的两位职业选手,比分是10:1,而这两位职业选手世界排名均曾经在世界前十。

Alphastar击败顶尖职业选手
下棋和玩游戏,并不是Deepmind的目的,公司最新人工智能算法,已经开始应用在金融和医学领域,随着这项技术的投入使用,高盛和摩根先后宣布,未来十年之内,将进行大规模的裁员,裁员幅度可能达到80%。看到这里,很多程序员可能是暗自庆幸,毕竟再牛逼的人工智能也是由程序员“造”出来的。
事实上,AI在目前的确还不能淘汰大部分程序员,不过,在2017年,谷歌已经研究出了能自动生成完整软件程序的机器人,名为“AI Programmer”,其编程水准已经能击败初级程序员。低端程序员的淘汰已经开始了。
不仅是Deepmind,过去十多年来,谷歌在人工智能领域大举扩张,大规模的收购从来没有停止过,我们来看看这张长长的收购名单:
DeepMind,api.ai,Moodstocks,Dark Blue Labs,Jetpac,Emu,Flutter,DNNresearch,Wavii,DNNresearch,Viewdle,Clever Sense,PittPatt,SayNow,Phonetic Arts,Metaweb,Neven Vision,从2006到2016,从最初的图像分析,语音语义分析,到深度学习,神经网络,通过不断地把世界上算法最优秀的企业纳入旗下,谷歌已经成为了人工智能领域最大的玩家。
而要想在人工智能的开发竞赛中保持领先,有三个最重要的条件:算法,计算力,和可供分析的海量数据。
三
谷歌的两位联合创始人拉里·佩奇和谢尔盖·布林,在12年前就曾公开表示:谷歌公司的目标是人工智能,而不是其他。
谷歌目前运营的产品,比世界上任何一家科技公司都多,拥有超过10亿用户。Android、Chrome、Drive、Gmai,应用商店,地图,搜索和YouTube,只要有互联网连接,用户几乎肯定会使用谷歌的某项人工智能技术,而在使用谷歌人工智能技术的过程中,大量的数据又回馈到了谷歌。可以夸张地说,这个地球上没有任何一家公司,能够像谷歌这样,拥有如此巨大的数据信息。因此,谷歌的人工智能开发,拥有着巨大的优势。这一切当然不是自然形成的,多年以来,拉里佩奇和谢尔盖布林,一直在围绕着人工智能进行布局。
2012年的一天,谷歌的工程师杰夫·迪恩,邀请当时担任谷歌高级副总裁的桑德尔·皮查伊,一起去看看他正在做一个新项目。作为传奇程序员的迪恩,曾帮助开发谷歌搜索引擎。

传奇程序员杰夫·迪恩
当迪恩展示成果时,皮查伊并不记得自己到底在哪幢楼。他只记得当时自己是站着的,而不是坐着的,房间里只有很少的几个人,气氛古怪而有些神秘。当时皮查伊正在负责谷歌的Chrome浏览器和应用程序,还没有认真思考过人工智能。
在这之前一年多的时间里,迪恩和他的同事,以人脑为模型,用数量庞大的计算机连接了一个网络,他们在1000台计算机中设计了16000个处理器,相互之间有10亿个连接。尽管距离与人脑超过100万亿连接的规模依然相距甚远,但这也是一个前所未有的计算机系统。
为了测试这个庞大的神经网络如何处理数据,工程师们进行了一个看似简单的实验。连续三天,他们给这台机器输入了大量来自YouTube视频的随机图片。他们并没有给它任何其他指令,只是想看看计算机会有何种反应。研究人员发现,沉迷于YouTube的电脑大脑与人类大脑并没有太大区别。
结果出来了,迪恩和他的同事们发现,在该系统内存的一个角落里,计算机自动生成了一个模糊图像,显示的是它在72小时内反复看到的东西:一只猫。
传统的计算机只能执行人类发出的明确指令,一个计算网络,居然自己给出了一个结果。很显然,这是世界上第一台能够学习思考的机器。

皮查伊
皮查伊的脑子里,不由自主地想起了薛定谔的那只猫,他的思维在那一瞬间发生了深刻的转变,他产生了一种强烈的预感:“这个东西扩大规模,也许能够揭示宇宙的运行方式,这将是我们作为人类所做的最重要事情。”
皮查伊在2015年接任了谷歌的首席执行官,他开始着力将谷歌打造成一家“人工智能第一”的公司。皮查伊专注于将所有有关智能的东西转化为新的、更好的谷歌产品,这使得谷歌人工智能的影响力,远远超出了该公司的产品范围。
皮查伊任命杰夫·迪恩为谷歌人工智能的负责人,而迪恩则做出了一个大胆的决定,开发一个新的人工智能工具TensorFlow,并且把这个产品向全世界开放。
向谷歌之外的所有开发人员开放TensorFlow,意味着全世界数以百万计的工程师将参与这套系统的完善,这种重要性怎么强调都不过分。Android正是凭借开源的方式,取得在手机操作系统上的领先优势。
开源的TensorFlow迅速被广泛应用。谷歌随后发布了TensorFlow 2.0,这使得没有经验的开发人员,也能够更容易地访问人工智能,这款工具受到了全世界程序员们的热烈追捧,累计下载量达到了惊人的4100万。这一切,仅仅是开始,谷歌的最终目标,是让开发人工智能应用程序像开发网站一样简单。人工智能产品,开始像水和空气一样,包围我们的生活。
随着谷歌在人工智能领域的优势变得越来越明显,对谷歌质疑声音也越来越大,其中相当一部分,来自于谷歌内部,质疑的核心是道德和安全问题。人们普遍担心:谷歌会成为人工智能的看门人,谷歌能够做好这个角色吗?
面对铺天盖地的质疑和旷日持久的争论,谷歌被迫放弃了部分容易引起公众不安的项目。
2018年3月,谷歌与五角大楼签订了一份名为Maven的人工智能无人机打击技术合同。在谷歌员工抗议了三个月后,皮查伊宣布不会续签合同。
由于涉及隐私,谷歌搁置了自己的面部识别软件。一位内部人士估计,此举可能会导致谷歌收入损失数亿美元。
因为道德方面的担忧,谷歌退出了为五角大楼提供云计算的100亿美元项目竞标,而亚马逊和微软仍在竞争中。
尽管做出了一些市场上的让步,但是谷歌在人工智能的快速前进,并未因此而放慢脚步。
在加利福尼亚州圣巴巴拉市,一个形状古怪的容器,摆在谷歌当地的实验室中央,这个容器的大小和形状像一个油桶,由铜制成的外壳镀了真金。由铌钛制成的粗电缆,像章鱼一样从顶部伸出来,传输控制和测量信号。

量子计算机
这个容器里装的是地球上最脆弱、可能也是最强大的机器之一:量子计算机。谷歌把这台计算机命名为Sycamofe,10毫开尔文,就是它工作时需要的温度。
Sacamore有53个量子比特,就是2的53次方,约为9千万亿种状态,科学家认为,使用Sycamore进行计算,它走一步,传统超级计算机需要走9千万亿步。在过去的十多年中,Sycamore一直在尝试挑战人类算力的极限。
2019年10月,谷歌在NASA官方网站上宣布,经过13年的不懈努力,谷歌的量子计算机取得突破,Sacamore用200秒的时间,完成了传统超级计算机需要一万年才能完成的计算任务。
量子计算机带来的突破有多么惊人,只需要想象一下,你拿着一把算盘,面对天河二号时,心里的绝望。
谷歌率先实现了“量子霸权”。
算法领先,数据领先,计算力领先,谷歌人工智能的拼图,已经接近完成。人类距离超级人工智能,可能只剩下一步之遥。
四
我们总是把人工智能和机器人联系到一起。在《星球大战》,《终结者》,《2001:太空漫游》等电影中,未来机器人的形象已经深入人心,这使得我们一提到人工智能,就想着机器人。其实,机器人只是人工智能的容器,人工智能自身只是机器人体内的控制电脑和软件,相当于人类的大脑,而至今为止,人类的大脑是我们所知宇宙中最复杂的东西。

人工智能已经在几乎所有需要思考的领域超过了人类,比如高等数学,金融分析,以及围棋。但是在那些人类和其它动物。不需要思考就能完成的事情上,却和人类差得很远。
事实上,那些对我们以为很简单的事情,其实是非常复杂的,它们看上去很简单,只是因为它们已经在动物进化的过程中,经历了几亿年的优化,从而变成了人类的本能。比如,你伸手拿起一杯水送到嘴边,你的肩膀、手肘、手腕里的肌肉、肌腱和骨头,瞬间就进行了一组复杂的物理运作,这一切还配合着你的眼睛等感官的运作,使得你的手能都在三维空间中进行直线运作,并且保持水杯的平衡。这个看似简单的过程,需要你的感官进行测量,大脑进行大量的计算,然后下达无数的指令,控制你身体的每一个细胞协同运转。看起来似乎这一切轻而易举,那是因为在你脑中。负责处理这些的“软件”已经很完美了,你也不需要学习,这套软件已经安装在了你的遗传基因里,成为你的本能。而这一切,人工智能都需要从头学起,
科学家把人工智能分为三类,弱人工智能,强人工智能,以及超人工智能。
弱人工智能早已经广泛地应用在人类生活的方方面面。
你的电脑和智能手机早就充满了弱人工智能系统,从导航到翻译,各种应用软件,都是弱人工智能,而谷歌搜索是一个巨大的弱人工智能,背后是非常复杂的排序方法和内容检索。
除了消费级产品的例子。军事、制造、金融等领域,广泛运用各种复杂的弱人工智能。专业系统也有,比如帮助医生诊断疾病的系统。
现在的弱人工智能系统看起来并不可怕,就算代码没写好,程序出故障,能够出现最坏的情况,也只会造成单独的灾难,比如造成停电、股票市场崩盘等等。并不能从根本上威胁到整个人类的生存。
然而,弱人工智能的生态正在日渐庞大和复杂,每一个弱人工智能的创新,都是在通往强人工智能和超人工智能的旅途上铺路搭桥。现在的弱人工智能,已经遍布我们生活的每一个角落,它们通过网络和无线连接在一起,尽管还没有意识,就像是地球早期软泥中的氨基酸。然而,这些没有动静的物质,经过漫长的沉寂,然后,就在某一天,突然之间就合成了有机生命,于是,强人工智能诞生了。在谷歌为代表的人类的努力下,这一过程,也许很快会发生。
要达到强人工智能,首先要满足的就是电脑硬件的运算能力。如果一个人工智能要像人脑一般聪明,它至少要能达到人脑的运算能力。

按照之前的预计,到2025年前后,相当于人脑计算能力的技术可以得到普及应用,但是谷歌量子计算机的突破,毫无疑问将把这一时间大大的提前了。
仅仅是计算力,当然还无法产生强人工智能。但是加上不断优化的算法,海量的可分析数据,将保证这一进程稳定的推进。这种推进的速度刚开始的时候,可能像蜗牛漫步,但是后期会跑的非常非常快。快得超出你的想象。
当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加聪明,就好像一个小动物一般。然后,它在某一天突然就达到了最愚笨的人类的程度,我们到时也许会感慨:“看,这个人工智能像个小傻瓜,真可爱。”
这里出现一个问题,从智能的大局来看,人和人之间智能的差别,比如从最蠢的人和爱因斯坦的差距,其实是不大的。而人的智商一旦确定,也不会再有太大的变化,可是,人工智能却是可以通过自我学习而不断进化的,当人工智能达到了脑残级别的智能之后,它很快就会把爱因斯坦远远地甩在身后。
这里我们要引出一个沉重的概念:递归的自我改进。这个概念是这样的:一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它依然会继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平,这事加速回报定律的终极表现,我们称之为“智能爆炸”。
现在关于人工智能什么时候能达到人类普遍智能水平,也就是强人工智能,还有些争议。在2015年,一项面对数百位科学家的问卷调查结果显示,他们普遍认为强人工智能出现的中位年份是2040年,距今只剩21年。这听起来好像还挺遥远,没什么可担心的,但是,量子计算机的突破,毫无疑问会大大缩短这个时间,更重要的是,从强人工智能到超人工智能的转化,很有可能会快得超出我们的想象。
一个人工智能系统,后面我们把它叫做AI,AI花了几十年时间,到达了人类脑残智能的水平,而当这个节点发生的时候,AI对于世界的感知,大概和一个四岁小孩差不多。在这节点后一个小时,AI就写出了广义相对论和量子力学,而在这之后一个半小时,这个强人工智能变成了超人工智能,智能将达到普通人类的17万倍。
这个级别的超级智能,已经完全超出了我们能够理解的范围,就好像蚂蚁不会理解凯恩斯经济学一样。在我们的语言中,我们把超过128的智商叫作聪明的天才,把低于80的智商叫作笨蛋,但是我们面对高达17000000的智商,人类既没有办法形容,也没有办法想象。
一个超人工智能,一旦被创造出来,将是地球有史以来最强大的存在,而所有生物,包括人类,都只能屈居其下。这一切,很有可能在未来几十年内变成现实。
想象一下,如果我们智商100的大脑,都能够发明wifi,那么一个比我们聪明100倍、1000倍、甚至10万倍的大脑,就有可能随时随地操纵这个世界所有的原子,如果是那样,这个超级智能有能力满足人类对欲望的一切追求,包括长生不老。
人类将步入天堂!
五
我们想得可能有点太多了。
当一个超人工智能诞生,对我们来说,就像一个全能的上帝降临了地球,那意味着一种全新的智慧文明诞生了。面对这样的高级智慧,人类如果还在妄想能够去掌控,就会像蚂蚁妄图掌控人类一样的可笑。要知道,在超级人工智能眼里,看到的世界,和我们完全不一样,它的境界,是人类所无法想象的。如果我们指望控制这样的人工智能,来为人类服务,只能说是我们自作多情。这和蚂蚁指望控制人类全心全意为它们服务,一样地是痴心妄想。
可以断定,超级人工智能,也就是真正的超级AI一旦产生,立刻就会脱离人类的控制,进而取代人类成为这个蓝色星球新的主宰,至于把人类带向天堂,还是地域,无论是哪一种,人类都将完全无力干预,只能等待AI做出决定。

我们来大胆猜测一下,AI将会如何处理人类?只要低头看看地上的蚂蚁,我们就能够明白,AI对于管理人类社会,不会有丝毫的兴趣,就像我们没兴趣去管理蚂蚁。
那么AI会消灭人类吗?还是那个同样的看法,人类会刻意去消灭蚂蚁么?自然也不会,因为没有那个必要。但是,如果蚂蚁在人的家里安家筑巢,结果就会完全不一样了。
事实上,留给人类的选择并不多。
第一种选择,血战到底。
人类像《终结者》《黑客帝国》里面一样,面对新的统治者,进行英勇顽强的抗争,危急关头,人类英雄横空出世,带领人类浴血奋战,成功夺取最后的胜利,至少也能逼迫强大的AI低头,和人类在地球上共建和谐社会。

《黑客帝国》
这个嘛,用来拍电影就可以了,你要是相信人类可以战胜智慧超过我们10万倍的AI,后面的部分就不用看了。
电影电视剧里面,这样的场景很多,总是让我们热血沸腾,然而很遗憾,这种可能性是没有的。影视剧里的机器人,表现出来的智力,大多十分感人,这是反派角色的宿命,也可能是电影拍摄时,人工智能的概念并不清晰,导演们并不知道,原来AI是可以不断进化的,如果导演们知道,AI只需要眨眨眼睛,就可以杀死地球上任何生物,剧本肯定不敢这么写。
抵抗军的路数,很显然是行不通了。
第一方案生存几率:等于0。
第二种选择,人类成为AI的工具,为AI服务。
这个其实也不用多说,因为不需要。在AI面前,以碳水化合物为基础的生命形式,不仅要吃喝拉撒睡,还要喜怒哀乐,还要谈朋友结婚生孩子,和机器人相比,又麻烦又低效率,这个事情不用AI他老人家回答,我做主,选择机器人。
第二方案的生存几率:约等于0
第三种选择,惹不起我们躲得起。
像比尔盖茨和千千万万末日备战者学习,逃离城市,躲到深山老林和沙漠中去,总之,离AI远点。
既然AI转念之间就可以消灭地球上任意生物,逃得远远的,就有用了吗?然而答案很让人意外,这个方法很可能是有用的。
AI是一种高度理性的智慧,只做有意义的事情,那么只要不和AI发生冲突,也就是资源争夺,一般来说就是安全的。就像我们不会追到森林里,去踩死每一只蚂蚁。由此可见,比尔盖茨先生果然是深思熟虑。听说马云也在新西兰置办了大宅子,看来能当上首富的人,都不是一般人,佩服佩服。
第三方案生存几率:大于50%。
第四种选择,逃离地球。
马斯克的火星移民方案,准备带领一部分精英人类,经过漫长的旅途,安全抵达火星,然后战胜火星上恶劣的自然环境,在那里建立人类的永久移民点,最终建立马氏文明。这个目前看来,理论上是有可能的。AI就算吃饱了再无聊,到火星上去追杀老马的可能性,也是微乎其微。不过,这趟旅行的距离至少是5500万公里,人类到达那里需耗时至少7个月,而目前老马的火星生态系统,据说只能支撑68天。“火星一号”卖的都是单程票,旅客在上船以前,可要想想好。
第四种方案生存几率:小于50%。
第五种方案,人类放弃AI开发。
如果人类现在全面终止人工智能的开发,很明显能够有效地阻止强人工智能的产生,进而把来自于人工智能的灭绝威胁,掐死在摇篮里,从理论上来说,这个方案是最彻底的终极方案。燃并暖,我们都知道,让全人类统一行动,这不过是一个笑话。人类的历史反复地证明一个真理,人类最热爱的传统运动,就是内讧。即使明知道AI的威胁,也有疯子会搞,最终逼得大家一起搞,搞了最多大家未来一起死,不搞的,现在马上就死。这才是人类。
所以,第五种方案,理论上的成功率是100%,现实中实现的可能性为0。
看来,我们要么逃到深山老林,要么只能躺下,等着挨锤。
尾声
一百万年前,人类祖先学会了使用火,从那时开始,人类逐渐成为了地球上唯一的高等智慧生物,进而最终成为了这个蓝色星球的主宰,创造了灿烂的文明。
欲望和好奇心,推动着人类不断地探索世界,从简单的工具到蒸汽机,再到电力,核能,计算机,互联网;从细胞,到分子,再到原子,量子,终于,我们接近了自然的核心秘密,距离创造全新的文明,只剩下一步之遥。

然而,这最后一步的迈出,或许会把我们带进天堂,也有可能会把我们拉入地狱。
如果那个最坏情况发生,我们能去到哪里?面对比人类智慧高级10万倍的超级智能,无论是比尔盖茨的安全社区小镇,沃尔顿家族的安全堡垒,还是马斯克的火星文明,也许都不过是自我安慰。
也许,从第一个人类使用火的那一天开始,这个结局就已经注定,人类作为碳基文明代表的使命,就是承载硅基文明的诞生。
我们划燃了最后一根火柴,却不知道,这一次点亮的,也许是文明的末日。
来源:量子的世界

