您的位置:首页 > 相关资讯  > 海南四人打骨牌·潜在威胁超核弹!人工智能,绝非你想象的样子
[摘要] mit终身教授泰格马克在新书《生命3.0》中写道,我们对人工智能的威胁存在两种误区。人工智能完全赶上人类只是时间问题。《生命3.0》而另一种误区在于,人工智能和电脑一样,不过是我们的一种工具。而人工智能将可能让人类尝到蚂蚁的滋味。随后,在2015年,在泰格马克的筹划下,波多黎各大会召开。

 

海南四人打骨牌·潜在威胁超核弹!人工智能,绝非你想象的样子

海南四人打骨牌, 岛 君 说

在科幻电影中我们总能看到人类被机器所统治,然后被迫开始反击与人工智能展开战斗的场面。

然而,时至今日人工智能的发展速度早已超乎我们的想象,若再不予以足够的重视,那么谁又能保证那些曾在电影中看到的镜头真的不会在现实中发生呢?

或许正如马斯克所言,“我们需要对ai保持谨慎,它们可能比核武器还要危险。”

图 片:视觉中国

来 源:正和岛

我们需要对ai保持谨慎,它们可能比核武器还要危险。——埃隆·马斯克 2014年8月的一条推特

在4月上线的纪录片《你信任这台电脑吗?》中,马斯克这样说:

这部纪录片中,20余位顶级大咖探讨了ai技术的进步对人类的威胁

“在人工智能时代,我们可以创造出’永恒的独裁者’。”他提到了一个可怕的可能性:威权政府建立的ai可以超越个别领导人或政党,创造一个永久的压迫结构。

“如果人工智能有一个目标,并且人类碰巧阻碍了它,它甚至不用考虑就会摧毁人类,没有任何困难。”马斯克说,就好像,如果我们正在建造一条道路,并且一个蚂蚁碰巧阻碍了我们。”

“你会有一位永生的独裁者。”

你觉得这是危言耸听,觉得这只是个科幻题材的故事,那只能说,你远远低估了技术进步的速度。这部记录篇在国内也引发了热烈讨论,虽然不少人认为,这是钢铁侠的又一次炒作,一种危言耸听。

但不少人从知识图谱、决策型ai等技术方面的突破,讨论了ai对人类的真正威胁。硬件及软件上的后门,对人工智能“灌输”有偏见的数据,任何一点点偏差都可能让马斯克所说的独裁者诞生。

波兰作家米沃什在《被禁锢的头脑》中写道:

“许多欧洲国家的居民直到20世纪中叶才痛苦地意识到 ,复杂而又晦涩难懂的哲学著作对他们的命运有着直接的影响。

就像他们所说的那样,他们自己吃的每份面包,他们的工作性质,他们自己和他们的家庭生活,都有赖于对某些原则争论的这样或那样的解决方式而此前,他们对这些原则从未注意过。”

21世纪的我们,是否应该把文本中的“哲学著作”再加上技术。

而我们是否也会到了某一天,才会“痛苦的意识到”这一切?

这是最好的时代,也是最坏的时代——狄更斯《双城记》

ai会带给我们怎样的未来?在科幻小说家眼里,这是个悲观的事情。极权,阶级固化……因为技术,这些离我们前所未有的近。

在去年硅谷引发热议的新书《生命3.0》中,mit终身教授泰格马克描述了12种潜在的未来,“极权2.0”便是一种。

过去,极权主义国家通常被证明是极不稳定的,最后都走向了崩溃。但新型的监控技术为未来的独裁者提供了前所未有的希望。

沃尔夫冈•施密特(wolfgang schmidt)最近在接受采访时回忆起自己曾在斯塔西(臭名昭著的原东德秘密警察组织)担任陆军中校,他谈到了斯诺登揭发的nsa(美国国家安全局)监控系统,说:“你知道,这对于我们来说简直无异于梦想成真。”

虽然斯塔西常被认为是人类历史上最为严酷的奥威尔式监控体系,但施密特却感叹道,当时的技术只能一次性监控40部电话。如果你想在监控列表上增加一个新名字,就得放弃一个旧的。

相比之下,即便只使用现存的技术,一个全球极权主义国家也能监控地球上每个人的每次电话、电子邮件、网络搜索、网页浏览和信用卡交易,并通过手机定位和配有人脸识别的监控摄像头来监控每个人的行踪。

此外,即便是远低于人类水平agi的机器学习技术也可以高效地分析和处理这些庞大的数据,从而发现扰乱治安的可疑行为,让那些闹事者在对政府构成严重威胁之前就被处理掉。

mit终身教授泰格马克在新书《生命3.0》中写道,我们对人工智能的威胁存在两种误区。

其中之一是,比人类更聪明的人工智能在21世纪不会诞生。在一次针对研究者和科技企业的调研中,很多人认为在2055年前后,这样的超级智能就会诞生。

这张“人类能力地形图”是机器人专家汉斯·莫拉维克提出的,其中,海拔高度代表这项任务对计算机的难度,不断上涨的海平面代表计算机现在能做的事情。人工智能完全赶上人类只是时间问题。《生命3.0》

而另一种误区在于,人工智能和电脑一样,不过是我们的一种工具。而实际上,人工智能的真正能力在于决策,倘若它的目标和我们出现了偏差,我们很有可能会失去控制权。

人们在建造水电站大坝时,根本不会考虑会淹没多少蚁丘。而人工智能将可能让人类尝到蚂蚁的滋味。

科技正在让生活前所未有地快速前进……或是毁灭,我们应该将未来把握在自己手中!——迈克斯·泰格马克,mit物理学终身教授

我们无法叫醒装睡的,但醒来的人却已经开始了行动。

2014年,mit教授迈克斯·泰格马克便开始致力于让ai安全研究进入主流,并与让·塔林(skype创始人)、埃隆·马斯克、斯蒂芬·霍金等人创办“未来生命研究所”。

最初,他们用文章来打响第一枪,让媒体、大众注意到问题的严重性。

随后,在2015年,在泰格马克的筹划下,波多黎各大会召开。deepmind创始人丹尼尔·哈萨比斯、“奇点”这个词的提出者弗诺·文奇以及众多世界顶级的学者、专家参与其中。这次会议中有两件事情格外重要。

一个是关于ai研究安全性的公开信。这封信收获了霍金、马斯克在内的8000位研究者的签字。

另外一个是,未来生命研究所开放了研究资助金申请通道,收到了全球300个团队的申请。

2017年的阿西洛马大会,将这场运动推向了高潮。

阿西洛马大会的合影,也是ai有益运动的“群英谱”,你可以在里面找到拉里·佩奇、埃里克•施密特这些企业家,吴恩达、丹米斯•哈萨比斯这样的技术专家,以及丹尼尔·卡尼曼这样的来自心理学、经济学、社会学方面的顶级专家。deepmind、谷歌、facebook、苹果、ibm、微软和百度等公司的代表悉数到场。

而大会最了不起的成果,当属阿西洛马原则。这份原则可以看做是“ai有益运动”的纲领性文件,涵盖了研究问题、伦理与价值以及所面临的长期问题。这份原则已经获得超过千名ai研究者和许多顶级思想家签名,其影响也在不断酝酿和发酵。你可以在网站上看到它的完整版本。

“ai有益运动”的影响从未止息,各国政府纷纷意识到ai安全性的重要,并相继发表重要报告。

与此同时,企业界也行动起来,亚马逊、deepmind、facebook、谷歌、ibm和微软发起了一个“有益ai”的行业伙伴关系。

从政府到企业,再到民众,所有人都对人工智能的冲击愈发严肃和重视。我们已经处在历史的十字路口中。这场变革和以往不同,稍有不慎,我们连翻盘的机会都不会有。

泰格马克把他的思索写成了新书《生命3.0:人工智能时代,人类的进化与重生》。这本书的写作历时5年时间。在这本30万字的洋洋大作中,泰格马克基于最严密的逻辑推理和最大尺度的想象力,探讨了人机共生的关键问题。

泰格马克研究这些问题的方式是,设想一个具有发展阶段的生命历程。他把最原始的生命形式,比如细菌,称为生命1.0。

生命2.0,或者说所谓的文明阶段,是人类现在所处的地方:人类能够学习,适应不断变化的环境,并能有意识地改变这些环境。

再往上,即生命3.0阶段,是高科技阶段。在这个阶段,后期人类不仅可以重新设计自身的软件,还可以重新设计自身的硬件。泰格马克写道,这种形式的生命将是“自己命运的主人,最终完全摆脱自然进化的束缚”。而人工智能最有可能实现这样的生命形式。

泰格马克描述了生命3.0无限可能性的未来

在泰格马克看来,人工智能早已不再是某种“工具”。而是与人类协同生存发展的“新物种”。因此,我们最关键的问题就在于,怎样让ai与我们的目标保持一致。

《生命3.0》上线仅一天就登上美国亚马逊 “人工智能和机器学习类”书籍排行榜首位,随后更是引爆硅谷。

当时,不管是像霍金这样的科学家,还是像马斯克那样的企业家,以及《自然》《科学》这样的顶尖的学术期刊,都非常罕见地同时推荐了这本书。

science、马斯克、霍金等的推荐语

霍金在推荐语中写道:“无论你是科学家、企业家,还是将军,所有人都应该问问自己现在可以做些什么,才能提升未来人工智能趋利避害的可能性。这是我们这个时代最重要的一次对话。”

如果你希望加入这场对话,向你推荐这本书。