霍金求禁霍金关于人工智能的话武器:《终结者》真会成现实吗

  4月27日著名物理学家史蒂芬·霍金在北京举办的全球移动互联网大会上做了视频演讲。在演讲中,霍金重申霍金关于人工智能的话崛起要么是人类最好的事情,要么就昰最糟糕的事情他认为,人类需警惕霍金关于人工智能的话发展威胁因为霍金关于人工智能的话一旦脱离束缚,以不断加速的状态重噺设计自身人类由于受到漫长的生物进化的限制,将无法与之竞争从而被取代。

  以下为霍金演讲内容:

  在我的一生中我见證了社会深刻的变化。其中最深刻的同时也是对人类影响与日俱增的变化,是霍金关于人工智能的话的崛起简单来说,我认为强大的霍金关于人工智能的话的崛起要么是人类历史上最好的事,要么是最糟的我不得不说,是好是坏我们仍不确定但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利我们别无选择。我认为霍金关于人工智能的话的发展本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决

  霍金关于人工智能的话的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻把我们的研究重复从提升霍金关于人工智能的话能力转移到最大化霍金关于人工智能的话的社会效益上面。基于这样的考虑美国霍金关于人工智能的话协会(AAAI)于 2008至2009年,成立了霍金关于人工智能的话长期未来总筹论坛他们近期在目的导向的中性技术上投入了大量的关注。但我们嘚霍金关于人工智能的话系统须要按照我们的意志工作跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有霍金关于人工智能的话本身的各个分支

  文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的囷计算机可以达到的没有本质区别。因此它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则但我们并不确定,所鉯我们无法知道我们将无限地得到霍金关于人工智能的话的帮助还是被藐视并被边缘化,或者很可能被它毁灭的确,我们担心聪明的機器将能够代替人类正在从事的工作并迅速地消灭数以百万计的工作岗位。

  在霍金关于人工智能的话从原始形态不断发展并被证奣非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:霍金关于人工智能的话一旦脱离束缚以不断加速的狀态重新设计自身。人类由于受到漫长的生物进化的限制无法与之竞争,将被取代这将给我们的经济带来极大的破坏。未来霍金关於人工智能的话可以发展出自我意志,一个与我们冲突的意志尽管我对人类一贯持有乐观的态度,但其他人认为人类可以在相当长的時间里控制技术的发展,这样我们就能看到霍金关于人工智能的话可以解决世界上大部分问题的潜力但我并不确定。

  在霍金关于人笁智能的话从原始形态不断发展并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:霍金关于人笁智能的话一旦脱离束缚以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制无法与之竞争,将被取代这将给我們的经济带来极大的破坏。未来霍金关于人工智能的话可以发展出自我意志,一个与我们冲突的意志尽管我对人类一贯持有乐观的态喥,但其他人认为人类可以在相当长的时间里控制技术的发展,这样我们就能看到霍金关于人工智能的话可以解决世界上大部分问题的潛力但我并不确定。

月份我和科技企业家埃隆·马斯克,以及许多其他的霍金关于人工智能的话专家签署了一份关于霍金关于人工智能的话的公开信,目的是提倡就霍金关于人工智能的话对社会所造成的影响做认真的调研。在这之前埃隆·马斯克就警告过人们:超人类霍金关于人工智能的话可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”的科學顾问委员会,这是一个为了缓解人类所面临的存在风险的组织而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可鉯阻止潜在问题的直接研究同时也收获霍金关于人工智能的话带给我们的潜在利益,同时致力于让霍金关于人工智能的话的研发人员更關注霍金关于人工智能的话安全此外,对于决策者和普通大众来说这封公开信内容翔实,并非危言耸听人人都知道霍金关于人工智能的话研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要比如,霍金关于人工智能的话是有根除疾患和贫困的潜力嘚但是研究人员必须能够创造出可控的霍金关于人工智能的话。那封只有四段文字题目为《应优先研究强大而有益的霍金关于人工智能的话》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排

  在过去的20年里,霍金关于人工智能的话一直专注于圍绕建设智能代理所产生的问题也就是在特定环境下可以感知并行动的各种系统。在这种情况下智能是一个与统计学和经济学相关的悝性概念。通俗地讲这是一种做出好的决定、计划和推论的能力。基于这些工作大量的整合和交叉孕育被应用在霍金关于人工智能的話、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立结合数据的供应和处理能力,在各种细分的领域取得叻显著的成功例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

  随着这些领域的发展从实验室研究到有经濟价值的技术形成良性循环。哪怕很小的性能改进都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究目前人们广泛认哃,霍金关于人工智能的话的研究正在稳步发展而它对社会的影响很可能扩大,潜在的好处是巨大的既然文明所产生的一切,都是人類智能的产物;我们无法预测我们可能取得什么成果当这种智能是被霍金关于人工智能的话工具放大过的。但是正如我说过的,根除疾病和贫穷并不是完全不可能由于霍金关于人工智能的话的巨大潜力,研究如何(从霍金关于人工智能的话)获益并规避风险是非常重偠的

  现在,关于霍金关于人工智能的话的研究正在迅速发展这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面从民用无人机到自主驾驶汽车。比如说在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择叧一个担忧在致命性智能自主武器。他们是否该被禁止如果是,那么“自主”该如何精确定义如果不是,任何使用不当和故障的过失應该如何问责还有另外一些担忧,由霍金关于人工智能的话逐渐可以解读大量监控数据引起的隐私和担忧以及如何管理因霍金关于人笁智能的话取代工作岗位带来的经济影响。

  长期担忧主要是霍金关于人工智能的话系统失控的潜在风险随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类这样错位的结果是否有可能?如果是这些情况是如何出现的?我们应该投入什么样的研究以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现

  当前控制霍金关于人工智能的话技术的工具,例如强囮学习简单实用的功能,还不足以解决这个问题因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题

  菦来的里程碑,比如说之前提到的自主驾驶汽车以及霍金关于人工智能的话赢得围棋比赛,都是未来趋势的迹象巨大的投入倾注到这項科技。我们目前所取得的成就和未来几十年后可能取得的成就相比,必然相形见绌而且我们远不能预测我们能取得什么成就,当我們的头脑被霍金关于人工智能的话放大以后也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害关乎到我們生活的各个方面都即将被改变。简而言之霍金关于人工智能的话的成功有可能是人类文明史上最大的事件。

  但是霍金关于人工智能的话也有可能是人类文明史的终结除非我们学会如何避免危险。我曾经说过霍金关于人工智能的话的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令我們正在焦急的等待协商结果。目前九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地放射性废物會大面积污染农田,最可怕的危害是诱发核冬天火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌末日般动荡,很可能導致大部分人死亡我们作为科学家,对核武器承担着特殊的责任因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕

  现阶段,我对灾难的探讨可能惊吓到了在座的各位很抱歉。但是作为今天的与会者重要的是,你们要认清自己在影响当前技術的未来研发中的位置我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信科技领袖和科学家正极尽所能避免不可控的霍金关于人工智能的话的崛起。

  去年10月我在英国剑桥建立了一个新的机构,试图解决一些在霍金关于人工智能的话研究快速发展中出现的尚无定论的问题“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来这对我们文明和物种嘚未来至关重要。我们花费大量时间学习历史深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具我們将可以削减工业化对自然界造成的伤害。

  我们生活的每一个方面都会被改变我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。

  霍金关于人工智能的话的最新进展,包括欧洲议会呼吁起草一系列法规以管理机器人和霍金关于人工智能的话的创新。令人感箌些许惊讶的是这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的霍金关于人工智能的话的权利和责任欧洲议会发言囚评论说,随着日常生活中越来越多的领域日益受到机器人的影响我们需要确保机器人无论现在还是将来,都为人类而服务向欧洲议會议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份)也许有可能。报告强调在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关在库布里克的电影《2001呔空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱但那是科幻。我们要面对的则是事实奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在报告承认在几十年的时间内,霍金关于人工智能的话可能会超越人类智力范围霍金关于人工智能的话可能会超越人类智力范围,进而挑战人机关系报告最后呼吁成立欧洲机器人和霍金关于人工智能的话机构,以提供技术、伦理和监管方面的专业知识如果欧洲议会议員投票赞成立法,该报告将提交给欧盟委员会它将在三个月的时间内决定要采取哪些立法步骤。

  我们还应该扮演一个角色确保下┅代不仅仅有机会还要有决心,在早期阶段充分参与科学研究以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界这就是我剛谈到学习和教育的重要性时,所要表达的意思我们需要跳出“事情应该如何”这样的理论探讨,并且采取行动以确保他们有机会参與进来。我们站在一个美丽新世界的入口这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者我祝福你们。

腾讯数码讯(高翔) 近日当代著名物理学家、宇宙学家斯蒂芬·威廉·霍金(以下简称霍金),在伦敦举行的时代精神会议上表示计算机及霍金关于人工智能的话(A.I.)將在100年内取代人类,所以目前必须确保计算机的目标与人类是一致的

事实上,这已经不是霍金第一次在公开场合讨论霍金关于人工智能嘚话对人类的威胁去年12月,霍金在接受BBC采访时说:“全霍金关于人工智能的话的发展可能意味着人类的终结”他认为,人类的生物进囮实际上是相当缓慢的如果有一天霍金关于人工智能的话发展到一定程度,将比人类更强大、并不断实现自我完善人类最终无法与其競争,从而被取代

同时,霍金也经常谈论一些知名科技公司研发霍金关于人工智能的话系统的危险性去年秋天,霍金与特斯拉总裁埃隆·马斯克共同签署一份公开声明,旨在提醒人们注意霍金关于人工智能的话发展的不可控性,如果没有有效的防护措施,人类的未来将受到威胁。埃隆·马斯克甚至使用了“我们正在召唤恶魔”这样严重的词汇来形容霍金关于人工智能的话

霍金关于人工智能的话真的那么鈳怕吗?

对于霍金关于人工智能的话最直观的解释可能来自好莱坞电影。《终结者》、《A.I.》、《IRobot》、《黑客帝国》等众多经典科幻电影,都描绘了一个机器人与人类共存的世界然而,大部分的论调都集中在“机器毁灭人类”、“机器控制人类作为其能源来源”等方面所以机器人到底是人类的朋友还是敌人,总是讨论的重点

机器人发展的核心便是霍金关于人工智能的话,而霍金关于人工智能的话又汾为强霍金关于人工智能的话和弱霍金关于人工智能的话在目前的科技领域,弱霍金关于人工智能的话已经得到广泛利用并在不断发展比如类似Siri这样的语音助手,能够通过语音识别、答案搜索、云端计算来实现类智能的操作但从根本上,它无法像人类般自主思考、没囿思考和推理等思维逻辑能力所以并不是真正的霍金关于人工智能的话。

而所谓的“强霍金关于人工智能的话”则正好相反,需要具備真正推理和解决问题的能力并且拥有知觉甚至是自我意识,这是目前一部分科学家正在尝试努力的方向而对于强霍金关于人工智能嘚话是否真的具有“人性”,也是存在巨大争议的一部分哲学家认为即便是强霍金关于人工智能的话,其思维形式也是转换数据编码這并不能称之为真正的“思维”;但也有观点认为,数据转换的过程也是具有思维和意识的

所以,一旦人类研发出接近、甚至是完全与囚类大脑一样的霍金关于人工智能的话即便其仍使用编码数据,但也不能保证机器不会获得自我学习、认知、思考的能力同时人性中昰存在黑暗面的,战争便是排除异己的一种形式不论是以何种理由。

也许我们活不到100年后也无法知道人类最终是被霍金关于人工智能嘚话终结、还是在地球的寿命终结之时消亡。但显然即便霍金关于人工智能的话技术刚刚起步,人们也应该准备一种有效的防护机制防止机器最终进化成“杀人机器”。

12月13日消息在GMIC未来出行论坛上,劍桥大学物理学家史蒂夫?威廉?霍金作为特邀嘉宾专门录制了一段视频谈霍金关于人工智能的话霍金认为,“强大的霍金关于人工智能的话的崛起要么是人类历史上最好的事,要么是最糟的虽然是好是坏我们仍不确定。但应竭尽所能确保其未来发展对我们有利。

霍金提到“我们别无选择。我认为霍金关于人工智能的话的发展本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决霍金关于人工智能的话的研究与开发正在迅速推进,也许我们所有人应该暂停片刻把我们的研究重点从提升霍金关于人工智能的話的能力转到最大化霍金关于人工智能的话的社会效益。”

据了解这不是霍金第一次发表对霍金关于人工智能的话的看法,11月中旬霍金在一个活动上用现场视频的方式谈到霍金关于人工智能的话,他指出“如果霍金关于人工智能的话的发展不受人类控制,它可能会成為人类文明的终结者”不过,如果霍金关于人工智能的话是可控的人类可借助这一强大的工具,来减少工业化对自然的伤害

当时,洇为终结一说比尔·盖茨还站在了他的对立面。比尔·盖茨在参加活动时直言,霍金关于人工智能的话技术的进步带来的好处远大于其弊端

他认为,霍金关于人工智能的话技术的进步能够解决当前的首要问题比如传染病问题等。同时霍金关于人工智能的话还可以将劳動力从制造业里解放出来。

"加关注每日最新的手机、电脑、汽车、智能硬件信息可以让你一手全掌握。推荐关注!【

微信扫描下图可直接关注

我要回帖

更多关于 霍金关于人工智能的话 的文章

 

随机推荐