为什么人们担心机器人会星球大战毁灭者机器人人类?机器人又是怎样产生这样想法的

机器人的未来是一个五维世界,人类最终会沦落为宠物-钛媒体官方网站
机器人的未来是一个五维世界,人类最终会沦落为宠物
分享到微信朋友圈机器人毁灭人类证据之三:计算机能自学了
 来源: 
来源:作者:责任编辑:战钊
  复仇者联盟:奥创纪元、终结者、机械姬、超能查派——如果说2014年是空间电影的天下,那么毫无疑问2015年机器人和人工智能将占据我们的银幕。自从2000年人们担忧千年问题①之后,人们对机器人电影不算热衷,自那以后科技在迅猛发展的同时也受到了不少限制。
  让我们看看Ultron。Ultron是一种能模仿人类大脑模式但没有人性的机器人。它能学习、接受新信息并调整它自身的行为,它还能进行自我改造。不论你是普通人类、一名复仇者还是超能先生,这种技术都能为你制造出及其可怕的敌人。
  那要是我(原作者)告诉你拥有模仿人类大脑的人造神经网络模型的计算机系统已现世十多年了呢?要是我再告诉你数学算法已经能训练机器人独立思考了呢?
  吓坏了吧?让我解释一下。
  “深度学习”计算机已经面世半个多世纪。在20世纪50年代前,计算机只能一步步地做你命令它做的事,那时候它的用处不大。1956年,Arthur Samuel为了让计算机学会下跳棋,并没有一步步地设计好计算机的行动,相反他让计算机自己与自己下了几千遍跳棋。到1962年的时候,他的计算机已经能与跳棋冠军匹敌,且略胜一筹。记住,那时距离IBM的沃森(另外一个著名的深度学习机器)打败Jeopardy尚余十多年时间。
  除了有趣之外,以这种方式教会计算机自学非常有用:你不必给它的每个动作都设定程序,这能节省不少时间,也能让计算机帮我们做一些人类无法处理的事(至少,计算机完成任务的速度非常快)。
  我们在日常生活中也会见到这种技术的使用。谷歌利用这种能让机器学习的算法帮我们挖掘搜索结果。网上商店利用它们根据你的喜好及其他相似购买者买过的东西来给你推荐产品。浏览且买的人越多,搜索东西的人也越多,计算机能收集这些数据,给你更精确的提议。机器学习也是网络无处不在弹窗广告的一部分。
  2012年,谷歌利用一种深度学习算法,让计算机观看上万部YouTube视频,之后计算机独立学会了认知概念,它能严格根据视频内容识别出人类和猫。另一个名为The German Traffic Sign Recognition Benchmark(德国交通标志识别标准)的项目表明计算机能认出并理解交通标志图片,且出错率比人类少。
  计算机真的在自学吗?我们学习意味着我们接受越来越多的信息,在理解这些新知识之前我们会不断重复这些东西,这样看来计算机确实在自学。它们神志清醒吗?它们理解事物的方式与人类一样吗?它们在看可爱猫咪视频的时候会感到温暖且内心柔软吗?不,它们不会。可机器人学习事物的方式与人类不同就真的意味着它们会有阴谋吗?
  以上并不代表人类现在就要对抗现实版Ultron。建造这类机器人需要深度学习以外的多方面科技技术进步才行——灵敏度控制、计算机视觉、武器以及能处理任何事却不会分崩离析的硬件。近期所有这些领域的科技正在飞速进步,不过其进步速度并不均衡。计算机深度学习技术应该被运用到其它更为合适的领域中,比如健康和医疗。就我所知,目前没有人用这些技术制造一个大的恐怖攻击型机器人。
  不过也仅仅是目前而已。
  ①:千年问题可以追溯到二十世纪六十年代。当时计算器内存非常宝贵,故而编程人员一直借助使用 MM/DD/YY 或 DD/MM/YY 即月月/日日/年年或日日/月月/年年的方式来显示年份,但是当年序来到公元2000年的1月1日,系统却无法自动辨识00/01/01究竟代表1900年的1月1日,还是2000年的1月1日,所有的软硬件都可能因为日期的混淆而产生资料流失、系统死机、程序紊乱、控制失灵等问题,如此所造成的损失以及灾难无法估计。
  [桃子via themarysue][责任编辑:战钊]
一周图片排行榜
光明网版权所有我们来严肃的讨论一下“机器人消灭人类”这件事--百度百家
我们来严肃的讨论一下“机器人消灭人类”这件事
分享到微信朋友圈
“机器人消灭人类”一直都是科幻电影的里热门话题。科幻归科幻,人类发明那么聪明的机器人,可能还要很多年。不过在最近几年“AI威胁论”一直大行其道,人们有必要严肃的讨论一下这个问题了。
“机器人消灭人类”一直都是科幻电影的里热门话题。科幻归科幻,人类发明那么聪明的机器人,可能还要很多年。不过在最近几年“AI威胁论”一直大行其道,人们有必要严肃的讨论一下这个问题了。
AI威胁论:科技还在人类的控制之中吗?
瑞典有一个叫做 Nick Bostrom 的哲学家,是个不折不扣的蛇精病。他的“末日论”有一个版本是这样的:
有一个机器人,它非常聪明,但只是被设计用来做“回形针”(好像有点大材小用了)。后来它越来越聪明,越来越强大,就像“奥创”那样。但是它没有进化出人类的价值观。最终它把所有东西都制作成“回形针”——包括人类!!!地球上的东西都被做成回形针之后,它开始把目标转向其他星球。
像 Bostrom 这种“人工智能、世界末日、机器消灭人类”的论调在科技界已经成为主流。连史蒂芬·霍金都在担忧这件事。比尔盖茨和马斯克已经捐出了1000万美元,用来作为预防人工智能危害的基金。
这背后其实是反映了一些问题:科技已经深深的渗透进人们的生活中,但人们不一定能 Hold 得住科技。
现在电脑已经可以操控飞机了,用不了几年,连汽车也能控制。大数据可以预测我们的消费偏好,然后向我们展示对应的广告。电脑可以自己生成一篇新闻。甚至,在茫茫人海中,电脑通过人脸识别准确地辨认出你的脸。这些事情将来会产生什么样的后果?还在人类的掌控之中吗?
奇点:机器超过人类的临界点
谈到机器人,很多人会想到阿西莫夫的“三大定律”:“机器人永远都不得伤害人类...Bla Bla”。不过比“三大定律”更为让人津津乐道的是一个叫做“奇点”的东西。
英国数学家、解码员&I.J.GOOD&曾留下这样一句话:“超智能机器人将能够自行创造别的机器人,甚至能创造出比自身更强大的机器人;那将毫无疑问地引来‘智能大爆发’,等到了那时候,它们的智慧将远远地把人类甩在后面。”后来科幻小说作家&Vernor Vinge&把它命名为“奇点”。
除了“奇点”之外,还有一种观点,认为人类和机器人最终将融合,所有人将成为“半机械人”。不过在&Bostrom 看来,不论哪种观点,结局都是悲观的。
比如“机器人永远不得伤害人类”,最终机器人发现,这几乎是不可能的,唯一可行的方法就是不让任何的人类再出生!
又或者……设计师把机器人设定为“不管做什么,都要让人类微笑”。那么它们可能会选择在人类的面部肌肉中植入电极管,来让人类“永远”保持微笑。
科技的发展让人类一下子打破了大自然的限制,现在看起来我们还能控制局面,但是科技真的还在人类的掌控之中吗?
与科技赛跑:让人类 Hold 住未来
还有一个瑞典人,名字叫 Max&Tegmark。他不是什么蛇精病哲学家,而是物理学教授。马斯克曾资助它进行 AI 的安全性研究。
Tegmark 是一个“激进分子”,他经常脑洞一些世界末日的方法:比如利用大型强子对撞机来创造一个小型黑洞,用来吞噬整个地球?又或者能否创造一个‘奇异物质’来催化地球,使其转变成奇异夸克物质?
他认为人类目前处在一个与科技赛跑的竞赛中,关键在于我们能否赢得最终对科技的控制权。
1975年科学家们在加州的艾斯罗马召开了基因重组研究会,该场会议最终促成了针对基因重组的安全措施。2014年,大约有70名科学家和学者,在 Tegmark 的邀请下聚集到波多黎各进行关于现存机器智能威胁的讨论。&
此后,有300多只研究团队提交了各种各样的方案来降低AI的威胁。Tegmark 说他们发放了37份奖金,总计700万美元。
人类 VS 机器人
其实很多 AI 研究者认为科技界的焦虑是多余的。人工智能的研究非常复杂且进展缓慢,“奇点”也许不是一个时间点,可能是长达几十年的时间。
Daniela Rus 是自动驾驶汽车的研发人员。真正世界的交通环境太复杂了,汽车和行人混杂在一起,还夹杂着各式各样的标志,这些标志都是机器无法理解的。如果碰到堵车或者雨雪天气,根本处理不了,还得辨识交警和其他司机的手势。
这些事情是一个系统工程,需要更先进的传感器,更强的处理器和计算能力,还有软件工程师编写更高级的算法。
还有很长的路要走。也许我们有足够的时间来消重隐患。
机器人也许不是太聪明而是太傻了
我们在一个科技社会里,但其实科技是很脆弱的,通常因为一些未知的 Bug 而挂掉。回忆一下那些大的事故:深水油井一旦失火,需要花费好几个月才能扑灭。核反应堆也有可能随时崩塌。火箭也有可能爆炸。
由于科技系统越来越复杂,以至于没有一个人能搞懂它们究竟是怎么运行的。机器在无认监管的状态下,很容易出错,酿成大祸。
比如在股市上的自动交易系统经常会出现“乌龙指”,2010年的某一天琼斯工业指数突然暴跌1000点就是程序化交易产生的连锁反应。
也许未来机器人杀人不是因为它想杀了你,而是出Bug了。
取缔自动型武装机器人
虽然现在有很多问题科学家们还在争论中,不过有一件事情却是赶紧要做的:取缔自动武装机器人!
自动武装机器人离我们并不远。人们可以研究无人驾驶汽车,但是无人驾驶的坦克、装甲车是必须禁止的。自动巡航的无人机可以进行航拍或侦查,但无人战斗机是必须禁止的。
日,在布宜诺斯艾利斯的AI会议上,马斯克、Tegmark等人呼吁禁止自动型武装机器人的联名公开信正式被呈出来。
让脑洞再开一点
回到那个瑞典的疯子哲学家 Bostrom,他认为如果人类无法发明比人类更聪明的智能机器人,那么地球文明也挺失败的。
在他看来,地球就像一个小岩石,围绕着一颗普通的恒星,而这个恒星只不过是整个银河旋臂中成千上万颗恒星中的一颗。而在宇宙中的银河数目,又岂止数百亿。
人工智能的发明,使探索更广大的宇宙成为了可能,也提供了殖民宇宙的可能。我们可以把人类的智慧输入到电脑中保存起来,这样不同星际、星球的文明都可以保存上数十亿年。
宇宙这么大,肯定应该有一些高级文明已经掌握了无穷的计算能力,他们有能力创造一个虚拟宇宙!这个虚拟宇宙能够精确地模拟出人类意识,同时复刻出人类的记忆。那么我们很有可能就生活在一个由机器所创造出来的虚拟宇宙中!
Geek's view
也许在人工智能不受控制之前,人们早就掌握了控制之法,或者像胚胎克隆那样被严格禁止。毕竟人类发展至今几千年里,有一万种毁灭世界的可能性,但他们都没发生,可以说是我们比较幸运,也可以说是必然的。那么假如有一天机器人消灭人类,可能是运气用完了,抑或是必然的。
阅读:29252
分享到微信朋友圈
在手机阅读、分享本文
还可以输入250个字
推荐文章RECOMMEND
阅读:8176
热门文章HOT NEWS
与此同时,业内人士也表示,此前,证监会监管的重点更多可能是估值...
百度新闻客户端
百度新闻客户端
百度新闻客户端
扫描二维码下载
订阅 "百家" 频道
观看更多百家精彩新闻人工智能将毁灭人类?想法过于夸张却需谨慎对待|人工智能|机器人|人类_科学探索_新浪科技_新浪网
人工智能将毁灭人类?想法过于夸张却需谨慎对待
类人猿机器人RonoSimian看上去很像一只机器猴子,可以变换不同姿势。
  然而,谁也无法预料未来的科技进步节奏,因为谁也无法保证全球每一个角落的每一位科学家都能持同样负责谨慎的态度。
一些研究人员担心,随着我们逐渐交付更多任务给科技,机器人会慢慢蚕食我们的统治权。
  新浪科技讯 北京时间9月17日消息,据国外媒体报道,随着人工智能的不断发展,人们开始担忧人工智能或将令人类灭亡。不过,科学家认为人工智能无法具备与人类智能的对等性,但同时表示在人工智能的发明和应用问题上,应该持负责谨慎态度,并且应该致力于研究针对人工智能危险性的防范措施。
  好莱坞大片中彰显的人工智能,令人们开始担忧人类未来会被更智能的机器人所统治,甚或消灭。而史蒂芬-霍金有关人工智能或使人类灭亡的论断,以及企业巨鳄埃隆-马斯克关于“创造人工智能就像召唤魔鬼”的言论,无疑令人类对人工智能的担忧雪上加霜。这么说来,难道人类注定无法避免被计算机所征服?
  有关人工智能话题这个热门话题,我们有必要进行一次深入探讨,了解人工智能的优劣势。首先,人工智能已是我们生活的一部分。谷歌搜索背后运用的计算,或者快速浏览亚马逊网站,计算机软件一直在学习如何快速有效地作出反应。在人们眼中,这种程度的人工智能“局限大”且“能力弱”,因为它只能在发明者给定的框架内运作。相比之下,“局限小”或者“能力强”的人工智能意味着,果断执行违背发明者意愿的任务,这种人工智能不会“思考”,但是能够临场发挥。然而,目前还不存在这种意义上的人工智能,因为在模拟人脑运作或从零开始构筑自主处理能力方面还困难重重,更不用说创造一个拥有自我意识和思想的机器人。
  为了真实探究人工智能现状,记者参观了美国宇航局位于加利福尼亚州帕萨迪那的喷气推进实验室,观看工程师研制全球最智能机器人的过程。他们对记者提出的有关人类会被机器人军队接管的想法付之一笑。类人猿机器人RonoSimian的项目负责人布雷特-肯尼迪表示:“我从不担心智能机器人。”类人猿机器人RonoSimian属于令人类担忧的机器人版本,它看上去很像一只机器猴子,借助众多轮子可以变换不同姿势,如站立、爬行,或者打滚。RonoSimian的设计初衷是,赶赴人类难以进入的危险灾害区,如倒塌的建筑物或者被毁的核反应堆执行任务。它身上装载有两台计算机,一台用来控制身体中的传感器,一台用来控制身体活动。执行任务时,RonoSimian可以执行诸多任务,如驾驶汽车,关闭巨型阀门,它在美国国防部最近举办的机器人挑战赛中荣获第五名。
  然而,RonoSimian的实际智力非常简单。机器的确需要给定详细参数,才能准确执行各类任务。布雷迪-肯尼迪身边每天都围绕着机器人,他表示:“在可以预见的未来,我不担心也不指望机器人会跟人类一样智能。我拥有一手资料,知道指令机器人执行各种任务绝非易事。”同样,英国人工智能领域的领军人物,布里斯托机器人实验室的阿兰-温菲尔德教授也表示支持这一观点。温菲尔德教授表示:“我一直认为完全没有必要担心,有关未来超级智能机器人会接管人类统治地球的论点实在是过于夸张。”
  不过,温菲尔德教授承认,人类应该谨慎对待人工智能的发明和应用。在全球1000位签署呼吁“禁止在武器中应用人工智能”的科学家和工程师中,他是其中之一。他指出:“机器人和智能系统的研究开发,必须遵循极高的安全标准,因为我们需要安全的洗衣机、汽车和飞机。”然而,谁也无法预料未来的科技进步节奏,因为谁也无法保证全球每一个角落的每一位科学家都能持同样负责谨慎的态度。因此,在人工智能研发领域,的确存在不安定因素。
  人工智能安全与否的一个至关重要里程碑就是人机对等,即“人工普通智能”。科学家正在努力研究评估,机器人何时会与人类一样拥有对等智能,以及这种对等对人类来说有何意义。牛津大学人类未来研究院院长尼克-博斯特罗姆教授,在新书《超级智能》中对未来人工智能继续发展所带来的潜在风险,表示了深深的担忧,并对此发出了警告。他援引了人工智能领域一些专家的最新调查成果。一项调查显示,有50%的可能计算机将在2050年具备相当人类水平的智能;另一项调查显示,有90%的可能在2075年机器人将具备与人类对等的智能。尼克-博斯特罗姆教授称,自己是一个不折不扣的人工智能支持者,因为借助人工智能可以应对气候变化、能源与新药物等问题。
  然而,博斯特罗姆教授指出:“你不能把人工智能简单看作是一个很酷的工具,或者提高公司底线的小玩意儿。人工智能的确改变了人类的基本游戏规则,它是人类智能的最后一项发明,同时开启了机器人智能的新时代。”他假想了一幅画面,一个好奇的孩子拾起了一个没有引爆的炸弹,并且完全没有意识到危险性。他表示:“也许这一天还为期很远,但是我们真的像一个天真懵懂的孩子,完全没有意识到我们目前创造的机器人的力量——这就是我们作为一个物种所处的现状。”博斯特罗姆教授目前的研究项目得到了埃隆-马斯克的资金赞助,旨在探寻研究一种确保安全的共享方法。
  斯坦福大学教授杰瑞-卡普兰在新书《人类不需要申请工作》中表示,机器人还可能有另一种隐蔽的接管形式,随着我们习惯信任这些智能系统,依赖它们进行交通、交友、定制新闻、保护财产、监控环境、培育和准备食材、教育孩子,以及关爱长辈,最后必定会有某些风险。问题的关键在于,我们能否及时有效地找到足够的安全防护措施。(彬彬)
  扫一扫,带你看最新最有趣的科学。扫描下方二维码关注新浪探索官方微信(也可微信搜索:sinascience或新浪探索)。
文章关键词:
&&|&&&&|&&&&|&&
您可通过新浪首页顶部 “”, 查看所有收藏过的文章。
,推荐效果更好!
看过本文的人还看过

我要回帖

更多关于 机器人毁灭人类 的文章

 

随机推荐