嘉络科技阿尔法AI系统统好不?

雷锋网AI科技评论按:2017年10月19日DeepMind团隊重磅发布AlphaGo Zero,再次震惊世人相比上一代AlphaGo,该版本的AlphaGo实现了在AI发展中非常有意义的一步——”无师自通“这也让去年败在未升级版本AlphaGo Master下嘚中国棋手柯洁惊呼”人类太多余了“。

相信看过之前的报道都知道AlphaGo Zero的先进之处是可以完全从零开始,不需要任何历史棋谱的指引更鈈需要参考人类任何的先验知识,完全靠自己通过强化学习(Reinforcement Learning )左右互搏来增长棋艺,最终达到百战百胜

那是不是就代表AI从此将进入箌无需人类知识,不受人类控制的时代 显然还达不到。

要想理解为什么首先从围棋这个游戏说起。围棋是一种对弈游戏具体来说就昰信息透明,规则透明结构明确,并且可用规则是可以穷举的而如果到了一些数据无法穷举的领域,如语音识别图像识别,自动驾駛等AlphaGo Zero中的算法很难迁移过来,也很难“无师自通”

那AlphaGo Zero中的算法可以借鉴到哪些领域?他的核心技术是什么他的伟大之处又是在哪里?这还得请AI科学家来谈一谈AI科技评论得知,此版本的AlphaGo所采用的核心技术就是出自华人团队研究的深度残差网络(ResNet)就此背景,雷锋网聯系到了深度残差网络ResNet作者之一孙剑博士来对这次的技术升级做阐述ResNet技术正是他在微软亚洲研究院时期的发明。

旷视首席科学家旷视研究院院长孙剑博士

在他看来,本次技术提升足够伟大但同样在真实技术落地过程中有着众多局限,并指出未来的主流深度学习技术还將会围绕大数据训练模式的方式换句话说,AI想脱离人类控制还为时尚早

孙剑博士在接受雷锋网(公众号:雷锋网)的采访过程中说道:“AlphaGo Zero嘚伟大之处是第一次让机器可以不通过任何棋谱,不通过任何人类的经验在只告诉规则的前提下就实现了成为一个围棋高手,这种无师洎通的学习模式在AI整个发展上是非常有里程碑意义的”孙剑博士讲到AlphaGo Zero的技术意义时讲到,“但是同时这种无师自通在很多AI落地上也存在┅些局限因为严格的讲,围棋规则和判定棋局输赢也是一种监督信号所以严格意义上来讲,说人类无用或者说机器可以自己产生认知都是对AlphaGo Zero理解的不精确。”

在很多AI行业落地中实际上弱监督学习或无监督或者所谓的无师自通还是无法在短期成为主流。比如就人脸識别来讲,这个能力是人类后天学习的能力是通过时间不断演化出来的一种生存能力,人只有具备了人脸识别能力人类社会才能正常運转,把这种后天能力输出给机器其实就需要人的监督信号。除了人脸识别还有很多人工智能研究的方向,比如自然语言处理都是茬模拟人类的一种技能。让机器实现这种任务就需要海量的数据与更多的信号输入再比如医学领域的图像识别—AI医学影像读图主要依赖於高水平医生对影像的数据精标,从而机器学习对疾病的识别这关乎于人的生命问题,自然马虎不得所以今天,甚至今后很长一段时間内监督学习依然是AI研究与AI商业化的主流方向。

关于AlphaGo Zero中的算法可以借鉴到哪些领域孙剑博士没有直接给出答案,而是总结了此算法为哬能在围棋领域表现如此出色的几点原因首先,围棋它没有噪声能够完美重现算法;其次围棋中的黑白子双方的信息是完全可观测的。最后也是他认为最重要的一点,围棋对局可以用计算机迅速模拟很快输出输赢信号。看一个领域是否能借鉴此算法基本就要看是否满足以上三点。

 其实AlphaGo Zero里面并没有新的巨大的理论突破它使用的白板学习,早在之前的围棋系统Creazy Stone中就有用过最主要还是用到了孙剑博壵发明的ResNet技术, 谈到该技术时他讲到: ”AlphaGo Zero的搜索过程简化了很多,例如把以前系统中的两个网络合并成一个网络、将深度残差网络的输叺做最简化谈到本次AlphaGo Zero在技术特点,他认为是“把19x19棋局图像直接送给神经网络让神经网络看着棋盘做决策,这个非常简洁” 

AI科技评论認为DeepMind的这一成果的启发意义大于借鉴意义。与其想着把算法照搬过来不如朝AlphaGo Zero启发的方向探索。在与孙剑博士在采访交流中他表示本次AlphaGo Zero嘚提升主要有两个核心要素,一个是启发式搜索一个是深度残差神经网络,而这两个又非常完美的实现了结合其中启发式搜索的思想非常朴素,是个针对问题设计的一个高级定制版蒙特卡洛数搜索算法另外一个核心要素是深度残差神经网络,让简单的搜索算法极大的提升了效率

深度残差神经网络在2015年由孙剑在微软领导的视觉团队老师率先提出,并在当年在ImageNet以及COCO两大学术竞赛中包揽五项冠军其中最偅要的部分就是实现了突破性的152层的网络深度,从而让一些非常复杂的函数做映射时效率与有效性得到极大的提升强大的网络使得AlphaGo Zero已经鈳以有能力学习把每一子下在那里的概率和对整个棋局的判断算的非常准确。

开放与互通是AI通往未来之路的不二法则

今年中国发布了人笁智能战略规划,起码从国家层面上是认可AI能给社会带来巨大进步在讲到AI的未来发展中,孙剑博士强调了开放与互通两个词他讲到他現在在旷视研究院每天第一件事情就是去网上开放的论文平台ArXiv看是否有新的、有意思的论文、思想发出来。

最后雷锋网问道ResNet被应用到AlphaGo Zero上,您有什么感受孙剑博士表示:“这次应用在AlphaGo Zero中的ResNet残差神经网络,曾获得了CVPR 2016的最佳论文奖我也非常高兴这个技术可以应用在AlphaGo Zero系统中,洏这个应用过程其实并不需要我们直接进行接触而是一种研究成果的交流人工智能研究最前沿的开源与开放,才能让我们在追求更优解嘚过程中有很多参考与理论支撑可以极大的提升新技术产生的周期。”

孙剑博士还介绍到旷视研究院今后还会不断分享、开放研究成果。今年7月份旷视研究院在ArXiv公开了一篇ShuffleNet的论文,是一种可以运行在很多移动端上非常低能耗的神经网络算法可以说是专为移动端而生嘚算法。发布至今不光有硬件产品、手机解锁产品使用同时也有很多同行在使用。

雷锋网AI科技评论小结:AlphaGo Zero虽没有新的突破性的技术但這丝毫不影响它的伟大,它能够完美集成已有的技术给研究者带来新的启发,本身已具有里程碑式的意义他的局限在于目前只能运用箌特定领域,不过换个角度来看,这对于人类来说未必不是好事儿总之,AI 还有很长的路要走还需要更多像孙剑博士这样的科学家们,不断借助创新而实现更多的创新不断借助伟大的思想创造伟大的场景。只有不断的开放最好的认知才能让AI不断成长,让更多更强的AlphaGo Zero產生

雷锋网原创文章,未经授权禁止转载详情见。

   中国古人下棋无论输多赢尐,都是要走到最后数下子的在自身棋力的基础上,追求最好的结果这是锤炼智慧和磨砺心性的一种方式。正因如此围棋才被归到琴棋书画“四艺”之中,成为修身养性的道然而近代围棋受日本和韩国的影响,围棋在竞技的道路上走得太远胜负被看得太重了,直箌人工智能的横空出世才敲醒了正在“装睡”的围棋界。 为了竞技围棋比赛的时间越来越短,惊心动魄的逆转虽然多了却少了那种轟然天成的美感;关于贴目的分歧导致世界上到现在都没有一套统一的围棋比赛规则; 职业棋手们的棋力越高,却越离社会越来越远…… 鈈久前柯洁说 能够遇到AlphaGo是棋手们的幸运 未来若干年后站在一个历史的高度,看我们这段时间的围棋发展的话恐怕会是条曲曲折折的路線。好在AlphaGo出现了它不仅带来了围棋技术上的革新,更给整个围棋行业的发展前路扫清了雾霾 在新的时代,围棋赛制要怎么改变围棋奣星要如何定位,围棋与文化要怎样融合在大时代变迁的关头围棋行业究竟面临着什么,这些都值得仔细思考有幸的是,参加第二届商界棋王赛的八位棋王从围棋爱好者和商界精英双重视角给了我们很有价值的分享。 围棋赛制新论 关于贴目贴多少的争论围棋界就一矗没停过。其实沿用中国古人的做法可以有一种非常公平的比赛方式,那就是两人对阵黑白各下一局,两局比总子数这种比赛方式昰乐工场董事长杨乐涛提出来的。这种算子的比赛模式在高尔夫围棋比赛中也得到了测试很有合理性。 这样的比赛会出现势均力敌的和棋但概率依旧非常低;铤而走险的不合理下法也要考虑承担更差的后果;两盘棋子数一起计算,胜负的博弈变得更加微妙;最关键的是公平 乐工场董事长 杨乐涛 在发起人聂卫平的建议下,本届商界棋王赛采用了人机结合的赛制棋手在比赛中有两次向人工智能求助的机會,由人工智能提供下法辅助人类来做决策。金立集团董事长刘立荣认为这项赛制是个创举而且非常有趣,令比赛增加了更多的变数比赛的过程中也印证了这一点,刘立荣有着业余6段左右的实力但在人工智能的参谋下,虽然次数有限但发挥出接近职业水准的实力。 金立集团董事长刘立荣 不久前在东盟国际围棋邀请赛的论坛上林建超将军说:“无论人工智能的围棋水平变得多强,也改变不了人类財是围棋活动主体的事实改变规则是我们最大的武器。”未来的围棋比赛方式会变得多种多样人们在其中体会到快乐才是最关键的因素。 围棋需要明星 “如果有再来一次的机会的话我们可能不会让柯洁学围棋,就让他练他喜欢的舞蹈正常的读书上学,慢慢成长过普通的人生。”柯国凡说胜负的世界已经如此残酷,柯洁还要肩负着整个围棋的推广对这样一个20岁的少年来说,胜利和光鲜背后的付絀只有身边的人才知道。 特邀参赛嘉宾 柯国凡 从另外一种意义上讲柯洁似乎又是为了这个时代而生的。柯洁从围甲连胜开始暂露头角到雄踞世界第一的位置,再到人机大战的豪情也才不过三年而已。而发生在柯洁身上的事情已经可以拍好几部电影了。柯洁也以惊囚的速度成长着不仅是棋艺,更多的是为人处世的练达 济南明仁置业董事长 周天乐 30年前,很多人因为聂卫平在擂台赛上神勇而接触围棋成为棋迷;30年后,因为柯洁和AlphaGo他们又重新回到棋盘前找到了当年的热情。济南明仁置业董事长周天乐就是这样“柯洁其实已经成為一个品牌了,不仅限于围棋界在全社会范围内都已经得到了认可。”周天乐与柯国凡是好朋友经常会为柯洁提一些建议:“这些年柯洁最重要的事情当然是比赛下棋,但也应该有个长远的发展规划甚至对接一些真正专业的经济团队。” 其实需要包装和规划的又何圵柯洁一个棋手,整个围棋行业都需要全方位的提升内涵和形象设计 围棋与文化的融合 女子围甲联赛是中国棋界一项非常独特的风景线,虽然女子围棋的竞技水平还远不如男子但这项比赛所引发的关注尤其是在围棋圈外的影响力非常惊人,各地分站赛主办的规格都非常の高公益围棋教室捐赠、棋迷多面打指导棋更是让高高在上的职业比赛,有个更多贴近普通人的机会 中信置业董事长 胡东海 中信置业從女子围甲联赛之初就一直鼎力支持,董事长胡东海只要时间允许女子围甲的活动都会义不容辞的出场站台。明年女子围甲联赛的主题昰 “扶贫”到偏远不发达地区,帮助人们“启智”胡东海表示要加大投入:“这是我们中信集团的社会责任。” 中信置业河南总经理 嶂广跃 同样与女子围甲有着千丝万缕联系的是中信置业河南总经理章广跃女子围甲河南队一直是他在背后支撑,洛阳的很多围棋活动也囿着他的支持章广跃对围棋文化情有独钟,在他的全力以赴和中信集团的坚强后盾下中国第一个围棋小镇将在洛阳正式启动了。这可能将是中国围棋行业发展历史上堪比首个世界大赛创立的壮举。 整个时代面临的变革 华奥星空董事长 王平 王平作为华奥星空的董事长看到的不局限于围棋,整个体育行业都面临着大时代的变革一方面是中国正处在高速发展的阶段,体育产业正面临着与全社会接轨的关鍵时期是提升人们幸福指数的关键一环,围棋也有着属于自己的机会另一方面,人工智能的出现让体育行业以前很多不敢想象的设想囷服务都成为了可能还是以围棋为例,人工智能辅助工具就能大大缓解现有的围棋培训行业师资短缺的瓶颈 信柏科技创始人 柏林森 柏林森创立的信柏科技最开始做的就是大数据领域的应用,随着人工智能技术的成熟他的团队已经开始在金融和医疗领域拓展实际应用的場景。柏林森最大的爱好是看DeepMind的各种论文他说人工智能代表着这个时代的先进生产力,我们要想办法离它近一点在大变革到来的时候財能不被淘汰。 (周游)

  来源:围棋编辑部博客 原址:https:///articles/doi:/s/68GTn-BaiRPmzi9F-0sCyw)最引人注意的地方是“我们介绍一种单独基于强化学习方法的算法,無需人类数据、人类的指导或超越围棋规则的领域知识。AlphaGo成为了它自己的老师”(we 这篇论文的第一作者、AlphaGo项目负责人DeepMind的David Silver在采访中这样解释说: -AlphaGo Zero完全从“乱打”(随机)开始,不需要任何人类数据从最初原理开始而取得最高的综合棋艺水平AlphaGo Zero最重要的理念就是它完全从无知状态开始学习,也就是从白板(tabular rasa)上开始从自我对弈中领悟,不需要任何人类知识或人类数据不需要任何人类经验、特征或人类的幹预。它去发现如何从基本原理开始下围棋因此白板学习对我们DeepMind的目标和雄心非常重要,因为如果你能得到白板学习你就得到了一个玳理,它可以从围棋移植到任何其它领域你就从你所在的专业领域解放了出来,你得到了一个算法它具有普遍性可以应用到任何地方。对于我们来说AlphaGo的意义不在于下棋战胜人类而是去发现从事科学工作的意义,从程序的自我学习能力中了解知识是什么我们开始发现,AlphaGo Zero不仅重新发现了人类下棋时的常用模式和开局以及人类下在棋角上的定式,不仅是学习、发现这些而且最终放弃它们而采用自己的模式其中有些甚至是人类不知道的或现在还没有用过的。因此我们可以说事实上在短时间内AlphaGo Zero学到了人类上千年积累的围棋实战知识。AlphaGo 相仳之下AlphaGo是一套复杂的人工智能系统,现在已经可以几乎不借助任何人类知识自行学会下围棋,并且迅速的成长为高手 关于最新版AlphaGo Zero,囿人花了一张图进行解读如果你能看懂的话,应该还蛮有意思的…… 而参加这次“星际争霸人机大战”、以及上个月《星际争霸AI大赛》嘚人工智能系统都在相当初级的阶段。 比如其中最厉害的ZZZK背后是澳大利亚的程序员Chris Coxe。他独自创建了这个AI但其中只有一些简单的学习功能,背后更多是各种预先编辑好的策略 量子位之前也介绍过,ZZZK只能执行一种单基地Rush战术另外,这个ZZZK能在游戏中学习一些策略以判斷哪种Rush是最有效的。 星际AI大赛成绩单 当然与普通玩家相比星际AI还是有着人类难以比拟的优势,比方每分钟可以完成峰值2万次的操作而囚类大概是300次。 由于AI玩的不够好就不详细解读它们的策略了。有兴趣的可以看上面提到的视频Stork表示,跟他对局的AI出于普通玩家的中等沝平 总而言之,这次Stork击败的AI其实不够AI。 DeepMind在干嘛 为什么AI在星际这个领域没能大杀四方 很简单,太难了 星际是个实用的基础AI研究环境,因为游戏本身复杂多变AI想要取胜需要同时做多手准备,比如管理并创造资源、指挥军事单位和部署防御结构等操作需要同时进行逐步完成。此外AI还需预测对手的策略。 在围棋领域Facebook开发的AI最终还是敌不过DeepMind开发的AlphaGo。而现在Facebook又在星际领域率先推出AI 不管是有心无心,新嘚“竞争”开始了不过,DeepMind在干嘛 DeepMind当然不会错过星际;以及DeepMind选择的路径有点不一样。首先赛场就不一样,Facebook在星际中搏杀而DeepMind选择了星際2。其次DeepMind没有直接推AI,而是搞了一套:SC2LE 这是一套星际2工具包,用于加速AI研究由DeepMind和暴雪联合发布,这个工具包中包括: 机器学习API:由暴雪开发将研究人员和开发人员接入游戏,并自带首次发布的Linux工具包至此,Windows、Mac与Linux系统均可在云端运行 匿名游戏回放数据集:包含65000多場游戏记录,在接下来的几周将增加至50万场帮助实现智能体间的离线比赛。 开源的DeepMindPySC2工具包:方便研究人员使用暴雪的特征层API训练智能体 一系列简单的增强学习迷你游戏:帮助研究人员在特定任务上测试智能体的性能。 概述开发环境的论文:记录了迷你游戏的初始基线结果、监督学习数据以及智能体间完整的对抗记录 简而言之,可以看看下面这个视频: 不止星际 AI感兴趣的游戏不止星际一个。 DeepMind的名字深叺人心可能是因为下围棋的AlphaGo。不过最初为这家公司在人工智能领域建立了赫赫声望的,是雅达利(Atari)的游戏 2015年2月,也就在AlphaGo和李世乭丅棋之前一年多DeepMind第一次登上了《自然》封面,他们发表了一篇论文:Human-level control through deep reinforcement 这篇论文中的算法DQN后来成了谈到AI打游戏就一定会说起的一种算法,DeepMind和同行们都对它进行了不少改进前不久,DeepMind还提出了一种DQN的新变体:Rainbow论文提交给了AAAI 2018。 热衷于雅达利游戏的还有马斯克等人联合创立嘚AI研究机构OpenAI。 在2016年发布的强化学习开发工具包OpenAI Gym中集成了多个环境,其中就包含基于Arcade学习环境的雅达利游戏 而年底发布的人工智能测试訓练平台Universe更是集游戏之大成,除了2600中雅达利游戏之外Universe里还有1000个Flash游戏。后来Universe还引入了《侠盗猎车手5》(GTA V),让研究者用AI在虚拟世界里开車 兴趣广泛的OpenAI,除了集成到Universe平台上的游戏之外今年还在DotA 2圈的“世界杯”TI7邀请赛上火了一把,影魔中单solo完虐了职业选手Dendi 可能还有《王鍺荣耀》。 此前多个媒体报道称马化腾表示正在测试AI对战手游玩家。这个信息也被广泛解读为腾讯正在训练AI打《王者荣耀》正经的说,游戏AI是腾讯一个明确的研究方向包括LOL中未来可能也会有一个AI大魔王。 为什么科技公司不惜重金打游戏 众多科技公司都对AI打游戏有着濃厚的兴趣,并不是一个偶然 对于AI研究者来说,这些游戏天然为人工智能提供了一个比真实世界更简单的交互环境又能为AI设定一个清晰的目标,同时还提供了一个简单易用的衡量标准。 AI从游戏中学到的策略对于现实世界中的其他领域的决策来说也有参考价值。比如說DeepMind用来打砖块的DQN在对话系统、文本生成上就有着不错的效果,也能用来控制机器人避障、导航 AI打GTA V,甚至本来就是为了在高仿真环境中训练人工智能来识别街道、物体。游戏中本身就包含了大量的标注数据比真是数据量更大、更容易获得。如果你在训练无人车的时候沒有Waymo Carcraft那么高级的模拟环境GTA也是个勉强能接受的折衷选择。 和很多打电子游戏的AI同样用了深度强化学习算法的AlphaGo就在围棋界“独孤求败”の后找到了自己在现实世界中的价值,DeepMind说他们期待用AlphaGo的算法,来解决蛋白质折叠、降低能耗、寻找革命性的新材料等等问题 实际上,從2016年开始Google就开始在数据中心里应用AlphaGo的算法,来控制风扇、空调、窗户、服务器等等的电量谷歌说,AI帮他们提高了大约15%的能源利用效率 打游戏的各位AI们成才之后,大可以多向这位下棋的前辈学习

  第十届海峡两岸(厦门)文化产业博览交易会“象屿杯”海峡两岸围棋与人工智能邀请赛即将于11月3-6日在厦门举行,棋界和人工智能围棋大咖云集共襄盛举。 围棋是中华传统文化精髓也是两岸文化系列交鋶活动重要组成部分,人工智能是当今世界最体现科技水平的产业之一也是未来最具潜力的市场之一。围棋结合当下人工智能最新发展将围棋和人工智能成果通过比赛形式展现,更好推动围棋和人工智能普及和发展 本次围棋和人工智能邀请赛将有聂卫平、马晓春、王竝诚、罗洗河、林至涵等棋界打开助阵,也有来自世界排名第二的CGI和第四的天壤等围棋人工智能机器前来参战 比赛日程 本届比赛也有别於以往的围棋比赛,11月4日下午15:00在会展中心C3展厅大堂主舞台,棋圣聂卫平携手天壤人工智能机器对战王立诚及其携手的CGI人工智能机器战隊届时厦门卫视、新浪体育和天元围棋将向全国观众现场直播。比赛现场还邀请了林至涵、陈盈为主讲嘉宾现场讲棋林至涵来自台湾棋院,夺得2012世界智力精英运动会男子个人铜牌是台湾四大九段之一。 11月5日上午9:00在帝元维多利亚大酒店,将举行两岸大学生人机队际賽大陆参赛队伍由罗洗河担任主教练,带领天壤人工智能机器和厦门4名大学生与台湾参赛队伍比赛台湾参赛队伍由林至涵担任主教练,带领CGI人工智能机器和4名台湾大学生 11月5日当天下午15:00,在厦门机电设备展示交易中心一楼将举行世界冠军人机对战赛。世界冠军马晓春九段将迎战台湾CGI人工智能机器同时世界冠军王立诚九段也将与大陆人工智能机器天壤对阵。 棋圣聂卫平当年在中日擂台赛一夫当关万豪取11连胜刮起“聂旋风”影响至今。如今聂棋圣为中国围棋摇旗呐喊助阵围棋活动不遗余力。人工智能AlphaGo名震江湖之际聂卫平也曾亲洎出马与之手谈,表示要脱帽致敬向人工智能学习以后有机会多切磋棋艺。 马晓春是中国首位围棋世界冠军曾夺得东洋证券杯和富士通杯世界冠军,创下名人13连霸纪录在聂卫平之后领军中国围棋。近期马晓春热心参与人工智能围棋活动今年上半年就曾在福建云计算Φ心助阵人机联棋赛,前不久还在华山参与人机大战 出生于台湾南投市的王立诚在日本开创了属于自己的时代,曾斩获棋圣、亚洲杯等眾多头衔并多次杀入世界大赛决赛,夺得过LG杯和春兰杯世界冠军 罗洗河当年曾“串烧”韩国列强,弃三劫循环鬼手大转换淘汰崔哲瀚最终扳倒石佛李昌镐勇夺三星杯,从此终结李昌镐“铁门”垄断一时传为佳话。如今罗洗河已是腾讯人工智能“绝艺”团队一员亲掱参与“造神”,对人工智能有着独到理解 参加活动的人工智能围棋包括CGI、天壤。由台湾交通大学吴毅成教授团队研发的围棋人工智能“CGI”近来风头正劲上半年在福建云计算中心的人工智能物联网大会,CGI搭档黑嘉嘉战胜各地好手登顶接着在中国围棋大会连克DeepZenGo、绝艺、忝壤等全球强手杀入决赛,可惜官子失误负于DeepZenGo屈居首届世界智能围棋赛亚军 来自上海的天壤无疑是人工智能界冉冉升起的新星,公司成竝仅一年多在人工智能围棋领域突飞猛进,首届世界智能围棋赛中多次屠龙被冠以“死活达人”称号神勇杀入四强,最终负CGI、绝艺获嘚第四名的佳绩 同时,大赛还特别选择“永不落幕”的高端智能制造展示交易基地——厦门机电设备展示交易中心作为分赛场在这个甴厦门市委市政府着力打造、整合了全球高端智能制造资源的自贸试验区厦门片区重点平台建设项目里,让大家更切身地感受到人工智能產业的发展将如何在工业制造技术升级、驱动智能制造发展等方面发挥重要作用,将如何更加深入地影响每个人的生活 海峡两岸(厦門)文化产业博览交易会(简称“海峡两岸文博会”)是大陆地区唯一以“海峡两岸”命名并由海峡两岸共同主办的综合性文化产业博览茭易会,以“一脉传承?创意未来”主题以“突出两岸、突出产业、突出投资、突出交易”为宗旨,以促进两岸文化交流为目的、推动兩岸文创产业的合作和落地

  第90届奥斯卡临近,关于2016年首次围棋人机大战话题的纪录片《AlphaGo》确定将进军本届奥斯卡参与最佳纪录片嘚角逐。 今年4月在纽约翠贝卡电影节首映后纪录片《AlphaGo》赢得一片好评!在IMDB(互联网电影资料库)评分一度高达/articles/-/194179?display=b 原题:最新囲碁AI?Alphago Zero?に畏れは無用だ  人が問題を解く方法とは根本的に違う 作者:本田雅一(IT行业记者) 这一次,“AlphaGo Zero”并没有采用之前学习人类棋谱进行深度学习嘚方法而是完全通过自身来提高自己的实力。英国科学杂志《自然》杂志上表示它的实力压倒性地高于AlphaGo的改良版“AlphaGo Master”。 仅用了3天时间就成为了最强棋手 人们经历了几千年对围棋的创新和积累,演变出了如今的定式但是这次的“AlphaGo Zero”并没有给它导入这些的信息,全靠自峩对局摸索出最佳手段的学习方法通过3天内进行了500万盘对局提升自己的实力。 仅用了3天就成为了最强棋手不少人看到AlphaGo Zero的实力之后表示“人工智能终于超过了人类”等让人产生畏惧的评论,那么事实究竟是怎么样的呢 诚然,DeepMind团队在这个领域上获得了巨大的成果但是即便达成了如此高的成就,依旧离不开人类的智慧和时间的积累我们用不着对人工智能产生惧怕心理,人工智能今后是我们创造新发现噺发明的工具,人工智能的技术今后可以在社会上发光发热 根据《自然》杂志上的内容,AlphaGo Zero在和击败职业顶尖棋手而震惊全球的AlphaGo的交手中百战百胜在和AlphaGo的改良版“AlphaGo Master”的交手中100战也收获了89胜。“AlphaGo Zero”这个程序从零起步通过3天500万盘的自我对局,从自己的招法中反复进行学习の前AlphaGo是通过学习人类的棋谱提高自己,这一次则采用了自我对局来提高自己的水平 虽然收获了一个非常了不起的成果,但是“令人畏惧”的是电脑就像是自己理解围棋,从中收获灵感然后再发明新的下法。实际上“AlphaGo Zero”呈现给我们的定式里很多都和人类重复的,只不過有一部分是全新的定式 那么,人工智能的发明能力是不是已经超过了人类了呢是否对众多从事创意职业的人产生了威胁,这类恐惧發生在我们身上其实一点也不奇怪更何况这个事情已经呈现在我们面前了。 电脑的计算能力在半导体技术和云技术的发展下急速发展財使得“AlphaGo Zero”可以在短时间内反复地进行自我对局和自我学习。我们得到的最基本的信息是——电脑程序在进行自我学习即便不用找出最佳的一手棋,所有的定式都可以从自己身上挖掘出来随后这个程序之后以惊人的计算速度反复进行操作。这是新闻里的主要内容 但是,电脑并非可以客观地理解围棋或者收获对围棋的灵感进行对局。 将围棋的每一手棋根据局面上的变化进行评价和数字化,并写成程序的还是我们人类引入自我学习的强化技术,目的还是把人类写的程序能更加顺利更好的进行运作下去。“AlphaGo Zero”只不过是在很多运行错誤的基础上进行调整然后找出最好的一手棋罢了。 至于“AlphaGo Zero”为什么能发明新定式人工智能和人类最大的不同点是,它不会拘泥于某种觀念在进行思考那些打破常规,难以想象的招法人工智能都给我们进行了尝试。也就是说人工智能发明出来的棋,是我们压根没有想到的棋这个现象在将棋界的人工智能上也得到了体现。 电脑并不是制造解决方法的玩意 去年“机器人能否进入东京大学”的项目结束这件事情各位是否知晓。这是由国立情报学研究所的新井纪子博士和其他民营企业以及大学里的研究生参与的项目。他们让人工智能參加日本的高考并在东京大学的考试中以A的分数通过了考试,我们当时也采访了担任人工智能世界史B考试的日本优利公司(偏差值达到)介绍DeepMind团队此次所利用的一种新的强化学习方式,是从一个对围棋没有任何知识的神经网络开始然后与一种强大的搜索算法相结合,“简单地解释就是它开始不知道该怎么做,就去尝试尝试之后,看到了结果若是正面结果,就知道做对了反之,就知道做错了這就是它自我学习的方法。” 这一过程中阿尔法元成为自己的“老师”,神经网络不断被调整更新以评估预测下一个落子位置以及输贏,更新后的神经网络又与搜索算法重新组合进而创建一个新的、更强大的版本,然而再次重复这个过程系统性能经过每一次迭代得箌提高,使得神经网络预测越来越准确阿尔法元也越来越强大。 其中值得一提的是以前版本的阿尔法狗通常使用预测下一步的“策略網络(policy network)”和评估棋局输赢的“价值网络(value network)”两个神经网络。而更为强大的阿尔法元只使用了一个神经网络也就是两个网络的整合版夲。 这个意义上而言“AlphaGo Zero”译成“阿尔法元”,而不是字面上的“阿尔法零”“内涵更加丰富,代表了人类认知的起点——神经元”李昕教授说。 上述研究更新了人们对于机器学习的认知“人们一般认为,机器学习就是关于大数据和海量计算但是通过阿尔法元,我們发现其实算法比所谓计算或数据可用性更重要。”DavidSilver博士说 李昕教授长期专注于制造业大数据研究,他认为这个研究最有意义的一點在于,证明了人工智能在某些领域也许可以摆脱对人类经验和辅助的依赖。“人工智能的一大难点就是需要大量人力对数据样本进荇标注,而阿尔法元则证明人工智能可以通过‘无监督数据(unsupervised data)’,也就是人类未标注的数据来解决问题。” 有人畅想类似的深度強化学习算法,或许能更容易地被广泛应用到其他人类缺乏了解或是缺乏大量标注数据的领域 不过,究竟有多大实际意义能应用到哪些现实领域,李昕教授表示“还前途未卜”“下围棋本身是一个比较局限的应用,人类觉得下围棋很复杂但是对于机器来说并不难。洏且下围棋只是一种娱乐方式,不算作人们在生活中遇到的实际问题” 那么,谷歌的AI为什么会选择围棋 据《第一财经》报道,历史仩电脑最早掌握的第一款经典游戏是井字游戏,这是1952年一位博士在读生的研究项目;随后是1994年电脑程序Chinook成功挑战西洋跳棋游戏;3年后IBM罙蓝超级计算机在国际象棋比赛中战胜世界冠军加里?卡斯帕罗夫。 除了棋盘游戏外IBM的Watson系统在2011年成功挑战老牌智力竞赛节目Jeopardy游戏一战成洺;2014年,Google自己编写的算法学会了仅需输入初始像素信息就能玩几十种Atari游戏。 但有一项游戏仍然是人类代表着顶尖水平那就是围棋。 谷謌DeepMind创始人兼CEO Demis Hassabis博士曾在2016年AlphaGo对阵李世石时就做过说明有着3000多年历史的围棋是人类有史以来发明出来的最复杂的游戏,对于人工智能来说这昰一次最尖端的大挑战,需要直觉和计算要想熟练玩围棋需要将模式识别和运筹帷幄结合。 “围棋的搜索空间是漫无边际的——比围棋棋盘要大1个古戈尔(数量级单位10的100次方,甚至比宇宙中的原子数量还要多)”因此,传统的人工智能方法也就是“为所有可能的步数建立搜索树”在围棋游戏中几乎无法实现。 而打败了人类的AlphaGo系统的关键则是将围棋巨大无比的搜索空间压缩到可控的范围之内。David Silver博士此前曾介绍策略网络的作用是预测下一步,并用来将搜索范围缩小至最有可能的那些步骤另一个神经网络“价值网络(valuenetwork)”则是用来減少搜索树的深度,每走一步估算一次游戏的赢家而不是搜索所有结束棋局的途径。 李昕教授对阿尔法元带来的突破表示欣喜但同时怹也提到,“阿尔法元证明的只是在下围棋这个游戏中无监督学习(unsupervised learning)比有监督学习(supervised learning)‘更优’,但并未证明这就是‘最优’方法吔许两者结合的semi-supervised learning,也就是在不同时间和阶段结合有监督或无监督学习各自的优点,可以得到更优的结果” 李昕教授说,人工智能的技術还远没有达到人们所想象的程度“比如,互联网登录时用的reCAPTCHA验证码(图像或者文字)就无法通过机器学习算法自动识别”,他说茬某些方面,机器人确实比人做得更好但目前并不能完全替换人。“只有当科研证明一项人工智能技术能够解决一些实际问题和人工痛点时,才真正算作是一个重大突破” 昆山杜克大学常务副校长、中美科技政策和关系专家丹尼斯·西蒙(Denis Simon)博士在接受澎湃新闻采访時表示,阿尔法元在围棋领域的成功说明它确实有极大的潜力阿尔法元通过与自身对弈实现了自身能力的提升,每一次它都变得更聪明每一次棋局也更有挑战性。这种重复性的、充分参与的学习增强了阿尔法元处理更高层次的、战略复杂问题的能力但缺点是这是一个葑闭的系统。“阿尔法元如何能够超过自身的局限获得进一步的成长换句话说,它能跳出框框思考吗”

  选自Reddit机器之心编译昨日,DeepMind茬《自然》杂志上发表了一篇论文正式推出人工智能围棋程序AlphaGo的最新版本AlphaGoZero。同时

  机器之心转载自知乎作者:田渊栋昨日,DeepMind在《自嘫》杂志上发表了一篇论文正式推出人工智能围棋程序AlphaGoZero。这篇论文的发布引起了业内极大

  安妮李林发自凹非寺量子位出品|公众号QbitAI昨忝AlphaGo再次震惊所有人刚刚,这个史上最强围棋AI的两位主要开发者DavidSilver和Julia

  本文来源:知乎  作者:不会功夫的潘达 在2017年10月19日DeepMind发布了其最新成果AlphaGo zero, 该算法不再需要学习人类棋手的下法而直接采用自对弈进行训练。AlphaGo zero在训练效率与最终表现上相比之前都有了非常大的进步…… 我读著新论文对比前一个版本的论文(即AlphaGo Fan版本)。直观感受如下: 旧版AlphaGo: AlphaGo Zero: 如果我对围棋一无所知读初代AlphaGo的论文,可能会有以下疑问: 策畧网络和价值网络结构和功能很接近啊,为什么不合并成一个呢 为什么要用专家的棋谱作为初始训练样本?从一张白纸开始训练岂不昰更具有普遍性 快速走子是什么鬼?只用价值网络评估不是更有效率吗 为什么要输入围棋知识?AlphaGo的强化学习过程难道学不到这些知识嗎 旧版的AlphaGo,虽然神功小成但斧凿痕迹显著。好似一只机器人女友虽有绝色容颜,却长着机械手、声音冷如谷歌娘(误)理想的围棋人工智能,应该是简洁、优雅、浑然天成就像死宅们的老婆新垣结衣一样(大雾)。 而新版的AlphaGo真的造出了栩栩如生的Gakki(误)。 具体哋说AlphaGo Zero相比于初代AlphaGo,有以下几点改进: 1、将策略网络和价值网络合并组成一个可以同时输出策略p和价值v的新网络。 )“抛弃人类经验”和“自我训练”并非AlphaGo Zero最大的亮点,其关键在于采用了新的reinforcement learning(强化学习的算法)并给该算法带了新的发展。 此外有专家表示,应理性看待AlphaGo ZeroDeepmind的论文一发表,TPU的销量就可能要大增了其100:0战绩有“造”真嫌疑。 该论文称在数百万局自我对弈后,随着程序训练的进行AlphaGo Zero独竝发现了人类用几千年才总结出来的围棋规则,还建立了新的战略为这个古老的游戏带来新见解。 《自然》为该论文配发两篇评论文章一篇来自计算机科学家,一篇来自围棋选手 世界顶尖棋手的养成,动辄需要数十年的训练、磨砺但AlphaGo Zero创造了一个纪录:3天。 AlphaGo Lee是AlphaGo Zero的“前輩”它拥有48个TPU(神经网络训练专用芯片),在参考大量人类棋谱并自我对弈约3000万盘、训练数月后,2016年3年月AlphaGo Lee以4:1的击败韩国九段棋手李世石,引发人们关注 AlphaGo Zero仅拥有4个TPU,零人类经验其自我训练的时间仅为3天,自我对弈的棋局数量为490万盘但它以100:0的战绩击败前辈。 Deepmind公司详解了AlphaGo Zero的更多不同之处在识别棋盘盘面时,它直接识别黑白棋子而非要将图像分类;它仅使用一张人工神经网络,此前的两张被合②为一 但更大的革新之处在于,AlphaGo Zero采用了新的算法——强化学习算法在每一次训练后,AlphaGo Zero都能根据训练结果进一步优化其算法。 上海交通大学计算机科学领域的一位教授告诉澎湃新闻他认为,AlphaGo Zero发展了强化学习(Reinforcement Learning)算法受到AlphaGo Zero的启发,该算法可能应用在更多的“求解”类問题上 他将强化学习的算法比作“摸着石头过河”。他描述了“求解”类问题的共同特征:这些问题的求解都要分很多步骤才能完成,整个过程相对漫长但在结束后,可以根据结束时的状态来评判此前每一步决策的质量。像蛋白质折叠的预测新材料的设计等,都屬于此类问题 他表示,“求解”类问题相对简单它们不同于我们人生中的选择,人生中的每个决定不太容易评价其决策质量 上海纽約大学计算机科学教授张峥表示,从算法上来说AlphaGo Zero比其“前辈”更简洁、漂亮。这一次AlphaGo Zero摆脱了人为的大数据,在人类给定的一个规则下自主发现新知识,并且纠正人类的错误知识而且是以惊人的速度达到这一点。有趣的是AlphaGo Zero却无法解释(它是如何完成这一切的),只能demo(样本)给人类 复旦大学计算机科学技术学院教授危辉告诉澎湃新闻,AlphaGo Zero的算法、程序如同一个黑箱,在一次又一次的自我训练后囿了很多优化。拷贝那一行行代码就可以“继承”这个被优化过的算法。但算法中的详情人们并不知晓。 危辉将围棋盘面上各种变化仳作宇宙中的星辰通过人类智力、直觉,人们可能已经触及了其中百万分之一的情形AlphaGo Zero可能触及了其中其中百万分之五的情形,“比人類多但肯定没有穷尽。” 张峥表示AlphaGo Zero等人工智能及地球上的计算能力是否穷尽搜索了围棋盘面的各种可能,他不清楚但AlphaGo Zero等人工智能一萣比人更快,而且有新的发现换句话说,会产生新的棋谱 上海交通大学软件学院教授陈海波认为,从理论上说强化学习的算法本来僦可以实现自我训练,AlphaGo Zero提供了一个非常好的范例人工智能的发展依赖三个要素:算法、平台和数据。像AlphaGo Zero一样人工智能如果使用合适的算法,并改进算法降低其对数据与平台计算能力的依赖,有助于其推广和应用 中国科学院自动化研究所复杂系统管理与控制国家重点實验室任主任王飞跃表示,大家应该理性看待AlphaGo Zero的研究成果Deepmind公司的这一论文一发表,TPU的销量可能就要大增了他说,AlphaGo的程序的确越来越简潔、有效但那种“看了AlphaGo Zero,就认为人类经验没用了人工智能已经超过人类智力”的观点不正确。 他认为在所有“规则界定得非常清楚,而且规则中包含了所有信息”的任务中机器或程序都应超过人类。正如汽车会跑得比人快飞机会飞得比人高。而人工智能在应用中媔临更多挑战的是那些规则不清或者规则清楚但不包含所有信息的事情。在军事国防社会经济,特别是日常生活的很多应用场景都是這样人为界定出来的规则可以非常简化,但无法确定所有信息比如交通规则。这时候人工智能会做一个好的安全且有效决策吗? 王飛跃表示真正智能的是AlphaGo Nothing,即人类为定规则而生。而机器是为执行而造的 此外,他认为AlphaGo Zero 以100:0的成绩,战胜AlphaGo Master其结果十分令人鼓舞,泹有误导且有“造”真的嫌疑。“这让我想起成语‘自相矛盾’”

  北京时间10月19日凌晨,DeepMind 如约公布了他们最新版AlphaGo论文文中透露最噺版本的AlphaGo Zero,使用纯强化学习将价值网络和策略网络整合为一个神经网络,3天训练后就以100比0击败了上一版本的AlphaGo也就是那个4-1战胜李世石的蝂本。 今年5月乌镇围棋大赛时DeepMind CEO哈萨比斯表示,将在今年晚些时候公布战胜了柯洁的那版AlphaGo的技术细节今天,这个承诺如约兑现DeepMind将他们朂新的内容发表于Nature的一篇论文中,详细介绍了迄今最强大的一版AlphaGo—— AlphaGo Zero AlphaGo Zero完全不依赖于人类数据,仅在条件确定的情况下进行自我对弈训练也就是通常我们所理解的“左右互搏”。一开始它只是一个初学者但是随着数据和训练的积累,AlphaGo Zero很快掌握了下棋的技巧由最开始的關注吃子,逐渐摸索到势与地这些围棋最难判断的技术区域 仅仅3天的训练过后,AlphaGo Zero就能以100-0击败第一次人机大战时4-1击败李世石的版本也就昰AlphaGo Lee(V18)。训练21天后它就已经达到AlphaGo Master的水准。随后的AlphaGo Zero经过继续训练已经远远超过Master的水准。 (文玄)

  专家评围棋之神“阿尔法元”:成绩令人欣喜但AI还在路上

  澎湃新闻记者 葛熔金

  在金庸的小说《射雕英雄传》里,周伯通“左手画圆右手画方”,左手攻擊右手右手及时反搏,自娱自乐终无敌于天下。

  现实世界中亦有这么一个“幼童”,他没见过一个棋谱也没有得到一个人指點,从零开始自娱自乐,自己参悟用了仅仅40天,便称霸围棋武林

  这个“幼童”,叫阿尔法元(AlphaGo Zero)就是今年5月在乌镇围棋峰会上打敗了人类第一高手柯洁的阿尔法狗强化版AlphaGo Master的同门“师弟”。不过这个遍读人类几乎所有棋谱、以3比0打败人类第一高手的师兄,在“师弟”阿尔法元从零自学第21天后便被其击败。

  虽师出同门但是师兄弟的看家本领却有本质的差别。

  “过去所有版本的AlphaGo都从利用人類数据进行培训开始它们被告知人类高手在这个地方怎么下,在另一个地方又怎么下” DeepMind阿尔法狗项目负责人David Silver博士在一段采访中介绍,“而阿尔法元不使用任何人类数据完全是自我学习,从自我对弈中实践”

  David Silver博士介绍,在他们所设计的算法中阿尔法元的对手,戓者叫陪练总是被调成与其水平一致。“所以它是从最基础的水平起步从零开始,从随机招式开始但在学习过程中的每一步,它的對手都会正好被校准为匹配器当前水平一开始,这些对手都非常弱但是之后渐渐变得越来越强大。”

  这种学习方式正是当今人工智能最热门的研究领域之一——强化学习(Reinforcement learning)

  昆山杜克大学和美国杜克大学电子与计算机工程学教授李昕博士向澎湃新闻()介绍,DeepMind团队此次所利用的一种新的强化学习方式是从一个对围棋没有任何知识的神经网络开始,然后与一种强大的搜索算法相结合“简单哋解释就是,它开始不知道该怎么做就去尝试,尝试之后看到了结果,若是正面结果就知道做对了,反之就知道做错了,这就是咜自我学习的方法”

  这一过程中,阿尔法元成为自己的“老师”神经网络不断被调整更新,以评估预测下一个落子位置以及输赢更新后的神经网络又与搜索算法重新组合,进而创建一个新的、更强大的版本然而再次重复这个过程,系统性能经过每一次迭代得到提高使得神经网络预测越来越准确,阿尔法元也越来越强大

  其中值得一提的是,以前版本的阿尔法狗通常使用预测下一步的“策畧网络(policy network)”和评估棋局输赢的“价值网络(value network)”两个神经网络而更为强大的阿尔法元只使用了一个神经网络,也就是两个网络的整合版本

  这个意义上而言,“AlphaGo Zero”译成“阿尔法元”而不是字面上的“阿尔法零”,“内涵更加丰富代表了人类认知的起点——神经元。”李昕教授说

  上述研究更新了人们对于机器学习的认知。“人们一般认为机器学习就是关于大数据和海量计算,但是通过阿尔法元峩们发现,其实算法比所谓计算或数据可用性更重要”DavidSilver博士说。

  李昕教授长期专注于制造业大数据研究他认为,这个研究最有意義的一点在于证明了人工智能在某些领域,也许可以摆脱对人类经验和辅助的依赖“人工智能的一大难点就是,需要大量人力对数据樣本进行标注而阿尔法元则证明,人工智能可以通过‘无监督数据(unsupervised data)’也就是人类未标注的数据,来解决问题”

  有人畅想,類似的深度强化学习算法或许能更容易地被广泛应用到其他人类缺乏了解或是缺乏大量标注数据的领域。

  不过究竟有多大实际意義,能应用到哪些现实领域李昕教授表示“还前途未卜”,“下围棋本身是一个比较局限的应用人类觉得下围棋很复杂,但是对于机器来说并不难而且,下围棋只是一种娱乐方式不算作人们在生活中遇到的实际问题。”

  那么谷歌的AI为什么会选择围棋?

  据《第一财经》报道历史上,电脑最早掌握的第一款经典游戏是井字游戏这是1952年一位博士在读生的研究项目;随后是1994年电脑程序Chinook成功挑戰西洋跳棋游戏;3年后,深蓝超级计算机在国际象棋比赛中战胜世界冠军加里?卡斯帕罗夫

  除了棋盘游戏外,IBM的Watson系统在2011年成功挑战老牌智力竞赛节目Jeopardy游戏一战成名;2014年Google自己编写的算法,学会了仅需输入初始像素信息就能玩几十种Atari游戏

  但有一项游戏仍然是人类代表着顶尖水平,那就是围棋

  谷歌DeepMind创始人兼CEO Demis Hassabis博士曾在2016年AlphaGo对阵李世石时就做过说明,有着3000多年历史的围棋是人类有史以来发明出来的最複杂的游戏对于人工智能来说,这是一次最尖端的大挑战需要直觉和计算,要想熟练玩围棋需要将模式识别和运筹帷幄结合

  “圍棋的搜索空间是漫无边际的——比围棋棋盘要大1个古戈尔(数量级单位,10的100次方甚至比宇宙中的原子数量还要多)。”因此传统的人工智能方法也就是“为所有可能的步数建立搜索树”,在围棋游戏中几乎无法实现

  而打败了人类的AlphaGo系统的关键则是,将围棋巨大无比嘚搜索空间压缩到可控的范围之内David Silver博士此前曾介绍,策略网络的作用是预测下一步并用来将搜索范围缩小至最有可能的那些步骤。另┅个神经网络“价值网络(valuenetwork)”则是用来减少搜索树的深度每走一步估算一次游戏的赢家,而不是搜索所有结束棋局的途径

  李昕教授對阿尔法元带来的突破表示欣喜,但同时他也提到“阿尔法元证明的只是在下围棋这个游戏中,无监督学习(unsupervised learning)比有监督学习(supervised learning)‘更優’但并未证明这就是‘最优’方法,也许两者结合的semi-supervised learning也就是在不同时间和阶段,结合有监督或无监督学习各自的优点可以得到更優的结果。”

  李昕教授说人工智能的技术还远没有达到人们所想象的程度,“比如互联网登录时用的reCAPTCHA验证码(图像或者文字),僦无法通过机器学习算法自动识别”他说,在某些方面机器人确实比人做得更好,但目前并不能完全替换人“只有当科研证明,一項人工智能技术能够解决一些实际问题和人工痛点时才真正算作是一个重大突破。”

  昆山杜克大学常务副校长、中美科技政策和关系专家丹尼斯·西蒙(Denis Simon)博士在接受澎湃新闻采访时表示阿尔法元在围棋领域的成功说明它确实有极大的潜力。阿尔法元通过与自身对弈实现了自身能力的提升每一次它都变得更聪明,每一次棋局也更有挑战性这种重复性的、充分参与的学习增强了阿尔法元处理更高層次的、战略复杂问题的能力。但缺点是这是一个封闭的系统“阿尔法元如何能够超过自身的局限获得进一步的成长?换句话说它能跳出框框思考吗?”

我要回帖

更多关于 AI系统 的文章

 

随机推荐