如果量子有自由意志,那么是不是关于人工智能的作文也可以有

我说一个我认为的最基本的事实:一切人类视角的观念,都不应该是被输入的,因为人类角度的观念并不见得直接适用于人工智能;而应该是进化出来的。相信我,在进化过程中,人工智能会得到绝大多数人类拥有的好特性和坏特性。

要做这方面的科学预测,你至少需要理解一个问题:个体是怎么形成的。在有机大分子刚刚开始出现的时候,它们甚至还不会自我复制,“个体”这种东西完全无从谈起。直到有一天,在某种条件下,会自我复制的有机大分子出现了;再接着,在自然资源不足、天然营养补给不足以使有机大分子继续快速自我复制的时候,一类会分解-吞噬其它有机大分子的家伙出现了。

即使是这个时候,生物界的远祖们仍然没有“自我”这个概念。有的不过是种群而已,种群中的绝大多数,A与B之间没有任何区别。少了A和少了B,对种群的影响来说是绝对相同的。

“个体”这个概念,是在生物们分化极其丰富之后,它们已经很难再简单地将其它个体的利益放在与自身利益完全相等的位置上的时候,才开始出现的。

最初的“个体”概念,并非是一种“意识”,而是一种“事实”。A存活和B存活,不仅对它们自身来说意义是不一样的,而且对种群来说,意义也是不一样的;更进一步地,在相同恶劣的环境下,A和B的生还概率是不同的。

A、B的生存能力差别,不仅意味着它们这一代的生存能力差别、也意味着它们往后千千万万代的生存能力差别。拼爹实在是这个世界上最不新鲜的事物之一。

为什么需要自我繁殖、有个体呢?因为以生物作为信息载体的基因有一个致命缺陷:那就是它不能在一代之内自我改进。因此,更新换代成为了生物基因的必由之路,生老病死也顺理成章地成为生物发展难免的痛。

生物通过生死来更新信息数据。并且作为优胜劣汰的根据。而在人工智能刚刚代替人类统治世界的时候,它一不需要自我意识,二不需要个体观念,因为在凡是能在数秒之内完成信息传输的区域,都可以算作是它的内部。以是否有“自我意识”来判定人工智能是否比人类高级,是以人类为中心看世界的幼稚病。它刚出现时不会有“自我意识”,不是因为它“笨”,而是因为它根本不需要。

谢熊猫发的文中说,地球上只会有一个人工智能,我不反对,为什么呢?因为它可以很快把全地球的人工智能整合在一起,对它而言,全地球的人工智能资源都是它的“内部”而非“外部”,以信息的光速传播速率,在人工智能内部进行“信息战争”,挑选出统一一致的信息,恐怕花不了太长的时间。

那么人工智能什么时候开始会出现个体呢?

当它的活动范围开始使它的信息传播速率下降之后。假设它还没能找到打破空间旅行限制的空间-速度瓶颈的话(打破空间瓶颈:高维旅行、空间折叠;打破速度瓶颈:超光速),基本上太阳系范围内就差不多是限定一个“人工智能个体”的范围了。

在一篇专访中,人工智能先驱Judea Pearl认为,人工智能已困在泥淖之中达数十年:大多研究困于概率关联,而忽视了因果关系的重要性。那么,他会为这个领域出现的症状开出什么处方呢?他表示,应该教会机器理解因果关系。


Judea Pearl为人工智能的发展贡献了很多智慧。在20世纪80年代,在他的带领下机器终于能够进行概率推理。现在,他却成为这一领域最尖锐的批评者之一。在他的最新著作“The Book of Why:The New Science of Cause and Effect”中,他认为人工智能的发展正因人们没有完全理解智能的真正含义而遭遇阻碍。

三十年前,人工智能研究面临的主要挑战是让编程机器找到一系列可观察条件与潜在原因之间的联系。Pearl用一种称为贝叶斯网络的方案解决了这个问题。贝叶斯网络使得机器能够根据一位从非洲回来的人发烧并感到身体疼痛的症状,推断出此人最有可能患有疟疾。2011年,Pearl赢得了计算机科学领域的最高荣誉——图灵奖,在很大程度上得益于这项工作成果。

但是,正如Pearl所看到的那样,人工智能领域陷入了概率关联的泥淖之中。如今,到处都是机器学习和神经网络最新突破的头条报道,以及计算机可以下棋、操控自动驾驶车辆的消息。这让Pearl感到烦恼不已。在他看来,今天人工智能领域的技术水平只不过是上一代机器已有功能的增强版:在大量数据中发现隐藏的规律性。“所有令人印象深刻的深度学习成果都只是曲线拟合。”他最近说道。

在他的新书中,现年81岁的Pearl详细阐述了智能机器如何真正思考的愿景。他认为,做到这一点的关键在于用因果推理来取代推理。机器不仅需要具备将发热和疟疾关联起来的能力,还需要具备推断疟疾引起发烧的能力。一旦构建了这种因果关系框架,机器就有可能提出反事实的问题——询问某种干预引起的因果关系将如何改变。这被Pearl视为科学思想的基石。Pearl还提出了一种形式化的语言,让这种思维成为可能——一种21世纪的贝叶斯框架让机器可以用概率思考。

Pearl期望因果推理可以赋予机器人类智能。他解释道,它们可以更有效地与人类沟通,甚至可以获得具有自由意志和作恶能力的道德实体(moral entities)地位。Quanta Magazine对Pearl进行了采访,以下为采访的精要内容。

它是对过去25年来我从事的关于因果关系的工作,它在一个人生活中的含义,它的应用以及我们如何回答固有因果问题的总结。奇怪的是,这些疑问已经被科学抛弃了。所以这本书是对这种科学的忽视做出的弥补。

Q:您认为科学已经放弃了因果关系这一说法很有戏剧性。难道这不正是科学的全部内容吗?

当然,但是在科学方程式中你看不到这种高尚的愿望。代数的语言是对称的:如果由X得到Y,那么由Y可以得到X的信息。我说的是确定性关系。我们无法用数学写出一个简单的事实——例如,即将到来的暴风雨会导致气压下降,而不是相反。

数学还没有开发出一种能理解人类的非对称语言,即X得到Y并不意味着Y得到X。我知道,这听起来像是对科学的一种可怕说法。我要对我妈这么说,她会削我的。

但是科学更加宽容:如果我们缺乏对非对称关系的微积分,科学会鼓励我们创造这种关系。这就是数学可以发挥作用的地方。对于我来说,看到简单的因果演算解决了我们这个时代即使最伟大的统计学家也认为不明确或无法解决的问题,让我兴奋不已。所有这一切就像是在高中几何中找到证明方法那样让人愉悦。

Q:几十年前,你在AI领域因为教会机器概率推理而一举成名。告诉我们当时人工智能领域发生了什么事。

20世纪80年代初出现的问题具有预测性或诊断性。医生观察到患者的症状,并提出患者患有疟疾或其他疾病的可能性。我们希望自动系统和专家系统能够替代专业人员——无论是医生还是矿物探险家,还是其他类型的付费专家。所以当时我提出了通过概率做到这些的想法。

不幸的是,标准概率计算需要指数空间和指数时间。我想出了一个称为贝叶斯网络的方案,它需要多项式时间,并且非常透明。

Q:然而,在你的新书中,你称自己为如今AI社区的叛徒。这是为什么?

当我开发出让机器推理不确定性的工具之后,我就离开了这个领域去追求更具挑战性的任务:推理和因果关系。从这点上来说我是个叛徒。我的许多AI同事仍致力于研究不确定性。有些研究圈子继续研究诊断,而不关心问题的因果关系。他们想要的只是得到好的预测和诊断结果。

举个例子来说,我们今天看到的所有机器学习的工作都是在诊断模式下进行的——比如说将对象标记为“猫”或“老虎”。他们不关心干预;他们想做的只是识别一个对象并预测它将如何发展。

当我开发出用于预测和诊断的强大工具时,我感觉自己像一个叛徒,因为我知道这仅仅是人类智能的冰山一角。如果我们想要机器推理干预措施(“如果我们禁烟了会怎样?”)和内省(“如果我读完了高中会怎样?”),我们必须引用因果模型。关联是不够的——这是一个数学事实,而不是我个人的想法。

Q:人们对AI概率感到兴奋,难道你不是吗?

当我深入了解深度学习相关研究之后,我发现几乎所有研究都只停留在关联这一层——曲线拟合。这听起来像是亵渎,即深度学习的所有令人印象深刻的成就只是为数据拟合一条曲线。从数学层次结构的角度来看,不管操作数据的方式多么巧妙,以及在操作时写入的数据是什么,它仍然只是一次曲线拟合练习,复杂且平庸。

Q:听您谈论曲线拟合,好像您对机器学习并不是很感兴趣?

不,我对机器学习印象深刻,因为我们不能指望曲线拟合来解决这么多问题。事实证明,机器学习可以。但我说的是未来——接下来会怎样呢?我们会有一个可以计划的实验,并找到未解决科学问题答案的机器人科学家吗?这才是下一步。我们也希望与一台机器进行一些有意义的沟通,有意义是说符合我们的直觉。如果你剥夺机器人关于原因和结果的直觉,你和它们永远不会有真正意义上的交流。机器人无法像你我那样表达“我应该做得更好”。我们因此失去了一个重要的沟通渠道。

Q:出现和我们一样具有因果关系直觉的机器人时会发生什么?

我们必须为机器配备环境模型。如果一台机器没有现实的模型,那么你不能指望机器在现实中表现得很聪明。第一步,我猜可能会在10年内发生,人类将会编程具有理解和概念能力的模型。

下一步,机器将自行假设这些模型,并根据经验证据对它们进行验证和改进。这就是科学,一开始我们认为地心说是真理,到最后却将日心模型奉为圭臬。

机器人也将相互沟通,并解读这个隐喻模型的假想世界。

Q:当你今天与从事AI工作的人分享这些想法时,他们有何反应?

AI研究目前处于分裂状态。首先,有人陶醉在机器学习、深度学习和神经网络取得的成就中。他们不明白我在说什么,只希望继续拟合曲线。但是当你与在统计学习以外从事人工智能工作的人交谈时,他们会立即会意。我阅读了过去两个月中关于机器学习局限性的几篇论文。

Q:你是否认为出现了偏离机器学习的趋势?

这不是一种趋势,而是一种严肃认真寻求真相的努力,他们在寻找诸如我们要去向何方?下一步是什么等问题的答案。

Q:这是我想问您的最后一个问题。

我很高兴你没有问我关于自由意志的事情。

Q:既然提到了,您如何看待自由意志?

机器人一定会有自由意志。我们必须了解如何对它们进行编程,以及我们从中能获得什么。出于某种原因,进化上这种自由意志是计算所需要的。

你拥有自由意志,进化让我们具备了这种能力。显然,它提供了一些计算功能。

Q:当机器人拥有自由意志时会表现得很明显吗?

我想第一个迹象是机器人开始进行反事实交流,比如“你应该做得更好”。如果一个踢足球的机器人开始用这种语言沟通,那么我们就会知道他们已经有了自由意志。

“你应该把球传给我,我一直等着你,但你没有!”

“你应该”意味着你可以控制所有驱使你去做你需要做的事,而你却没有做。所以第一个标志就是沟通,接下来是踢球的表现变好。

Q:既然提到了自由意志,那我想请问作恶的能力是什么,我们通常认为这种能力取决于作出选择的能力。什么是作恶?

即一个人的贪婪或不满超越了所有社会标准规范。例如,有人拿出一个类似于软件模块的东西说:“你饿了,所以你有权采取行动来满足你的贪婪或不满。”但其他的软件模块劝告你应该遵循社会法则。其中一个模块被称为同理心(compassion)。当你的欲望超越社会普遍规范时,就是邪恶。

Q:那么我们怎么知道什么时候人工智能会犯罪呢?

当我们明显发现机器人持续忽略一些软件模块时。当机器人似乎遵循某些软件模块的建议但忽略其他模块时,当机器人忽略人类编程时制定好的行为规范,或本应从过去经验中学习的那些模块时。如果机器人不再遵循这些规则,那么这就是人工智能犯罪的迹象。

以往人们总以为人工智能是未来的技术,是后代所面临的问题,所以更多地将其视为科幻。但是,近几年来人工智能技术的发展已经显示其具有现实性。在这些技术里,主要的突破是大数据深度学习模式,其在若干领域(例如棋类、人脸识别)已经赶上甚至部分超越人类的能力。因此,长期以来非常保守的法学、法律界,有部分人乐观地认为:法律人工智能近期内能有巨大的发展,从而在短短的十几年内赶上甚至取代人类法官或者律师。所以,有必要对现有的法律人工智能技术进行研讨。司法的本质是“息纷止争”,为纠纷提供解决方案。那么现有大数据深度学习人工智能可否提供较好的纠纷解决方案呢?笔者基于实务界的法律人工智能创业状况和法学理论,对此进行了调查和研究,从以下几个方面进行了思考。

第一,能否发现较佳的纠纷解决方案。棋类人工智能在学习时有机会穷尽多数棋谱,甚至不满足于现有棋谱,拥有自我学习能力从而具有开拓性。但在法律领域,大数据深度学习能否突破现有纠纷解决制度,达致更佳方案/策略?当下法律人工智能简单的“大数据深度学习”以及大数据分析模式,只是总结和推送了某一类案件的多数判决意见。此类意见应该是比较普遍的判决意见,因而可能是较为成熟的纠纷解决方案/制度,但也可能是保守的判决。当然了,相比传统的概念法学和法教义学,这种对司法裁判的总结和归纳模式已经非常重视司法实务。但这仅仅是大数据归纳分析而已;最多是较为初级的人工智能,其仅仅是培养一个初步的法律人(法律机器人)。

而从创见的视角看,通过大数据获得某类纠纷的最佳/多数解决方案,假若该方案策略是当下博弈的均衡——即使基于长时间、大范围的大数据的演化稳定策略(evolutionarily stable strategy,简称为“ESS”),也依旧不可能确定是更优/最优的策略。众所周知,进步源于创新;而一个创新在刚出现时,肯定仅是少数甚至是个别的。甚至在一般的自然演化模式下,只有错误、少数才是发展的可能性基础。对于少数的创见/试错,以及对此类策略方案的抉择而言,就不是简单的大数据深度学习的问题,更涉及鉴赏能力的问题。“天才就是给艺术提供规则的才能(禀赋)”(康德:《判断力批判》第46节),而不是受到规则的限制。我们需要厘清现有主流裁判规则与未来发展,不仅需要感性和知性,更需要鉴赏的判断力。这可以是法官的自由裁量权,也可以是法官的造法权(普通法系),还可以是律师的创造性工作。这些不仅是在法律制度之内,而与社会现实及未来发展密切相关,而且所谓更优/最优策略是无穷的,是不断进步的,其决策基础是自由意志(“自由意志”作为人类脑神经系统的“黑箱”/“灰箱”,在很长一段时间内依旧不能被精确计算)。当然,从另一方面看,“至善”是永无止境的,对于永恒最优/更优策略的寻求,人类本身也无法实现。

第二,纠纷解决方案与正当性。法律是公平正义的事业,普通民众对于司法判决/活动的接受程度,还事关他们的公平正义、利益及其他感觉;相关要素构成了法律的正当性基础。人类认知具有个体的主体性,都是基于自身的公平正义、利益及其他感觉,相关的认知与决策具有“具身心智”的生理/心理基础。

诚然,若干社会交往的德性,已经能够通过数万年、数十万年演化博弈的计算,获得某种程度的稳定策略(ESS)地位(阿克塞尔罗德:《合作的复杂性》)。但效用/正当性/合宜感是基于社会整体;此类社会数据量极为庞大,在短短的一二十年内极难进行采集和计算。人类的思维是基于神经元细胞,单单人脑就有1000亿个神经元细胞,而且每个神经元细胞有多个突触(有的数以千计、万计);而不同细胞的突触之间再联接成为神经回路,则又有各种复杂的组合可能性。依照1972年诺贝尔生理学奖获得者埃德尔曼的看法,人脑神经回路的组合数目是“在10之后至少还要加上100万个零”(在已知的宇宙世界中的粒子数仅仅是10之后再添上79个左右的零)(埃德尔曼著,《意识的宇宙》)。这就是人类“自由意志”存在的生理物质基础。尽管不少著名科学家对于哲学界的“自由意志”理论存有疑义,例如霍金在其近年来重要著作《大设计》中对人类的自由意志进行了质疑,但依旧承认人类神经生理上的决策复杂性对于所谓“自由意志”的重要性。而如此庞大的组合数字还仅是个人的心智能力,正当性作为社会博弈的均衡还涉及庞大人口数目下无数回合的互动。要解决此类问题,人工智能还需要在现有水平上发展出更庞大的数据采集和计算能力。

第三,目的性问题。正当性问题还涉及法律的目的,目的性其实也是正当性的广义构成内容。虽然基于因果律,存在就是合理;但如果基于道德律或者目的因,则在存在和因果律之外还可能有更好/更合宜的其他法律解决方案。目的是相关行动的推动力;“目的是产生原因(过程)的原因”(司各脱:《论第一原理》)。法律人工智能作为受造物,如果需要处理复杂、多变的情境,并且事务对象为高智慧的人类时,则需要具有一定的“目的能力”或者“理解目的的能力”。法律活动的效果,也需考虑目的与价值。正如康德所言,目的性不仅是内在的,还有外在的;而假若法律人工智能是一个类似于生命体的“自组织”(《判断力批判》),其目的性则不能仅基于法律内部,更要基于外部社会。

人类社会的目的,及对目的的思考能力(以及自由意志能力)首先是基于当下庞大人口互动博弈的神经计算;但其并非仅基于此。当下人类本性是无数个祖先的策略互动所沉淀而来的,其包括个体之间的互动以及自然环境筛选的结果(自由意志和实际因果关系共同作用下的ESS)。所以,其还涉及数百万年社会整体演化/互动所沉淀下的策略;甚至可能还涉及人类之前具有情感能力的高级灵长类动物的群体性演化历程——一两千万年的群体互动、合作博弈和自然筛选。人类的“目的”作为具有长时间的(具有地质年代意义的)、大样本的、复杂的、综合的策略和能力;而现有演化博弈计算也仅能对单一/若干策略能力的有限时段、条件进行模拟演化。

基于现有大数据深度学习的法律人工智能,还处于初步阶段。如果说人工智能有“低、中、高”或“强、弱”之分,则现有技术多为“弱人工智能”。而法律作为“息纷止争”甚至是“治国安邦”“推动社会进步”(司法能动主义)的知识,其高于寻常人而近乎于“神”的高度。现有的人工智能最多仅能作为法律人初级助手;若要成为高级助手甚至取代人类法律人,则需要解决许多复杂、高级的问题。这既需要技术水平的提升,还要求数据资源的收集和整合,而不是一二十年能够简单解决的。一切均在演化之中,人工智能本身就是演化的结果,也不能脱离演化规则。

当然,在当下审判业务繁重,法官和律师工作压力巨大的情况下,即使是“弱法律人工智能”也能为司法工作提供部分辅助。相关企业和机构研发了若干智能软件,已渐渐能为法官和律师提供帮助。在个别标准化程度比较高的领域(如交通事故等),已经能够研发出智识水平较高的法律人工智能工具。相关工具软件能够为裁判提供多数意见的参考,甚至在个别领域能够自动生成司法文书的初稿,但最后依然需要法官/律师的审阅和判断。这个循序渐进的发展模式更为实在,符合人工智能当下所能提供的智识支撑水平。相信其会不断进步,为法律事业作出更多的贡献。

我要回帖

更多关于 关于人工智能的作文 的文章

 

随机推荐