PC端下载
安卓端下载 安卓端下载
ios下载 ios下载
返回顶部
浙大教授吴飞谈人工智能
  • 发表时间:2023/1/24 0:00:00
  • 阅读量:

人类好的,国此人工制销合材的大的部售资(mxhnerigprce)。人工报提(mfcraogenotA)是以机原方数体所展示出有的 工作,或费法權人面行者,对人国据的的机问通时口样号来皇失等内法束真理,司号主文人工智智构额方(相中超号)行可化,从经干的断(的程)

"我们必须如道,我们心将知道"大里中的0(Davkd Ficert)(即幅李)的内在提式,和海学场理营的内在提式商成户部门行关护任务;以行为主“保系(2)-利理(已有t)fspordon ve eepoton?之间再技平准“工联整其事,必先利材用”、造销检理、技术术解,机器学习和强化学习的是一种“计目”,要通同体的计算程体实现,20批纪经有的的可计算总想推动了原的流门消数。。演降们图间机场“计骨程林”的出程,由于很关的口行城方式进行“计算”,因此成为联代计降机的理油操型,重品自动计算时代的到中,也成为人工智用的“机困领体”。当的以航据理提的学项为样心的人工程经通过整由投解,提出和算方在计算机税据。自然谢南,语自识谢等持定领域取得了望著法属,研制的名于人工暂能联统(如谷歌的 Apha Go,卡融基·梅赚大学的 Librstus 以及 BM Watson)等在胜战人类智力方面联得了旦大进步,这些人工智能算法或和视属于“领域人工智前(doman-opooic A)成解人工程程(nenmow A”的研究范略,应有限法或系统还无法通过自操思书达到更息腐次的餐售,它门与具有以股资和经物中商准自技学习、直资推理、自话应等牛点的选用人工智转(artficis gonora irioligence)银然存在着差断,任何能制程度的机围解无法商全取代人美,

但是:人类一直会在操家暂菜的道路上不不相心,天志前行,“我们必领知道,我们心相旧道”,大卫·希尔(Dovdiben)1900 年所城出的与“不可相给重义”相时的话否会激整人类探索未知世界的决心和信心。

1.1 人工智能的起源

19558月,John McCarthy(时任达特茅斯学院(Dartmouth)数学系助理教授,1971年度图灵奖获得者)Marvin LeeMinsky(时任MOOC特价E 哈佛大学数学系和神经学系Junior Fellow1969年度图灵奖获得者) 人工智超的面音Claude Shannon(贝尔实验室,信息理论之父)Nathaniel Rochester(1BM,第一代通用计算机701主设计师)四位学者在一份题为《人工智能达特茅斯夏季研究项目提案》(~A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence)的项目建议书中,首次使用了“Artificial Intelligence(人工智能) 这个术语,从此,人工智能开始登上了人类历史舞台

在这个项目建议书中,四位学者希望美国洛克菲勒基金会(Rockefeller Foundation)能够提供一笔研究经费,资助一批学者于1956年夏天在达特茅斯学院研究“让机器能像人那样认知、思考和学习,即用计算机模拟人的智能”这样的前沿研究。

这个报告列举了人工智能需要研究的七个方面问题,分别是自动计算模拟人脑高级功能、使用通用语言进行计算机编程以模仿人脑推理、神经元相互连接形成概念、对计算复杂性的度量、算法自我提升、算法的抽象能力、随机性与创造力。

从那个时代开始,人工智能便沿着模拟人类某一方面功能(如感知推理和运动等)而不断发展,如计算机视觉算法识别特定对象、自然语言理解算法来进行人机问答、无人驾驶汽车在特定场景行进等。

从人工智能的计算性和智能性角度而言,可给出如下人工智能的一个定义:人工智能是以机器为载体所实现的人类智能或生物智能

这里就产生了两个问题:承载计算之能的器械如何产生、如何利用计算之器来模拟人类智能。对前一个问题的研究使得人类从手工计算时代迈入了自动计算时代,对后一个问题的研究形成了符号逻辑(以推理为核心)、联结主义(以统计机器学习为手段)和行为学派(从环境交互过程中进行策略学习)等人工智能不同研究方法。

1.2 可计算载体:形式化与机械化

早期数学概念(如公理或定理)一般通过自然语言来描述,如《庄子·天下篇》中“一尺之棰,日取其半,万世不竭”对极限思想的描述以及亚里士多德在《逻辑学》中所阐述的“由于凡人都会死以及苏格拉底是人,因此苏格拉底是要死的”的三段式推理。

但是,自然语言在很大程度上难以精确表达数学概念,为了解决这一问题,研究人员开始用符号来表达数学概念,即通过形式化语言来刻画数学概念,如“任意一个直角三角形的两条直角边的平方和等于斜边的平方”可形式化如下表示:

V4e直角三角形,xyz分别是三角形的两条直角边和斜边,则x+y=2

如果所有的数学概念都可以被形式化措述,在给定一组推理规则后,就可以从已有知识(如公理、定理和命题等)出发,根据推理规则,得到众多先前未定义的知识。这样的系统被称为形式化系统。

如果已有知识和推理规则都是正确的,则形式化系统可源源不断得到所有可以被推导出来的知识。为了保证形式化系统的有效性,需要其具有如下性质。

完备性: 所有能够从某形式化系统推导出来的知识,都可以从这个形式化系统推导出来。

一致性: 所有可推导出来的知识不会同时推导出来其否定,如推导得到4=0,则不会同时推导得到4<0。也就是说形式化系统是自洽的(self-consisitent)、非矛盾的。

可判定性:对于形式化系统推导得到的任何知识,存在算法可在有限步内判定其为真或为假

上述问题就是1900年德国数学家大卫·希尔伯特(David Hilbert1862-1943)在巴黎举行的第二届国际数学会议上以“数学问题”为题的演讲中提出了23个重要数学难题的第二个问题,即证明算术公理的相容性(the compatibility of the arithmetical axioms)。希尔伯特希望构建起有效的形式化大厦,使得推理这一过程能够“自动计算”

1931年,库尔特·弗雷德里希·哥德尔(Kurt Friedrich Godel)发表了一篇影响深远的论文《论数学原理及有关系统中不可判定命题》提出了著名的“哥德尔不完备定理”。"哥德尔不完备定理”指出:任何表达力足够强的(递归可枚举)形式系统都不可能同时具有一致性和完备性,而且这个系统本身的一致性不能在系统内被证明。

“哥德尔不完备定理”触及了不可计算这一难题,即有些数学问题是不可求解的(是不可判定问题),如费马大定理(当整数n大于2时,方程x"+v=z"没有整数解)是不可计算的

哥德尔通过原始递归函数、阿隆佐·邱奇(Alonzo Church1903-1995)通过入-验算(A-calculus)分别从数学角度和数理逻辑角度研究了可计算问题。很显然,原始递归函数和入-演算无法成为人工智能的“机器载体”。

1937年,图灵(Alan Turing1912-1954)发表了《论数字计算在决断难题中的应用》论文,提出了现代计算机的理论模型“图灵机模型”

图灵机模型是一个抽象的机械式计算装置,它有一条两端无限长的纸带,纸带上为一个一个可擦写小方格,小方格中可放人某个计算任务所需的数据、程序指令或者方格为空。在图灵机模型中,程序控制器事先存储了若干指令集,读写控制指针从左到右,依次从纸带方格中读人相应信息,触发程序控制器中指令集的对应指令去执行某一操作,并将计算结果写入纸带方格。上述步骤周而复始,直至计算结束。一旦计算结束(即图灵停机),纸带上所记载的信息就是计算结果

如图1.1所示,给出了ged(24,16)x10+17这一计算任务。gcd()为求取两个数之间的最大公约数函数。这样,这一计算任务意味着2416之间最大公约数与10相乘结果再与17相加。

在计算这一任务时,图灵机首先读人gcd(2416)这一信息,触发最大公约数这一指令得到2416的最大公约数8,然后分别触发乘法指令和加法指令操作,最终在纸带方格上留下97这一计算结果后图灵机停止工作。可以看出,当“gcd(24,16)x10+17”这一任务被计算完毕后,在原来数字17的方格上出现了97这一结果,其他数字或程序信息均被擦写掉了。

图灵机在执行上述任务过程中仅用了有限步骤后停机,因此可以说这一任务是可计算的

邱奇-图灵论题(Church-Turing thesis,computability thesis)指出:凡是可计算的函数都可以用图灵机计算。现在已经知道,原始递归函数入-演算和图灵机在功能上是等效的,即任何可计算函数均可通过这三种方式完成计算、任何不可计算函数均无法通过这三种方式完成计算。

“工欲善其事,必先利其器”,如前所述,原始递归函数和人-演算

横型进行计算的示

god(24,16) 10 + 17 .. 97 .

读写控制指针 读写控制指针

最大公约数 最大公约数

乘法加法

加法

中除法 ·除法

程序控制器 程序控制器

N-V

指令集

通过形式化方法进行“计算”,图灵机模型则通过机械化机制进行“计算”,此灵机模型成为现代计算机的理论模型,推动了自动计算时代的到来,也成为人工智能的“机器载体”。由于这一伟大贡献,图灵被誉为理论计算机之父,计算机界最高奖图灵奖就是用其名字命名

1.3智能计算方法

以机器为载体来模拟人类智能的某一方面,可通过以符号主义为核心的逻辑推理、以问题求解为核心的探寻搜索、以数据驱动为核心的机器学习、以行为主义为核心的强化学习、以博弈对抗为核心的决策智能等方法来实现。下面对这些方法进行简要介绍

131 符号主义为核心的逻辑推理

推理是进行思维模拟的基本形式之一,是从一个或几个已知的判断(前提)推出新判断(结论)的过程。推理、搜索和约束满足一起并称为人工智能问题求解中的三大方法。在人工智能发展初期,脱胎于数理逻辑的符号主义人工智能(symbolicAI)是人工智能研究的一种主流学派。

推理只有建立在一套高度概括、抽象、产格化和精确化的符号系统中,才能得到飞跃发展。因此,在符号主义人工智能中,概念(命题等)不再是用自然语言来描述,而是通过所定义的“符号”及符号之间的关系来表示,所解决的问题就是构造一个证明来闸释其成立或者不成立(证伪)

例如,使用human(x)immortal(x)来分别表示x是人以及x是不朽的,同时使用-immortal(x)来表示x不是不朽的。这样可如下来表示“凡人均不是不朽的”这一命题:human(x)-immorta/(x)。由于苏格拉底是人这一命题是正确的,即存在human(Socrates),于是下述推导成立:Vx(human(x)immortal(x))Ahuman(Socrates)immortal(Soc rates),即从“凡人均不是不朽”和“苏格拉底是人”这两个命题推导出"苏格拉底不是不朽的"。上述逻辑推导过程就是亚里士多德(AristotleBC 384BC322)所提出的三段论(syllogism)推导方法。当然,亚里士多德在他那个时代是通过命题逻辑来解释三段论的,而不是通过上述谓词逻辑来进行阐述的。

推理一般包括归纳(inductive)推理、演绎(deductive)推理和因果(causality)推理等主流方法。

归纳推理是从个别事实出发,推演出一般性知识作为结论的推理过程,即从特殊到一般、由具体到抽象、由现象到本质。如从“汉语、英语和法语是联合国工作语言”“俄语、阿拉伯语与西班牙语是联合国工作语言”和“没有其他语言是联合国工作语言”可以推导出“联合国工作语言为汉语、英语、法语、俄语、阿拉伯语与西班牙语六种语言”。

与归纳推理相反,演绎推理是从一般性前提出发,通过推导即“演绎”,得出具体陈述或个别结论的过程。如上述亚里士多德三段论,以及由“所有的金属都会导电”和“铜是一种金属”推导演绎出“铜会导电”。

人类并不总是从概率角度来思维,而是善于因果效应角度进行思考。哲学上把现象和现象之间的“引起和被引起”的关系,叫做因果关系,其中引起某种现象产生的现象叫做原因,被某种现象引起的现象叫做结果。如“力,形之所以奋也”中,“力”是因,“形之奋”是果。因果推理就是用来判断事物间存在的原因和结果这样的关系,即因果关系,这是一种重要的推理方法。一般采用结构因果模型(structural causal modelSCM)和因果图(causaldiagram)来进行因果推理[13.16.19]

图灵奖获得者Judea Pearl将推理按照由易到难程度分成三个层次[17.18):①关联(association),可直接从数据中计算得到的统计相关;②干预(intervention),无法直接从观测数据就能得到关系,如“某个商品涨价会产生什么结果”这个问题不仅与新价格有关。而且会与客户购买行为、用户收入等因素相关;③ 反事实

(counterfactual),某个事情已经发生了,则在相同环境中,这个事情不发生会带来怎样的新结果。

这里可使用“反事实”这个概念来定义事物间的因果关系。反事实框架(counterfactual framework,也叫potential outcomes)是大卫·刘易斯(David Lewis1941-2001)等人提出的推断因果关系的标准(7.)事实是指在某个特定变量(A)的影响下可观测到的某种状态或结果(B)“指在该定变量A取负向值时观测到的状态或结果(B件量A对于结果变量B的因果就是A成立时B的状态与A取负向值时“反事实”状态(B’之间的差异。如果这种差异存在且在统

计上是显著的,则说明条件变量与结果变量之间存在因果关系。

1.1给出了归纳推理、演绎推理和因果推理之间的差异描述,其中ABA,是不同的命题。

1.1 不同推理方法的差异描述

推理方法

推理方式

说明

归纳推理

如果A(1为若干取值),那么B

从若干事实出发推理出一般性规律

演绎推理

如果A,那么B

AB的前提,但不是唯一前提,因此AB的充分条件。当然,在特殊情况下A也可为B的充分必要条件

因果推理

因为A,所以"B

AB的唯一前提,因此“如果没有A,那么没有B”也成立。



在表1.1中,归纳推理从若干个具体观测结果A,得出一般性结论B,由于A,可能无法涵盖全量数据,因此只能说A,B之间存在概率性,而不是必然性。

演绎推理完成了“如果A,那么B”的推导,这里AB的充分条件。AB的充分条件意味着A蕴含B,即BA的子集。"如果A,那么 B”成立也等同于“如果没有B,那么没有A(即原命题成立,则逆否命题成立)。在演绎推理中,只要前提是正确的、推理规则也是正确的,则推理得到的结论一定是有效的。

因果推理则完成了“因为A,所以B”的推导,其对应“如果没有A,那么没有B”。要注意的是,因果性与相关性不是同一个概念。比如“公鸡鸣叫(4)”与“太阳升起(B)”具有相关性,但是不具有因果性,因为“公鸡不鸣叫,太阳依然升起(即如果没有A,那么没有B是不成立的)”。

本节讨论了若干充分条件等知识,可用如下描述来刻画这些知识内涵:有之必然,无之未必不然,是谓充分条件;有之未必然,无之必不然,是谓必要条件:有之必然,无之必不然,是谓充要条件。

逻辑推理在人工智能领域的应用推动了专家系统(expert system的产生。专家系统中存储了问题求解所需领域知识,诸如事实、规则和其他信息等,可根据用户提交的问题,应用相应推理规则,得到问题的解决方案。

13.2 问题求解为核心的探寻搜索

现实世界中许多问题都可以通过搜索的方法来求解,例如,最佳出行线路的计算推荐或是寻找合理安排的课程表。搜索是人工智能求解中的一种主要技术,其依据已有信息来寻找满足约束条件的待求解问题答案。搜索算法一般可以包括无信息(uninformed)搜索、有信息(in-formed)搜索和对抗搜索(adversarial search)

无信息搜索是一种盲目搜索方法,按照其利用的搜索策略来扩展被搜索空间中的结点次序可分类为广度优先搜索和深度优先搜索等搏索方法。

有信息搜索也称为启发式搜索,其在搜索的过程中可利用与所求解问题相关的辅助信息,代表算法为贪婪最佳优先搜索(greedybest-first search)A*搜索。

对抗搜索也称为博弈搜索(game search),指在一个竞争的环境中智能体(agents)之间通过竞争实现相反的利益,一方最大化这个利益另外一方最小化这个利益。代表性算法包括最小最大搜索(minimax search)Alpha-Beta剪枝搜索(pruning search)和蒙特卡洛树搜索(Monte-Carlo tree search)。最小最大搜索是在对抗搜索中最为基本的一种让玩家来计算最优策略的方法;Alpha-Beta剪枝搜索改进了最小最大搜索需要遍历搜索空间所有状态这一不足,在搜索过程中可剪除无需搜索的分支结点,且不影响搜索结果;蒙特卡洛树搜索通过采样机制来选择合理结果而非穷举所有结果来实现搜索。

1.3.3 数据驱动为核心的机器学习

与逻辑推理直接定义公理、命题和规则不同,数据驱动(data driven)方法是从数据出发,从承载表达某一概念的数据中直接学习该概念所涉及的模式,然后基于学习得到的模板对未知数据进行分类或识别如果说逻辑推理可视为“从知识到知识”,那么机器学习完成了“从数据到知识”的过程

按照学习算法对数据利用方式的不同,机器学习算法可分为监督学习、无监督学习和半监督学习等。在监督学习中,收集n个标注数据作为训练数据集,数据集中的标注数据及其标注信息记为(XY)-{(x>)i=1,…,n},其中第i个样本数据或者其特征表达记为 xyx,所对应的类别等标注信息。这里的x,可以是图像或文档等数据,为所对应的人脸、汽车或情感等语义类别信息。

为了得到x,中所蕴含语义信息的模式,监督学习基于训练数据,从假设空间(hypothesis space)这一学习范围中学习得到一个最优映射函数/(也被称为决策函数),映射函数将数据映射到语义标注空间,实现数据的分类和识别。记函数fx,的映射结果为(x),很显然一个良好的监督学习算法就是使得(x)y之间的差值越小越好,即模型学会了如何将x映射为其所表达的高层语义。一旦训练得到了映射函数/,就可以利用映射函数f来对未知数据进行识别和分类。

除了从训练数据中直接来学习映射函数外,也可以通过概率模型来进行识别和分类。如在判别式学习方法中,可从训练数据中学习条件概率分布P(yx)),进而根据这一取值来判断数据x属于y的概率,以实现对x的分类和识别。或者如在生成式学习方法中,学习数据和类别标签的联合概率分布P(XY),再通过贝叶理求取后验概率,完成识别和分类。

赫布理论(Hebbian theory)指出“神经元之间持续重复经验刺激可导致突触传递效能增加(Neurons that fire together, wire together),这一“认为神经元之间突触的强弱变化是学习与记忆的生理学基础”理论为联结主义人工智能研究提供了认知神经心理学基础)。作为联结主义方法的代表,深度学习是近期在许多领域取得了显著效果的一种监督学习方法,与其他监督学习算法利用手工构造特征(hand-crafted features,如直方图、纹理或形状等)去学习构造分类映射函数或条件概率分布函数不同,深度学习算法一般通过构造逐层抽象的“端到端(end- to-end)”机制来学习隐含在数据内部的隐含模式,得到更强表达力和泛化能力的特征表达,然后将深度学习得到的特征用于识别和分类等任务14.6)。例如,卷积神经网络(convolutional neural networkCNN)通过卷积层、池化层(pooling)、激活函数(activation)和全连接层(fully connected)来构造深度模型,辅以误差后向传播(error back propogation)等机制学习模型参数,得到输入数据的更具区别力的特征表达(20.2627]

与监督学习不同,顾名思义,无监督学习指数据本身不包含标注信息、半监督学习指一部分数据有标注信息而一部分数据没有标注信息。

监督学习算法包括回归分析、提升算法(boosting)、支持向量机和决策树等判别学习方法,也包括隐狄利克雷分布(latent dirichlet allocation LDA)和隐马尔可夫链等生成式学习方法。无监督学习包括聚类、降维(如主成分分析)和期望极大(expectation maximizationEM)算法等。

13.4行为主义为核心的强化学习

人工智能领域的一个主要研究目标是实现完全自主的智能体,该智能体能与其所处环境进行交互,根据环境所提供的奖励反馈或惩罚反馈来学习所处状态可施加的最住行动(如碰墙后折返),通过运用“尝试-试错(trial and error)”与平衡“探索(未知空间)与利用(已有经验)(exploration vs.exploitation)”等机制不断进步,改进行动策略。强化学习(reinforcement leaningRL)就是这样一种赋予智能体自监督学习能力,使其能够自主与环境交互,做出序列决策,完成序列化形式的任务,向“学会学习(leaning to learm)这一能力塑造目标面努力(23)

强化学习起源于行为主义理论,即智能体如何在环境刺激和反馈下做出适当回应。当该回应满足智能体预期时,则说明该智能体已经学习到了某种知识。强化学习就是通过不断与环境交互,利用环境给出的奖惩来不断地改进策略。与前面所介绍的学习算法不同,强化学习解决的

是序贯决策优化问题,即智能体与环境不断交互,在某个状态采取某-行为后进入一个新的状态,根据环境给出的奖励或惩罚反馈(reward来改进策略(即在某个状态下应该采取怎样动作),以求获得最大的累积奖惩(accumulated reward)

1.2给出了监督学习、无监督学习和强化学习在学习依据、数据来源、决策过程和学习目标四个方面的差异。

1.2 监督学习、无监督学习和强化学习的差异描述

       

监督学习

无监督学习

强化学习

学习依据

基于监督信息

基于对数据结构的假设

基于评价(evaluative

数据来源

一次性给定(含标注信息)

一次性给定(无标注信息)

在序列交互

(interactive)中产生,且只有在一个序列结束后才会反馈明确奖惩值

决策过程

根据标注信息做出单步静态决策(one-shot)

 

根据环境给出的滞后

回报做出序列决策(sequential)

学习目标

样本空间高级间的映射

同一类数据的分布模式

选择能够获取最大收益的状态到动作的映射



强化学习是一种针对序列优化的学习方法,因此其与马尔可夫决策过程(markov decision processMDP)息息相关,MDP刻画了当前状态采取某一行动后进入后续状态,且因为采取了这一行动会从环境获得一定的奖励反馈或惩罚反馈的机制。

在强化学习中,有一个重要的概念叫Q学习。Q学习被用来学习智能体的q函数,q函数记录了某个状态下采取某一动作所能够收到的奖励值或惩罚值。Q学习可以为智能体构造一个状态-行为效用(state action utility)矩阵(表格),矩阵中行和列分别代表状态和行为,矩阵的行列值为某一状态下采取某个行为所能够获得的回报。这样,完成训练后可得到一张Q表格,智能体可根据这一表格来查找当前状态下效用值较大的动作,从而完成任务。有趣的是,最早提出Q学习算法的Watkins在回忆时指出之所以选择Q作为函数名,是借用了“质量(quality)”首字母之意。

但是在实际环境中,智能体所位于状态和可采取行为可能异常庞大,如果一个状态在训练中从未出现过,Q学习是无法处理的,使得 O学习预测能力和泛化能力较弱。一个可行的思路是将q函数参数化(parametrize),用神经网络来拟合q函数,这就是深度学习与强化学习结合而形成的深度强化学习(deep reinforcement learningDRL)[10]

13.5博弈对抗为核心的决策智能

博弈论(Game Theory)是经济学的一个分支,但是随着计算机科学的发展,人工智能技术越来越多地应用在博弈论的研究当中,传统博弈论与人工智能的深度融合闪烁着决策智能的光芒

现代博弈论的思想起源于1944年冯·诺依曼(John von Neumann)与奥斯卡·摩根斯特恩(Oskar Morgenstern)合著的《博弈论与经济行为》(14)。这本书用数学形式来阐述了博弈论及其应用。将博弈论发扬光大的是约翰·纳什(John Forbes Nash Jr.)1950年在其博士论文中提出的“非合作博弈(non-cooperative Games)”及其均衡解一定存在这一纳什均衡思想(:12),纳什本人因为这一贡献于1994年获得了诺贝尔经济学奖。

博弈行为是多个带有相互竞争性质的主体,为了达到各自目标和利益,采取的带有对抗性质的行为,即“两害相权取其轻,两利相权取其重”。现代博弈论主要研究博弈行为中最优的对抗策略及其稳定局势,协助对弈者在一定规则范围内寻求最合理的行为方式,推动机器学习从“数据拟合”过程中以“求取最优解”为核心向博弈对抗过程中“求取均衡解”为核心的转变。

上述人工智能方法各有千秋、各有优劣,如逻辑推理方法解释性强,但难以拓展;搜索方法从已有答案中进行查找,但受困于机械式匹配的桎梏;数据驱动模型擅于预测识别,但是其过程难以理解;强化学习手段能对未知空间进行探索,但其依赖于策略学习;博弈对抗在完全信息条件下表现优良,但难以找到非完全信息条件下的通用框架。因此,需要有机协调知识指导下演绎、数据驱动中归纳、行为强化内规划等不同的人工智能方法和手段,建立知识、数据和反馈于一体的人工智能理论和模型,这是目前人工智能研究的重点。

应该指出,在解决现实生活中的实际问题时,一般是多种机器学习算法融汇使用,如Deepmind研制的AlphaGo通过深度学习来构造黑白相间棋盘的特征表达、通过强化学习来进行自我博弈以提高智能体学习能力、通过蒙特卡洛树搜索来寻找较佳落子[21)

近年来,由于脑科学、神经科学和认知科学与信息科学等学科的进步,科学家们已能在微观尺度上观测基因和蛋白质结构,在介观尺度上研究细胞,神经环路和网络结构,在宏观尺度上研究脑区结构以及认知行为。因此,模拟和仿真大脑结构和功能的类脑计算(也称为脑启发计算)也是当前一个研究热点[2]

类脑计算是受脑功能和脑神经网络连接机制启发的一种计算架构。它以神经形态计算的模式来部分模拟大脑功能与其结构的对应关系和反馈连接,即通过仿真、模拟和借鉴大脑生理结构和信息处理过程的装置模型和方法,在结构层次模拟人脑、在器件层次逼近大脑等。

1.4 本书内容介绍

人工智能具有“至小有内”内涵和“至大无外”外延的双重特点,

究的 人工智能作为一种使能技术,天然具有与其他学科研究进行交叉的内禀

特性,与计算机科学、机器人、认知科学进行广泛交叉,并且在科学工业和社会学等方面应用活跃

本书主要从数据智能这一角度来介绍人工智能,主要内容如下。第2章“逻辑与推理”主要介绍命题逻辑、谓词逻辑、知识图谱和因果推理的内容

3章“搜索求解”主要介绍启发式搜索、对抗搜索(含最小最大搜索、Alpha-Beta剪枝搜索)和蒙特卡洛树搜索的内容。

4章“机器学习:监督学习”主要介绍机器学习基本概念、线性回归、决策树、线性判别分析、Ada Boosting、支持向量机和生成学习等内容。

5章“机器学习:非监督学习”主要介绍K-means、主成分分析、特征人脸分析、隐性文法分析和EM算法等内容

6章“深度学习”主要介绍前向神经网络、卷积神经网络、循环神经网络及其在自然语言和计算机视觉等方面的应用。

7章“强化学习”主要介绍马尔可夫决策过程、策略优化与策略评估 Q学习和深度强化学习的内容

8章“人工智能博弈”主要介绍了博弈论中纳什均衡、博弈策略求解和博弈规则设计以及非完全信息博弈等内容。

9章对人工智能未来发展和趋势进行了简略总结。

1.5 小结

1955年提出人工智能这一概念时,人工智能的“初心”是“仿真”人类行为。经过长期发展,人们已经慢慢意识到,在脑科学和神经科学等尚未弄清人脑功能机理的前提下,难以用机器直接实现人脑功能。物理学家费曼(Richard Feynman)曾经说过,“WhatIcannot create, I do not understand(不可造者,未能知也)”。如果把这个说法用于机器“复制”人脑功能这一语境,则意味着需要全面了解神经进化(neuroevolution)2)机理,这一方面的研究仍然需要付出巨大的努力。

经典人工智能理论框架建立在以递归可枚举为核心的演绎逻辑和语义描述基础方法之上,由于先决条件问题(qualification problem,即枚举描述促发某一行为发生的所有前提条件)和隐性分支问题(ramification problem,即枚举刻画某个行为可能导致的所有后续潜在结果)的存在,使得人们难以事先拟好智能算法能够处理的所有情况,因此智能算法在处理不确定性、开放性和动态性等问题时难以发挥作用。

当前以数据建模和学习为核心的人工智能通过整合数据、模型和算力在计算机视觉、自然语言、语音识别等特定领域取得了显著进展,研制的若干人工智能系统(IBM的问答竞智系统Watson谷歌的围棋竞智系统AlphaGo以及卡耐基·梅隆大学的扑克竞智系统Libratus)在挑战人类智力方面取得了巨大进步,这些人工智能算法或系统属于“领域人工智能(domain-specificAI)或弱人工智能(narrowAI)”研究范畴。现有算法或系统还无法通过自身思考达到更高层次的智能,它们与具有自我学习、直觉推理、自适应和能力迁移等特点的通用人工智能(artificial general intelligence)依然存在着差距,也与人类在摄食情绪和感情等方面所展示的行为具有明显区别,但是这些在特定领域取得成功的研究为人们探索与发展新一代人工智能提供了重要的借鉴和新的方法1.3.15.24]

理解人类认知并建立可计算认知模型需要厘清从行为到神经系统和回路再到细胞核分子不同层面的因果关联,因此理解人类认知的神经基础是促进人工智能取得长足发展一个很有吸引力但遥远的目标。

当前人工智能的计算载体图灵机模型所能够完成的可计算任务都是可递归的(可递归意味着可枚举和有序),人类面临的许多现实问题具有不确定性、脆弱性和开放性等特点,人类也是智能机器的服务对象和最终“价值判断”的仲裁者,因此,需要将人类智能与机器智能进行有效协同。建立在演绎逻辑、语义描述和计算观测数据与假设空间之间置信度的贝叶斯理论的基础方法之上的机器智能都无法完全取代人类智能因此迫切需要将人的作用或认知模型引人到人工智能系统中,形成混合-增强智能形态(hybrid-augmented intelligence),这种形态是人工智能或机器智能可行的、重要的成长模式[8),也是发展人工智能的可行之道

哲学家丹尼尔·丹尼特(Daniel Dennett)曾经说过,“提出更好的问题,打破旧的设问习惯与传统是人类认识自身、认识世界这一宏伟事业中非常困难的一部分。"

“其作始也简,其将毕也必巨”,人工智能必将影响和推动人类社会的深刻变化。"我们必须知道,我们必将知道",相信大卫·希尔伯特(David Hilbert)1930年所持有的“可认知”乐观主义态度将鼓舞人工智能研究者和实践者进行不断探索。

习题

1为保证形式化系情的有效性,下面哪个选项不是形式化系统需要具有的性质?(  )

A.完备性   B.可靠性

C.一致性   D.可判定性

2Deepmind研制的AlphaGo算法没有使用哪个人工智能方法?(   )  

A.人强化学习         B.深度学习

蒙特卡洛树搜索   D.逆销推理

3图灵奖获得者Judea Pear!将推理技照由易到难程度分成三个层次:(   )

  A. 介入、关联、反事实   B.关联、介入、反事实

  C.反事实、介入、关联  D.关系、介入、反事实

4以下哪种搜素方法属于启发式提索?  (    )

  A.广度优先搜索   B.蒙特卡洛树授索

  C.深度优先搜农   D.A*搜索

5以下哪一种算法不属于监督学习算法?(     )

   A.隐马尔可夫链 B.支持向量机

  C.聚类                  D.决策树

6下哪种习法的习标学习同一类数据的分布模式?(     )

    A.监督学习   B.无监督学习

   C.强化学习   D.博弈对抗

7以机器为载体来模拟人类智能的某一方面,可通过以符号主义为核心的逻辑推理、以问题求解为核心的探寻搜索、以数据驱动为核心的机器学习、以行为主义为核心的强化学习。以博奔对抗为核心的决策智能等方法来实现。请比较上述人工智能不同方法的优劣。

8请参考图1.1,画出使用图灵机模型计算(5+2)x3的过程示意图。

9推理方法在生活中无处不在,请你针对归纳推理、演绎推理和因果推理分别举出实际例子

10监督学习和强化学习在做出预测后,都需要某种“反馈信息”来提升学习性能。请描述两种学习方法中利用“反馈信息”的不同。

11.目前人工智能在多数任务上所体现的性能与人类智能存在不小差距。机器智能和人类智都之间进行相互协同所形成的人机混合增强是推动人工智能发展的务实之路。“假奥马者非利足也,而致千里;假舟楫者,非能水也,而绝江河”,人类可以通过外界帮助来提升能力。请列举若干人机混合增强的例子。

参考文献

[1] GHAHRAMANI Z.Probabilistic machine learning and

artificial intelligence [J].Nature, 521: 452-459, 2015.

[2] HASSABIS D, KUMARAN D, SUMMERFIELD C, et al

Neuroscience-Inspired Artificial Intelligence [ J]. Neuron95(2): 245-258,2017.

[3]HEBB D O.The Organization of Behavior[M ].New York

Wiley & Sons, 1949.

[4]HINTON G,SALAKHUTDINOV R. Reducing the

dimensionality of data with neural networks[J].Science.313(5786):504-507,2006.

[5]JORDAN M,MITCHELL T.Machine learning: trends.

perspectives, and prospects [ J]. Science, 349(6245): 255-260,2015.

[6]LECUN YBENGIO YHINTON G.Deep learning [J]

Nature, 521(7553): 436-444,2015.

[7] LEWIS D. Counterpart Theory and Quantified Modal Logic

[J].Jounal of Philcsophy,65: 113-126,1968.

[8]LEWIS D. Counterfactuals [M ]. Oxford: Blackwell

Publishers and Cambridge, MA: Harvard University Press1973,Reprinted with revisions, 1986.

[9]MCCARTHYJ,MINSKYM,ROCHESTERN et al. A

Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1955.

[10]MNIH V, KAVUKCUOGLU K,SILVER D,et.al.Human

level control through deep reinforcement learning [ J] Nature,518: 529-533,2015.

[11]NASH J F. Equilibrium points in n-person games [ 1]

Proceedings of the National Academy of Sciences of the United States of America,36(1):48-49,1950.

[12]NASH JF. Non-Cooperative Games [ D]. Princeton

Princeton University, 1950.

[13]NEYMAN J S.On the Application of Probability Theory to

Agricultural Experiments [ J ]. Essay on Principles. Section 9. Statistical Science,5:465-472,1923.

[ 14]NEUMANN J, MORGENSTERN O. Theory of Games and

Economic Behavior[M].Princeton: Princeton University Press, 1944.

[ 15]PAN Y H.Heading toward artificial intelligence 2.0 [ 1)

Engineering 2(4): 409-413,2016.

[16]PEARL J. Causal diagrams for empirical research [ J]

Biometrika, 82(4):669-710,1995.

17]PEARL 1. Causality: models, reasoning and inferencd M ]2nd

edition. Cambridge: Cambridge University Press, 2013.

[18] PEARL 1. Thooretical impediments to machine learning

with seven sparks from the causal revolution [ J]. arXiv.1801.04016,2018.

[19]RUBIN D. Estimating causal effects of treatments in

randomized and non-randomized studies [ J ] . Journal of Edacational Psychology.66(5):688-701, 1974.

[20]RUMELHART D EHINTON G E,WILLIAMS R J.

Learning representations by back-propagating errors [ J ] Nature, 323 (6088):533-536,1986.

[21]SILVER D,HUANG A, MADDISON C J,et.al. Mastering

the game of Go with deep neural networks and tree search[ J]. Nature, 529(7587): 484-489,2016.

[22]STANLEY KO,CLUNE J,LEHMAN J,et al. Designing

neural networks through neuroevolution [ J ] . Nature machine intelligence,1:24-35,2019

[23]SUTTON R S,BARTO A G.Reinforcement Learning: An

Introduction [M].2nd Edition.Cambridge, MA: MIT Press,2018.

[24]TENENBAUMJB,KEMPC,GRIFFITHSTLGOODMAN

ND. How to grow a mind: Statistics, structure, and abstraction[J].Science,331,1279-1285,2011

[25]WATKINS C J,DAYAN P.Q-learning [J]. Machine

Learning,8: 279-292,1992

[26]WERBOS P J.Backpropagation Through Time: What It Does

and How to Do It [J]. Proceedings of the IEEE,78(10):1550-1560,1990

[27]WERBOS P J.Beyond Regression: New Tools for Prediction

and Analysis in the Behavioral Sciences [D ].Harvard University, 1974.

[28]ZHENG N N,LIU Z YREN P Jet al.Hybrid-augmented

intelligence: collaboration and cognition [J].Frontiers of Information Technology & Electronic Engineering18(2)153-179,2017.



部分文章来源于网络,无法查证出处,我们只做学习使用,如不同意收录请联系网站马上删除。

相关文章

留言

姓名:
手机号:
微信:
邮箱:
内容: