第二届全球未来网络发展峰会

创新·引领·未来

当前位置:嘉宾致词> > 分论坛五

人工智能在五个核心方向上的发展及其与未来网络发展的潜在互动

编辑: 共浏览:702次

我的这个题目讲什么呢?要讲学术,又要讲大家听得懂,我考虑有四个原因,一般要介绍自身的工作,但是我还是想重点要放在近期发展趋势上,我们先看一下,这几个要素,我们选择一个题目,首先是人工智能大家知道几乎渗透各个领域,但是跟这个会有关的就是这边的物联网,我们集中在网络有关的地方找课题来讲,另外还有从工业和应用的角度人工智能可以归纳成下面说的三个方向,一个叫做Assisted第二个是Augmented,从网络角度主要是可能将来跟5G有关,这个5G会带来网络和人工智能共同的一个可能的新的挑战和革命,从这个角度我们可以选择题目希望集中在物联网和5G,再看我们网络智能这一块能选什么?从5G讲主要是每个基站的距离特别小,网络特别大,传输的速度特别快,在这样情况下就会给智能可能往网络规划上,或者在出什么事故障诊断上,或者在实际上一个网络,我们所谓人工智能神经网络也是一个网络,如果把我们的通信网络看作是智能网络也可以进行计算,如果计算了这个大网络本身也是个智能网,在传输的过程中实现智能。

5G的这些我们就有些录像就不讲了,时间有限,另外还有因为5G的这个信号传输的特别快,他从人工智能的角度可能也会刷新人工智能的基础研究,因为基本上我缺什么信息缺什么样本的时候我可以主动的提出,实时获取信息,这种自适应的边学边干的智能,也就是在做的过程中智能的操作,在这样的角度看,我大概集中在几个现在的主要题目,一个就是讲一下引起这个人工智能的基础,然后讲下面这个怎么样实际上在通信网络看数据非常大,但是他其实是小样本问题,刚才也谈到阿尔法GO用来做规划做问题切接,下面这个可以用来做咨询,集中在这四个题目上给大家介绍一下跟网络有关的人工智能方面的一些题目,是这样跟我们的网络连起来了,也就是归纳下来如果有时间就是下面的这四个题目,但是我估计是不一定全讲的完。

稍微提一下目前来讲,这些年人工智能在核心方向的发展,第一个大家都知道,就是刷脸,听话这个实际上是人工智能就是相当于人的耳目,这个是人工智能发展的基础,第二个就是双向对偶深度学习,他就包括和很多自我校正、变换啊很多动能,是升级版,具体到下面以IBM系列的相当于人类的军事,阿尔法GO这个虽然是下棋,但是实际上是要做决策,这个就相当于人工智能我们作为领导主帅方面的应用,对于人机交互感知就是人机合起来的处理就比如可穿戴的VR啊等等,下一个就是完全自主的,类人啊,主要是这六个,但是现在能讲3个就不错了,现在就先讲一下基础的,也得给一些不太知道人工智能的稍微扫盲。

人工智能从10年前开始就开始解决小孩人卡片的问题,你看了一个苹果你给他标签写个字叫做“苹果”,有这堆卡片,只不过这个效果用神经网络来影射,就是你看到一个模式给他一个标签,这种工作现在刷脸、语音识别很多的东西都是干的这个,这个东西大概是3岁小孩到4岁、5岁小孩的智能,这个智能为什么变得厉害呢?他比人做的好了,关键是我们只能认几个人,他认几千个人,正是因为这个基础工作,导致了所谓的人工智能大发展,稍微再具体一点,我们想语音识别,它也要像切片一样,告诉他发音是什么东西,这个没有接音响就不放了,同样这个图象,我们看几层图象给他一个标签,这一类的识别知道这个问题转换为这样的,肯定人工智能都玩的转,这是基本上简单的识别问题,其实再往下就是说我们需要有一些平常图象、语音这些数据我们要理解它,什么叫理解?最简单的理解就是填表,比如说你用语音在这边说话,医生手术就可以填表,当然这是初级程度的理解。

这个也实用化了,这个是国外的外科手术做完了以后,医生走在路上可以把他所有的病例很快添完,这个可以由很多利用,办公室自动化、政府啊什么的,现在已经进入了实用了。

再发展一点就需要我们对语音之间不同发音单元搞清楚他们之间的关系,这个就涉及到语音理解了,我们现在真的要完成图象理解,人工智能还不到,实际上要想理解这个图象理解,首先也得把这些不同的相当于卡片全切出来,分割,这个工作是比较难做的,完了以后你才去识别,识别以后还要搞清楚他们的关系,他们的关系还要根据你的问题,还得整理出关系回答他的一个解答,这些目前只能说不会像前面忽悠的那么火,只是在一定的环境下可以做的到,这就是大概人工智能主要的基本现状。

近期也就是去年起,这个深度神经网络有两个成果,我想跟大家分享一下,首先我讲第二个,就是大家顺口说现在的深度学习是没有理论的,不知道什么,这句话已经不能再说了,下面我就讲有一个以色列学者提出来了回答深度,这个深度学习的理论,讲的之前我们先讲一下可能谁都知道深度学习我们尤其我们国内,不断抢计算机GPU的资源,把深度不断提高,花很多的计算资源,问到底需要多少层,是不是程度越深越好,有一些早期深了以后有一些局部极小值会好,为什么要深的,这个是没有理论的,这种数学近似跟我们的理解是不一样的,我们的理解不光要点对点的感到,你看一个东西周围的相互关系,他可能的关系形成一个梳理结构,需要都可以这个问题上联想,我去年的时候也在中国有一个杂志上也解释了,主要的原因就是我们所有不同的模式,所形成不同的树状的结构,防盗深度网络里面越深他不同的东西有相互有交叉越深越放的进去,越深下面也就容易独立也就是规模大了需要层次,需要这种层级结构才可以把这个事情做的好,这个就是说我们这是一种解释,但是我的这种解释是没有理论的,只能叫看法,但是去年这位以色列的教授,我当年在美国的时候也认识他,这个人提出了一个很好的理论,跟我大概差不多的年龄,他在去年提出了他这个理论,这个理论主要是这个是数学,可能很多人看不懂,他是基于信息论来做的,为了数学我们抛开我想办法用简单的思路给大家讲一下,他主要是利用互信息,比如说一个人X和Y,他俩表示什么做什么事没有关系,但是如果我们要求他和他的活动需要联合起来做一些事,就是一个X和Y他需要互动,那就需要另外一个联合的概率的活动描述他的互动,他要互动就需要传递信息,他要把这个信息相互通了才可以互动,他需要传递信息需要多少呢?就是他联合需要动的量那个工作和自己乱动之间的差异,这个差异就反映了他需要完成任务的互信息,这个互信息就被他拿来作为重要的栋梁,这种深度学习网络基本上决定好坏就是决定在最后这一层,他互信息的也就是这个,这个大家可能看不懂,我举个例子,用这张图演示一下这个例子,这个是神经网络这个是输入,如果你把这个互动传到Y这边来,如果你的信息传过来的时候,你还没有传这边和这边相互的互动他的互信息是高的,他在下边这个轴就是度量,他这边的信息就比较高,就是在第一层神经网络往下,走的时候他这个信息这边X方向需要的信息就是这样下来是减下来的,这边是最高的,而你到Y这边信息还没有传过去,这个Y离X很远他几乎是零,你学习的目的就是要把信息从这边传过去,你两个人就可以按照要求来互动了

那这个教授就是根据这个,发现了一个互信息的关系,我们看看他他就发现了这样一个结果,我们把这个去掉,看看它怎么动,在学习的过程中间我不断训练这个网络,他会发现这个互信息的关系,这是1003信息网络他最后会发生一个很有趣的现象,这些通道都通了,他慢慢信息就传过去了,这个是很重要的一条现象发现,这个是什么意思呢?到了100步就到了一个瓶颈,我们为什么神经网络停在那了,大概就是落在这个位置上,继续往下训练传过来的互信息就会不断的增加,不断的往这个过程。经过这个平静瓶颈以外我们就跳过去,再来一遍,他过了这个以后,这个后面就很慢了,要费劲,这个就是后来要快速计算的原因,他搞清楚了以后他就可以解释这个结果,往下收的时候下面表现的误差,然后快速下降,最后就缓慢下降了,到了那个瓶颈了,他需要越往前面走就需要越打通那个层,往那边推进,推进的极限就是反映这个神经网络表现的好坏,这个是很惊喜的结果,他还发现,假如你看学的参数,把这些参数就像学的知识的可靠性,他会发现你学的知识的准确性和可靠性也就噪声会快速的增加,过了一个增线就表明不确定性增加了,怎么样压住这个噪声这就是大样本,这个现象是一个普遍的现象,加入把刚才100道平均了以后更明显,每一条走都有一个拐点,这个拐点就是以前难以逾越的,过了这条线他就拐上来了,越高就表示这个越好,这个理论跟互信息的角度,跟我刚才讲层状的角度,他的意思是什么?每一层神经结构进行自组织,他有不错的演示结果,这是第一层,经过学习到一定的程度它会发生颜色在不断的集中,黄和黑的红的在慢慢的分开,这是第一层,这就是自组织这个过程就出来了,再看后面的成就就更有意思了,第一层不太容易组织的好,加入后面的层,第四层你看他组织的慢慢的基本上快速的就组织成了两个类,最后形成两个曲线。基本上也符合我前面讲的用那个结构的猜测,在这个问题上他也解决掉了。

再往前也解决到我们平常理解为什么训练有(英文),(英文)就证明在这种情况下他这个拐点上来了,但是随着你样本不断的增大,他这个拐点就抬上去了,这就是大数据让神经网络成功的原因,它也说明为什么要深,深就是说我如果要有一层层深下去的话,你看现在他有这个一层的时候他有拐点,但是随着层数越来越多,拐点就消失了,效果就越好,但是也说明到了一定的深度就够了,再深下去它有什么好处呢?可能会浪费很多计算的时间,这个是这么几个结论,这几个结论我来不及细讲下去,感兴趣的人可以看一下按照这个互信息的理论,它几乎刷新了学习理论,原来(英文)刷新了,这个是给那些懂行的看一下。

这个大概我给大家介绍一下最新的理论,原来大家觉得卷积神经网络很神奇,他现在提出胶囊神经网络,早期其实也是这样的,只不过现在回归来讲这个,因为说这个要比现有的卷积神经网络要好,这个大家知道,这是大概去年两个比较注目的新发展,我们这个细节就跳过这个。

然后我们再讲下一个题目,前面我们讲了这一套问题是最初步的,就是从一个模式要识别成一个简单抽象标签的任务不是我们智能任务很多,他只是一部分,真的要识别比较复杂的任务他其实是双向的,复杂的表是简化成抽象的理解以后还要来重新来跟现实中复杂的表要来对一下,来检验看他对不对,这个叫双向对偶学习,能解决的问题它是很多的,早期源于我们讲的自编码,这是1988年开始有自编码学习,在1991年我在这个方向也有一些工作,这两年大概2015年实现分割的这一块跟这个也有关,当时2007年的工作也大概是这样一个结构,自编码大概是这样一个东西,就是说加入是通讯就是自己跟自己通讯,这边一个通讯通道把信号压缩以后,然后产生复杂的表,这个表要跟他尽量一样,这就叫自编码,这个结构实际上是跟双向网络相向的,这是深度的神经网络,如果是以这个为轴折一下过来,就变成了我们讲的这个样子,一折下来一后就是对称的结构,不光结构是对称了,节点折过来也是对称了,参数也是对称的,这就是1991年我提出的自主结构,它可以这边上去,重建非监督学习,这边就是标签的学习可以同时做。

这个2007年的结构有对偶性的结构,有参数的对偶性,早在1986年提出来是反传的算法结果不好,后来为什么2006年用的结构好了呢就是先下面往上训练,下面往上走,这个往上走导致了跟刚才我们讲的下面的数据驱动,下面的标签驱动同时进行,才可以导致这样的方式运行,当年我是因为当时,现在我们要算一年的东西,现在一秒钟就算出来了,当时是不可能算出来的,因为有大量的数据。

这个讲最近一个应用就是德国提出2015年的(英文)就是结构对偶性,参数性对偶性神经原,最主要的就是完成分割,图象分割这个工作,这个工作你看出来没多久就引起了很大的应用,这是在医学图象上分割的结果,我们看一下,但是我们要讲这个分割其实不是我们以前讲的分割,现在的一些搞人工智能他们讲的分割都是相对来讲物标之间交叠不是那么多的,总的来讲现在这些年轻人做的分割总的来讲他们是多目标检测做的还是不错的,走到图象分割可能还有距离,这是目前。

我们下面这个结构除了完成重建数据增广,现在叫做对抗学习也是完成这种类型的,去产生其他的影射,深入创意影射,这种模式A到B的转换,都属于双向的学习,这种双向的学习其实在1995的时候我在会议上我提出了贝叶斯阴阳和谐理论,很多现在这个东西跟这个都有一定的关系。

这是当时的工作,其实这里面稍微介绍一下,1995年以前我可能是中国人里面比较早(英文)的,我跟这里面的两个大牛有合作的文章,实际上当时我其实是大中华区域的,不过那是1995年之前的,这个会现在还是人工智能最顶级的会。

我是这个团队里面最早的博士后有这个画红杠的五个人,当时有7个人,这个表不是所有人都放上去的,最后是我,我是算他的原始股,这也让大家相信我讲的还是有点源自于权威的。

这些理论跟它有什么关系,都来不及讲了,我们可以从这个模式同侧他怎么小,或者图象推测他动态了,或者英语推测为法语都是这一块的问题。还有创意上,我画一下什么东西,他自动给你画一堆的东西,这是我学生做的,在交大。

前两块只是基础的应用,我们现在智能叫分任务运用,真正形成系统很重要,一个就是华盛顿系统,他实际上已经也了很多实用,尤其是把很多推理的内容放进去,他跟自然源推理也包括深度学习,他是一个综合决策知识系统,这个系统我觉得我们这地方没有时间讲,我觉得中国人研究的太少了,我们应该在这个方面应该下点力量去做,比如说光检大家都在做,他主要是应用于故障诊断。

现在大家知道它在医疗上有很大的应用,在金融很多其他政府都有很多应用,在医疗上号称是几中癌比人类大夫都做的好了,大概我们国家还没有让他进来,这种系统。

在这一个系统走下去推理现在近期结合两个方向,一个方向就是尽量利用深度学习来辅助(英文)的获取和(英文)推理的开始,用深度学习,另外这个推理尽量是找因果关系,这两年也是重要的课题,这样就走到了传统人工智能,这个专家是图灵奖拿到人,他对推理的研究这是个圣经了,在因果也有研究,考虑因果关系是比较难的。

1956年是由这个学者开始跟因果关系跟观察数据其他系统观察数据的相关有关系,这个是什么呢?他是两个变量不能确认因果关系,至少在3个变量,后来我跟这个专家有合作,3个变量的因果研究,还有多个变量的因果研究也有研究。

我讲一下阿尔法GO,他是只有你有一种任务,你这个任务要分很多的阶段,每一个阶段都有若干种选择,在这种选择中怎么样做出正确选择的问题都属于阿尔法GO要面临的问题,这方面的问题它给他快速解释一下有点相当于一个领头人带一堆人在这,到底往哪边走,他要找到策略,这个策略的问题选择的问题,这个策略的选择问题我们又没有孙子来告诉我们怎么样走,他就用的是神经网络,就用这个来告诉你这个策略,这个策略像阿尔法GO先开始是用过去的棋局学出来了,现在是靠自己的对拟看出来了。

然后用一个前瞻性评估,通过无数次策略学出来你就等于两件事情可以由了,还有一个就是再往下怎么样办,要先实验,摸着石头过河,我鼓励创新,我派侦察兵,到下面找这个各种信息回来试点,侦查,这个就是所谓的蒙特卡洛树搜索,就是侦查更好一点的东西,这个东西30多年前我做博士生的时候我们也提出来一个树搜索的方面,基本上跟这个也一致的,我们也端过来改一个了,是是1987年的时候一个很老的东西了,基本上跟蒙特卡洛差不多。

我们最后因为时间有限我这个结束的稍微让大家知道一下,大家不要以为中国人工智能就是这一波人起来的,我们的人工智能在70年代文化大革命后曾经最优秀的科学家都在人工智能的领域里,包括钱学森先生、王湘浩先生,还有吴文俊先生啊等等,希望现在的年轻人不要忘记他们。

最后我稍微招兵买马说一句话,尤其是国家张江实验室大量的招人,但是要求很高,待遇也很好,我因神经网络计算研究中心主任的身份鼓励有志的年轻人,我们从几个水平都可以,就是助理教授、副教授有的条件也可以谈,上海交大也在招人,我以首席科学家的身份也鼓励大家,国外大家有朋友也可以,我自己的也要招人,这个主要是年轻的教授博士后,你们在国外的有兴趣的可以跟我联络。谢谢大家。