第二届全球未来网络发展峰会

创新·引领·未来

当前位置:嘉宾致词> > 主论坛

具有人类意识的人工智能——概览

编辑: 共浏览:607次

大家下午好,非常高兴我们有茶歇,焕然一新,非常感谢你们邀请我来参加这次论坛,今天下午我跟大家介绍一下,人类感知的人工智能以及相应的一些概览。

首先跟大家分享一下像这样的人类智能50年代后期就开始了,有一个大会当中说道人工智能,人工智能其实是很少有这样的一个互动,比如说黑侠欺诈以及算法的交易、信用评估人很少在AI系统之间有交互。另外一种情况目前也很成功是和人进行交互的比如说玩游戏是啊,人跟机器进行国际大赛,是2017年的时候,还有是最近叫阿尔法GO也是由谷歌和苹果研发的,是人工智能打败了人类的一个冠军,这个是最新才出现的,过去的国际象棋到围棋这是一个非常大的飞跃,国际象棋这个步骤复杂了,过去仅仅是跟另外一个人进行游戏,当然这个仅仅是游戏当中的一个交互,并不是真正人人进行一个交互,跟我今天讲的还是有距离的,哪些地方是难点?有没有研究的挑战,还有道德和信任方面。

为什么需要有人类感知的人工智能,人工并不需要人的参与也可以进行工作,比如说像教学辅导系统,这个辅导员也要知道如何学生学生进行建模,他现阶段的情况了解一下他哪些问题,了解一下学生的回应也就是说这样智能的辅导员和副辅导人之间有一个交互。

还有一个社交机器人,帮助人们来进行各式各样的服务的辅助功能,还有另外一个项目我们是有一个社交的机器人,是在维也纳的一个医院当中帮助老年人,他们也是在日常工作当中和人进行交互的,这些机器互动的机器人,他们更多的是机器人和人工智能的交互,他们跟过去的机器人不一样,是交互性的人类感知性的机器人,还有一个合作的也就是人和机器人进行合作,在过去是机器人关在一个笼子里面,人是无法跟机器人互动的,但是现在有一个人和机器人一起互动,他们各自做一份子的工作,也完成了一个组装,数字系统也更加智能,像智能手机,办公室医院当中也有这些设备每天这个设备都更加智能化,因为里面也装上了人工智能,我们今天前面也说了,自动驾驶汽车他们也可以做出决定,人们的愿望是什么,也和人进行很好的交互。

所以我们发现人工智能无处不在,进入人们的生活当中无处不在,还有更多的是人机交互,人机交互越来越变成人和人工智能的一个交互了,并不是人和计算机进行交互了,我的问题是,人工介入的人工智能是不是真的人工智能,是不能我们有一个人在这个回路当中让整个工作变得的更加容易进行就是说有部分工作让人来完成机器来做一部分工作。我们需要有一个策略来确保在这个人工智能实现效率最大化,实现最多的成果,我们也希望有完全自主的,当然有的时候还是需要有互动的,把这个人放在回路里边我们家里的系统就是人工智能完成的一个系统,哪怕我们把这个问题变成了一个子问题,这个子问题和母问题一样难的,叫做人工智能完成的一个问题,还有另外一个人类对人工智能的一个比较,在右手边,人工智能从下往上,如果是人的话,哪怕不能跟人进行交流,小孩子也可以用手眼协调交互,但是对机器来说很难做到这一点,尤其是在拥堵的环境中,机器人很难行走,在早些时候这种认知和推理特别难,现在机器可以做到了,还有其他的一些游戏当中机器也可以做的很成功,但是情感的感知很难了,所以人和人工智能其实是互补的,他们各自有各自的优势。

关于人感知的人工智能哪点是最难的,他的人的信仰和机器信仰,他的意图是什么,看到他们的行动或者是背景,上下文等等,看看是不是会慢慢的去比如说要一杯咖啡或者看一个标准,也就是说通过他的情感来推算出下一步怎么走,我们有一个建模就是人工智能的行动会影响人类,有一个模型通过这个模型进行校准,我们还需要了解一下人的心理的状态,要把人的心理状态跟机器人的心理状态进行对准进行一致性,有些地方我们要消除一些误解,进行谈判,同时也需要间领域的知识,有时候也需要常识,常识也很重要,有的时候这种常识对计算一及领域也是很难的,还有通过人类的方法进行学习。阿尔法GO有一个很深入的学习,他们机器人的学习不是人的学习,人往往是通过几个简单的例子就会学习,像感知啊、自然语言的产生这样的学习,这张生成学习的幻灯是现在谈到的人工智能必须要谈的,人工智能我觉得在人工智能当中深层学习带给他的角色不是一个等号,这里在左边是一个照片,是一个熊猫的照片,我们一下子就可以看出来了,是一个深层的学习,后来也可以看到,基本上他的置信度是57%,在右手是同样的照片,我们看不出有区别,但其实增加了一些随机的点,然后变成了右边的照片了,结果这个系统现在又更加有信心了,它其实是因为下面的一个点点点点加进去了他的信息就提高了。

信息学习怎么学呢?他学的是特别象素的图案也就是重点的象素的图案,大部分只有一点点的变化,他们做了一个测试,如果把一张单张的象素改变了,其实改变了对这个生成的学习,对这个图案解释整个的结果,当然这是一个例子,这个是不是AIAI?还有一个另外一个什么叫做常识,人们想要诱导出这种常识,我们是不是可以把这样的一个测试取代呢?还有一个辅导员拒绝给这个女士,因为他们鼓吹这种暴力,这个里面到底是指的辅导员还是女士,所以对上下文比较有一个感知,我们有时候阅读新闻报纸的时候往往是根据上下文推理进行判断的,还有这个奖杯是适不适合这个桌子,到底是桌子硬还是球硬也是要通过上下文推理的,还有一组人其实人工智能并不是说一组人一起合作,而一组人互相信任,这个信任很重要,人必须要有信任的,这个信任也是比较复杂的,我们需要有理解和可解释的,并不是说像黑盒子要有透明度和可预测性,要相信其他人的能力,胜任力,相信对方的能力还有其他的一些比如说验证,还有现任比较建立在时间的基础上面,机器人比较相信人,或者说机器人必须要信任另一个机器人。我说过很多了,就是要教育人,我们教育人们了解人工智能的一些能力,像霍金他们认为人工智能会变得超级的有能力,超级聪明,他们会取代人类,我认为这是错的,公共可能过高估计了人工智能能力,他们也缺少对人工智能脆弱性的攻击,他们忽略了一些小的例子,在1997年时候有的人认为他其实在比赛过程当中,机器走了一步错棋,在早期AI的时候我们看一下这是一个聊天的机器人跟医生的对话,是约瑟夫艾丽莎程序,这里可以看上去他的系统的情况,好最后说一下道德的问题。

可以有办法建模人类的心境去理解他的目的和理念,搞好辅助人们,能够进行一些学习,对于道德来讲比较一开始就要涉及,我们这里说一下这样的一个研究,感谢大家的聆听。