泡泡网U盘频道11月27日 比尔·盖茨退休前,于2006年的拉斯维加斯CES展上曾做过一次演讲。他认为大家普遍看好的未来人机交互技术中,三大方向最有可能实现应用突破:第一是语音;第二是触摸;第三是虚拟视觉,即手势、表情等等。现在,触摸技术已经普及,语音技术也在苹果siri的面市后,成为当前市场热切关注的焦点。智能360、语点、Airi、Ciriis等类siri产品跟风推出,一时营造出智能语音应用的繁荣景象。然而,由于获得的用户体验差强人意,它们还仅仅停留在娱乐和跟随时尚潮流的阶段。
那么,瓶颈在哪?中科院自动化研究所副所长徐波告诉记者:“语音只是人机交互的接口。如果抛开语音,还可以换成文本接口。要实现人机交互,重点还是在对自然语言的理解和对话上。而现在搜索、大数据处理等技术又为突破理解障碍提供了新思路。”
自然语言理解是关键
人工智能核心问题——思考可以归结为自然语言理解,解决了这个问题,才能真正能听、能看。
动动嘴巴,可以遥控电视机、空调和室内灯等等设备,这是小i机器人呈现的人机交互的场景。其总裁袁辉介绍,小i机器人并不是实体机器人,它是通过互联网、无线互联网等渠道以及人机交互手段进行虚拟化互动的智能软件,可以听懂人说的话,判断人的意愿,给出符合意向的答案。
在siri的技术中,语音部分采用美国公司Nuance的技术,包括语音识别和合成,响应、判读和给出结果则是siri。如果说Nuance语音识别占到整个技术的20%,起到信息采集和输出的作用,而80%则是大脑——siri来控制。袁辉认为,他的小i机器人就是和siri一样的大脑。
那么,这个“大脑”需要具备什么功能?袁辉告诉记者:“它需要有人类的思维模式,也就是自然语言的算法。当一句话说出来时,必须准确地理解这句话的意思。人类表达同一个问题的方式很多,比如当我们问百度:今天北京下雪了吗?这些问题都是问和天气相关的内容,通过搜索技术可能会给三种不同的答案。但从人类的思维看,答案只会是一个。所以智能机器人必须像人一样回答,达到能听会说、自然交互、有问必答的程度。这个过程就要求智能机器人通过1次或者2次交互,就能准确地理解。”
光有理解还不够。袁辉认为,还要从知识库中找到与问题相关的准确答案。一方面,知识库本身就需要大量的时间去积累。目前的搜索引擎都是依靠信息进行检测的,但关键词的检索所呈现出来的是信息的无序性和重复性。信息再往上就是知识,而知识则是唯一的、不重复的。“就像仓库里摆放整齐的东西,我给你问题之后,你可以迅速地找到答案。”他说,“另外,机器人的知识库要具备自我学习的能力。海量信息进来以后,进行大量的知识储备,需要长时间积累。”据他介绍,小i机器人10年用户超过1亿,有100亿次以上的交互,并应用于通信、金融、政府、电子商务、智能家电和汽车等行业,在商用领域有超过200多家商业用户,积累了庞大的行业知识库、百科知识库。
徐波也持类似的观点。他举例道:“siri的厉害之处就是集成了很多技术开发商和服务商。当用户询问一个问题时,它可以直接给出一个答案,而不是给出很多个搜索结果。这里面很大一部分是靠知识处理,链接到第三方的知识引擎和知识库,语音只是接口。”
在徐波看来,人机交互和人工智能走向融合,核心问题是能听、能看和能思考,其中思考是最主要的部分。思考最核心的又可以归结为自然语言理解,后者是共性的。解决了这个问题,才能真正能听、能看。
互联网技术提供新思路
互联网技术(搜索等)、大数据出现后,原来需要很深刻推理的东西,现在就可以比较容易地找出来。
然而,即使是siri这样优秀的人工智能应用,也仅仅只是达到了初级的智能水平。
记者试用过siri等语音产品,当询问这些语音应用类似“今天天气怎么样”时,我们可以得到所在地天气情况,但是当换成“下周二成都天气怎么样”这个问题时,机器的表现就会令人失望。这就是当前自然语言理解技术的尴尬。
徐波认为,学术界对自然语言理解研究多年,近些年并没有大的突破。传统的研究方式是在限定语境下作自然语言理解,例如订票的语境、查天气的语境等。应用的语音产品主要是设定了较多特定语境下的语言模板,响应用户的问话。用的人越多,设定的问答越多,模板越大,用户初用起来感觉会比较自然,但是稍复杂一些的问题,一般就解决不了了。如果换成另外一个用户用得很少的语境,机器更听不懂了。