您现在的位置:首页 > IT > 正文

从微软小冰眺望浮浮沉沉的聊天机器人

时间:2014-06-06 09:05:02 来源:网易科技 评论:0 点击:

  “小冰”事件还在各种口水战的纠纷中,但这个只有短暂出现在视野中的产品再一次将智能化放在了风头浪尖。从QQ、MSN早年出现的那些小机器人开始,到Siri出现后对智能语音识别的应用,到谷歌的无人驾驶汽车,人工智能虽然不是每次都出现在焦点中,但大家都相信总有一些团队在默默地开发中。

  事实上,Siri才是那个再次让这个话题回到主角的主要因素,iPhone4S自带的这个产品在顺利发布后,乔布斯才遗憾过世,Siri通过最广泛的市场覆盖让极大的用户群体验了科技的前沿。

  但是和“小冰”出现后第二天的处境一致,Siri在推出后,尝鲜后的用户大部分是再也没有再点开过了。小冰这个新生代的智能机器人,在不少微信群的最开始提供的一些话题和新意也很快就遭遇活跃度下降的问题。

  虽然从最早的聊天机器人“阿尔贝特”到现在的小冰已经有了巨大的进步,但活跃度下降的根本原因依然在于其智能的程度没有对日常的生活有着可替代性的性能,所以新奇只是一时的。说起来,谷歌在持续推动的无人驾驶和微软拿出的实时翻译系统都有着更能看得到的使用价值。

浮浮沉沉的聊天机器人

  根据维基百科,1950年,图灵提出来了经典的图灵测试,就是C(询问者)通过问题来判断A和B谁是人,谁是机器。可惜的是,直到今天为止,能顺利骗过人的机器人还没有出现。但是,大数据的进程将极大加速机器人培训这一项,而语音识别和语意识别的进步,能通过图灵测试的机器人无疑将更快出现在现实中。

  在各种资料中,世界上最早的聊天机器人“阿尔贝特”出现在20世纪80年代,由BASIC语言编写,到1991年开始,罗纳奖这个人工智能年度比赛开始不断寻找那个最擅长模仿人类真是对话场景的机器人。直到2008年,一个让12个陌生人中的3个相信“它是人”的电脑程序使这个梦想更进一步。

  目前来说,在一些开源社区中,聊天机器人的底层核心程序并不难找到,其运作原理都普遍分为训练、匹配等几个环节。而让训练变得更为容易的因素正是互联网中的Cookie数据。

  以人人网上一度极为知名的程序“小黄鸡”为例,通过大量的Cookie获取用户习惯和语言惯性,将预定的词库转化为对话和人交流,“小黄鸡”的正式版一度卖得很贵正是因为其对单个用户的个性匹配。

  放在商业领域,MSN机器人、小i机器人都曾经尝试让智能对话成为产品的核心竞争力,但核心算法的演进离不开巨大的数据库。从现有的比较成熟的机器人可以看出,搜索引擎是诞生对话机器人的摇篮。尤其是Google针对Siri推出的Google Now,通过学习用户习惯结合搜索引擎的海量数据库给出一个准确的答案,它的出现一度让Siri着急。

  微软这次拿出的小冰也是类似的产品,只不过和Google Now相比,小冰穿着一层萌妹子的外衣。而真正在技术上有着长足进步的是WP系统下的语音助手Cortana。

梦想照进现实噱头高于理想

  各种分析认为,微信这次封杀小冰的根本原因来自微信不愿意被这样的机器人带走移动的入口,但这样的分析基础需要“小冰”有持久被使用的价值这个前提,而结果没有给它证明自己的机会。

  不过从身边看到的几个微信群的用户反馈来看,机器人进入后一段时间,用户的新鲜感很快下降。所以夺走入口这样的说法很难立足。

  而从Siri、Google Now到Cortana,这样的产品本质上在希望首先突破可用性,而不在人性化这个加工环节,首先程序能提供有普遍意义的信息,才有持续的理由。

  打个比方,小冰的智能化可能甚至不如苹果iOS8中的输入法智能联想。在WWDC 2014的DEMO中,当被问到晚上是去吃饭还是看电影时,智能联想的回复为“吃饭”“看电影”“都不去”,这就已经突破了语意识别到罗列反馈这个层面。实用性远大于卖萌的机器人。

  聊天机器人的进一步挑战在于智能模拟,而现在的大数据环境则提供了又一次的温床。

  在大数据环境下,原有的算法一下子变得智能了。包括最近热炒的智能新闻推荐、智能医疗数据,简单的算法在极大数据的拥抱下,进步可谓明显。但理想依旧很远,人工生命、精神网络、不确定性的演算依然有着广袤的研究空间。

人工智能落地碰撞哲学和社会学

  还记得电影《终结者》和《黑客帝国》吗?即使实现起来遥遥无期,人们对未来的设想已经极为深远,这也引出另一个话题,就是人工智能还涉及到哲学和社会学的范畴,抛开太遥远的技术不提,就算现在已经在眼前了的谷歌智能汽车技术,其普及起来最大的障碍就不是技术问题。

  在前段时间无人驾驶亮相后,一个简单的调查“无人驾驶汽车你敢坐吗?”的回答中,极少人愿意尝试。原因很简单,信不过。

  人们愿意去相信人那不确定的能力,也不愿意去接受算法和程序那简单的1%误差的后果,原因还是在于掌控力,即使自己掌握起来错误率更大,人们也愿意去承担后果,这样的问题不是技术问题,而是心理和哲学问题。

相关热词搜索:机器人