您的位置:首页 > 资讯 > 行业动态 > 正文

英特尔宋继强:从AI和SI破局智能机器人产业

2017-05-09 06:38 性质:转载 作者:百家 来源:百家
免责声明:中叉网(www.chinaforklift.com)尊重合法版权,反对侵权盗版。(凡是我网所转载之文章,文中所有文字内容和图片视频之知识产权均系原作者和机构所有。文章内容观点,与本网无关。如有需要删除,敬请来电商榷!)

  而AI的算法像深度学习,通过统计和大数据迎来一个非常大的飞跃,它在图像识别还有语音识别上已经超越了人类的能力。而且我们看到更大的数据也成为了可能,例如一辆无人驾驶汽车一天就产生4TB的数据,而且是不同源的、异构的数据。有了这些数据以后就要考虑怎样去处理它来产生实时的价值,提供可靠、高质量的服务。

  现在深度学习一枝独秀,但是处理这么多种数据完成目标任务只靠这一类算法是不够的。所以,NN+X就代表要让神经网络加各种新的技术,并且要正视人工智能算法的局限性。引用一下机器人界也是人工智能学界的大牛Rodney Brooks教授(人工智能专家,行为学派杰出代表,美国国家工程院院士,iRobot、Rethink Robotics创始人,Baxter之父,MIT CSAIL前主任)的观点,他主张先不去管用什么样的逻辑模型或者什么样的神经网络模型去模拟人的思维过程,而要通过实际的智能体去感知,然后去研究怎样通过全系统优化去做出正确的反应。他认为特别是产业界不要沉迷于某一种技术,重要的是根据实际需要去使用技术,为人类提供价值。他认为第一轮AI可以提供的价值是在五年左右,在辅助驾驶和自动驾驶这个领域,第二轮就是十年左右,可以在助老机器人领域提供很大的社会价值。

  关于在机器中加入智能能力,整个产业界是在分三步走。首先是把一些不联网的设备连了网,连网以后设备就有了信息传递和更新的能力,同时它也可以结合社交服务提供客户价值。但这个还不算多么智能,只算把设备互联了。第二步就是我们现在所处的智能设备这个级别,其实就是手机上能够提供的这些智能服务,把视觉、听觉识别的能力加进去,再结合数据挖掘技术和知识库提供服务。这些智能机器能够听和看,但还不是听懂和看懂。终极目标是第三步,就是自主机器。现在我们基本上已经跨越了第二步,正在向第三步迈进。但这个发展过程不是线性的,因为从第二步到第三步会越来越复杂,不仅要理解环境和行为,还要能理解人的情绪。因为机器人服务的是人,如果不能理解人的情绪、达到交流共识的话,就没法提供很好的服务。

  智能机器人就是典型的自主系统。如上图所示,从现在的计算机技术(CT: Computer Technology)到未来的机器人技术(RT: Robot Technology),需要人工智能技术与其它技术紧密合作完成“感知-认知-执行”的人机交互闭环。机器人工作在一个开放的环境里,服务的是不愿遵守刻板交互规则的普通消费者。从整个交互过程来讲有很多不确定性,没有AI算法能够保证不出问题,因此必须结合其它技术来满足消费者对智能机器人的预期。我认为智能交互(SI)是最佳选择,因为它可以充分通过机器人的移动性和主动交互能力来利用人这个通用智能体去补足人工智能。

  举两个例子来说明智能交互的威力。我们知道在视觉识别物体的时候,角度和遮挡都会影响识别效果。对于机器人来讲,它可以利用移动性主动选择一个好的角度、避开遮挡来准确识别物体。再进一步,在场景理解的时候,对于能够准确分割的物体,如果不能确信是什么的话(例如凳子还是茶几),机器人可以主动组织一个问句来询问人。由此我们可以看出,灵活利用机器人的主动移动和交互能力可以显著提升整体服务能力,促进智能机器人的产业化。

  简而言之,我认为在智能机器人的商业化迭代方面,首先要保证服务能力达标,然后在这个能力要求下选择合适的人工智能算法,配合灵活的智能交互的方案一起去达成这个能力。随着算法能力和硬件技术的提高,在保持服务能力的前提下,逐步扩大AI的比重,是通过商业化发展推动AI技术发展的正循环之路。


 

12下一页

网友评论
文明上网,理性发言,拒绝广告

相关资讯

关注官方微信

手机扫码看新闻