如何正确认知机器人定位技术(三)?

2016-07-18新闻资讯

三、机器“拟人化”得先研究“人”

目前针对“机器”的前沿性研究,很大部分都是从人、动物来获取灵感,比如我们研究苍蝇的眼睛,进而发明了相机;我们研究蝙蝠进而发明了雷达。所以在这新一轮工业革命大潮中,“机器”的发展方向必然是“类人化”、“拟人化”,让机器可代替人去工作,甚至能工作的比人更好。当然了,目前机器在有些方面已经可以代替人,也能比人做的更好,但是应用范围还比较狭窄,眼前的工作就是要进一步的使机器无限的接近于人。

机器“拟人化”并不是说机器长的像人,这是一种很表面的理解,机器拟人的核心:一是机器能像人一样的去观察客观世界并获取信息;二是机器能像人一样的去思考判断,做出决策;三是机器可以像人一样灵活,去执行复杂的动作。看过《超能陆战队》电影的人都知道里面的“大白”,在不考虑目前技术实现的情况下,“大白”就是一个真正意义上的拟人化机器人。

有人说“科学离不开幻想”,是的,在机器视觉行业,这点尤其明显,我们纵观《钢铁侠》里托尼的“虚拟立体实验室”、《终结者》中的“T800机器人”、“天网”等,这些科幻电影无不把“视觉技术”幻想到了极致的境界。如果未来真能达到这样的科技水平,那么我们认为现在就可以研究“人”和“机器”的结合。

人在工作、学习、生活时,无论多复杂的工作其实都是以下几方面的单一或组合行为:

? 看:用眼睛获取客观世界的信息,将信息传递给大脑进行分析。对于机器人来说,就相当于机器人的。目前在成熟行业应用中,大多只能实现二维检测(机器人只有一个摄像头),也就是说,目前的机器人只能对同一个平面上的物体信息进行扫描获取。那么未来的发展方向必然是全方位的三维场景重现,也就是说机器人需要像人一样有两只眼睛。

? 听:人通过耳朵获取声音信息。机器人在该方面的应用主要集中于娱乐行业,在工业领域应用几乎没有,这里不加多谈。但是未来真正的拟人化机器人,声音感应器是非常重要的一部分。

? 触觉等:人通过身体其他部分接触物体或闻其气味来收集信息。机器人在该方面的技术主要以接触式检测为主,其核心技术是压力传感器,但是目前该种技术能获取的信息极其单一,应用的很少。在判断物体表面情况及有颜色的气味时,主要还是依靠视觉技术。

? 思考:人通过眼睛、耳朵、身体各部位的触觉获取信息后传递给大脑,大脑通过历年的经验分析物体的形状、位置等,再根据我们的意愿下达执行动作。那么对机器人来说,这包含部分:一是把传感器(以为主,还包括压力传感器、声音传感器等)获取到的“信号”(这里的信号可能是各种类型,比如图像信号、电压脉冲信号、电荷信号等)进行处理,提取有用的信息(就是计算机做判断的依据)转换为计算机课识别的数字信号。然后计算机再根据机器人的功能对该“数字信号”进行逻辑判断,进而把执行命令发给机器人。

? 行动:人通过神经网络控制身体各部分进行各种行为,比如:跑步、皱眉、大笑等。对机器人来说,即通过马达电机控制执行机构执行动作。机器人未来在这方面的发展主要是提升执行机构的速度、降低惯性、增强稳定性等。

将人的行为和机器的行为进行类比后,就能大致知道未来机器人可能的发展方向了。像阿里巴巴、软银、富士康联手投资的“Pepper情感机器人”项目,从概念上来说已经走到了世界前列。但是从实用性上来说,其意义更多的是偏向于战略方面。国内真正能自己研发机器人的厂家挺多,但是能做到国际水准的几乎没有,而且国内研发机器人厂商的视觉技术水平很低。国内纯做视觉技术的公司大多依赖于康耐视、基恩士等国外技术,真正走自己研发路线的公司较少,但依然有些国内公司在不断探索尝试。比如:富士康公司,其路线就是“引进——消化——创新研发”的路子;华为纯依靠自有技术积累,不断走自主研发路线;专注于机器视觉技术的景通,也一直走自主研发的道路,尽管坎坷不断,可喜的是现在终于有所成效,其以基础视觉硬件研发起家,后依靠引进先进机器人配套自主视觉软件技术推出的“视觉机器人平台”已经领先于整个机器视觉行业。

综上所述,机器人定位技术其实是一个很广义的概念,它不仅仅是目前常见的二维坐标、三维坐标定位。机器人定位实际上是通过其他传感器给机器人执行动作提供判断依据,其中以视觉传感器(谁让图像是所有传感器提供的信号中包含信息量Zui大的载体呢)为主。研究机器人或者说研究“智能机器人”的基础首先应该是研究“机器视觉技术”。