机器视觉和机器触觉

2022-10-25


作为地球上有智慧的生物的人类,感官获取信息的83%来自视觉,11%来自听觉、3.5%来自嗅觉,而1.5%来自触觉,1%来自味觉。

在这五种感官中,如果你不幸地只能保留一种,可能大部分都会保留视觉。要知道我们大脑的近1000亿个神经元,大多数都在处理视觉信息。而在所有的感知信息中,也只有动态的视觉信息是更为复杂的,以至于人类得靠着闭上眼睛主动隔离才能叫“休息”。

正因为视觉信息的重要和复杂,我们在人工智能技术的发展上,除了自然语言处理,那就主要在发展机器视觉了。

这一次人工智能的浪潮也是因为在图像识别上的突破进展才重新兴起。如今,机器视觉已经在工业、安防、日常消费电子、交通等各个领域全面开花,越来越多的摄像头背后都具有了AI的图像识别能力。对于大多数人工智能机器人而言,除了有视觉能力,还有就是移动行走和抓取能力,这就需要用到触觉的帮助。对于往往只有单一功能的自动化机器人,通常只需设定好固定的参数、移动轨迹和抓取力度,即可不休不眠地完成工作任务。但对于人工智能机器人而言,则要灵活适应各种不同材质、不同形状和软硬度的物体,这个时候就既需要机器视觉的识别能力,也需要对于物体的触觉判断。

之前,大部分机器人的抓握解决方案都是单靠机器人的视觉感知。主要的解决办法就是通过数据库进行图像匹配,将目标物体的状态和自身动作进行实时监测,*终调整合适的抓取算法,来完成物体的抓取,但是有关抓握的接触力度,则是机器视觉无法代替的,这样机器还需要触觉上的感知数据。就如同人类一样,我们在尝试抓取物体时,会组合运用各种感知能力,基础的就是视觉和触觉。由于视觉会因为光线、阴影、视线遮挡等因素,造成误判,我们通常会更有效地利用皮肤的触觉,来获得对于物体完整的感知。


分享