News04/02/2018)自主研发的双目定位硬件模组、AGV视觉定位导航方案即将问世!!!

 

李和平  博士,高级工程师

中国科学院自动化研究所,模式识别国家重点实验室,机器人视觉组

电话:010-82544605

Email: heping.li@ia.ac.cn

地址:北京市海淀区中关村东路95

 

研究领域

主要负责三维视觉定位技术研发与应用,包括机器人等移动终端的视觉定位导航与增强现实、双目深度感知/定位硬件模组与算法等。在视觉SLAM方面,目前重点关注弱视觉场景下的视觉定位、面向动态场景/目标的视觉定位、视觉/IMU/激光多传感器融合定位和大场景下的鲁棒定位等。

 

主要成果与应用

1弱视觉场景下的视觉定位弱视觉场景是指存在弱纹理、强光、弱光、长通道、大片空旷区域等有效视觉信息量非常少的场景。这些场景是计算机视觉领域长期以来存在的顽固性的挑战难题。通过融合单目/双目、IMU等多种传感器以及点、线、面等多种基元,针对性地解决这些难题。

弱视觉场景中的点线融合定位

 

长通道场景中的视觉定位

强光线/弱纹理场景中的视觉定位

机器人旋转中的实时视觉定位

弱纹理配电箱实时定位与增强现实

 

2面向动态目标/场景的视觉定位与避障在实际应用场景中往往存在大量的运动目标,如何解决这类场景下的鲁棒定位问题,是手机增强现实和机器人定位导航的关键。通过3D辅助的光流跟踪定位算法解决定位难题,利用增强深度学习实现动态场景下的机器人主动避障功能。

动态人头实时定位与增强现实

多动态目标实时定位与主动避障模拟效果

 

3面向城市大场景的视觉定位与增强现实针对监控视频场景进行实时定位与信息增强。

监控相机旋转定位与信息增强

监控相机变焦定位与信息增强