技术原理:双目立体视觉(Binocular Stereo Vision)
马儿(Marr)的视觉计算理论框架,重点分为三个测算部分:
第1部分是初期视觉,拍摄的图像,感知前方物体的位置、方向、表面的纹理、光泽、暗影形状等信息;
第二部分是二维表现,将第1部分收集的信息进行2.5D维度的建模,确立以无人机为中心的坐标轴体系,将画面中的物体的表面以坐标点的形式表现在坐标轴上;
第三部分是三维空间构建,在2.5D维度的建模以后,仍有Z轴数据(物体与无人机距离)没法确定,此时需要用到三角测距的计算原理,经过计算机运算测算出最后位置,创立空间三维模型。
简单来讲“双目测距”,便是一个招数的运算,但其中包括了N套的代数方程组,在初期的无人驾驶汽车其中,亦运用了该规律的运算方式,但因为处理量巨大,汽车上都配备了多台顶级的计算机进行协同运算,才可在短期内做出精细的判断。
在无人机上,通常的无人机飞控处理器,并不可达到这般的运算速度,而始终在开发手机处理器的厂商(如:英特尔、高通机构),凭借其处理器的低能耗和高性能的特点,作为她们的切入点,像采用英特尔处理器的YuneecTyphoon H、大疆经纬M100的GUIDANCE配件,以及采用高通骁龙处理器的零度XPLORER 2、腾讯Ying、大疆精灵4等制品。
由于强大的计算能力,实时地绘制出三维环境模型,能够实现更加多的智能化优化功能,就像在大疆精灵4上实现了“指点飞行”功能,亦是依靠前视阻碍传感器构建的三维模型实现此操作,一样在跟随模式下,无人机在跟随可视范围内的任务时,将会更加准确。在自动返航的过程中,自动避障亦是相对更加安全,针对以前常常撞墙、撞树、撞山的事,总算有一个比较可靠的处理方法。
但因为运算量大,运算时,电压会相应增多,能耗亦随即增多,续航时间亦会相应下降,实现每增多一个避障方向,运算量将增多一倍,但能够绘制出更加清晰的三维模型。在已发布的无人机制品中,定位研发者运用的大疆经纬M100 GUIDANCE配件是能够实现5方向上的自动避障功能,而定位消费级制品的Typhoon H、精灵4,腾讯Ying等无人机,自动避障功能仅支持前方的视觉的检测。
仅前方避障的好处是保准了续航时间和最大程度上实现自动避障功能,毕竟无人机重点亦是往前飞行的,而并非说这无人机能够永远不会撞墙,亦有其局限性,当在智能跟随模式下,无人机在人的前面进行跟随,人往前走,无人机会向后运动,无人机没法识别背面的阻碍物,无人机撞墙的事情亦是很可能出现的。
三大自动避障无人机的缺陷
除此以外,在无人机上运用的视觉阻碍传感器有必定的运用范围,大疆的精灵4支持0.7 - 15 米的范围,光照要求要在》 15 lux以上,弱光下无效。而零度Xplorer 2则有些不同样,采用激光雷达TOF测距的原理,头顶的“蘑菇头”发射出激光雷达,以每秒50次的速率360°全方位扫描,绘制出3D模型,在暗光要求下很灵敏,针对关照过强时,并不可很好地识别出阻碍物距离。而Yuneec Typhoon H运用Intel的Real Sense技术,单目测距+结构光,有效测距达到10米,经过打出的左红外传感器和右红外传感器跟踪这束光的位置,同期受限于暗光下运用,亦是不敌强光。
|