扫地机器人
单目视觉环境感知系统采用“硬件采集—预处理—特征提取—三维推理—场景建模—决策输出”的分层架构,全程在嵌入式端本地运行,保证感知实时性。整体架构分为感知硬件层、数据处理层、算法核心层、应用输出层,各模块协同完成环境信息获取与障碍物判断,贴合家用清扫场景的功能需求。
感知硬件层配置
感知硬件以单目摄像头为核心,搭配辅助器件实现稳定的图像采集:摄像头选用广角定焦镜头,扩大视野覆盖范围,减少感知盲区,分辨率适配嵌入式算力,常见为720P或1080P,帧率控制在15-30帧/秒,平衡数据量与实时性;镜头采用防尘镀膜工艺,适应家庭粉尘环境,减少污渍对成像的影响;主控单元选用中低端嵌入式MCU或轻量化MPU,负责图像数据的接收与算法运算,搭配存储单元缓存图像帧与感知结果;部分机型搭配IMU惯性传感器,辅助单目视觉进行位姿推算,提升深度估计与环境建模精度。
分层处理流程
数据处理层负责图像降噪、畸变校正、尺度归一化,消除硬件与环境带来的图像失真;算法核心层是感知系统的核心,包含单目深度估计、特征匹配、目标检测、场景分割模块,实现从二维图像到三维环境信息的推理;应用输出层整合感知结果,输出障碍物位置、类别、距离,以及可通行区域、地面材质等环境信息,为路径规划与避障提供数据支撑。
单目视觉环境感知关键技术实现
单目视觉环境感知的核心是从二维图像中推理三维环境信息,构建家庭场景的可通行区域与环境模型,为机器人自主导航提供基础依据,主要包含深度估计、场景分割、位姿推算三大模块。
单目深度估计
深度估计是解决单目视觉无三维信息的核心手段,通过深度学习或几何推理方法,为每个像素分配深度值,实现二维图像到三维深度图的转换。针对扫地机器人低算力平台特性,采用轻量化深度估计网络,摒弃复杂的深层网络结构,通过卷积下采样、特征融合提取图像中的深度特征,结合相机内参将像素坐标转换为实际距离值。同时,利用机器人运动过程中的帧间图像关联,结合运动恢复结构(SFM)思路,通过多帧特征匹配优化深度结果,提升近距离障碍物的深度估计精度,满足清扫场景下的测距需求。
室内场景分割
场景分割用于区分家庭环境中的可通行区域、障碍物区域、地面、家具等不同语义区域,帮助机器人理解环境布局。采用轻量化语义分割算法,对单目图像进行像素级分类,标注出地面、墙体、地毯、桌椅等区域,剔除天花板、背景等无关区域。针对家庭场景特点,重点强化地面与障碍物的边界分割精度,区分硬质地面与地毯等不同清扫区域,同时识别狭窄通道、台阶等特殊地形,为路径规划提供场景依据。分割过程中引入纹理约束与颜色约束,减少光照变化对分割结果的干扰,提升复杂背景下的分割稳定性。
机器人位姿与环境建模
结合
单目视觉特征与IMU数据,实现机器人自身位姿推算与局部环境地图构建。通过提取连续帧图像中的SIFT、ORB等稳定特征点,匹配帧间特征并计算相机运动位移与姿态,结合IMU惯性测量数据修正漂移误差,得到机器人实时位置与姿态。基于深度估计与场景分割结果,构建局部栅格地图,标记可通行区域与障碍区域,随着机器人移动不断更新地图,形成完整的清扫环境模型,为全局导航提供支撑。建模过程中采用增量式更新策略,仅更新机器人周边局部区域,降低算力消耗。