了解了原理、模型和参数后,实际的相机标定如何操作?目前,相机标定的方法主要分为三大类:传统标定法、自标定法和主动视觉标定法,其中传统标定法(以张正友标定法为代表)因操作简单、精度高,是工业界和自动驾驶领域最常用的方法。
张正友标定法:最常用的传统标定方法
张正友标定法由微软亚洲研究院的张正友博士于1998年提出,其核心优势是“无需高精度三维靶标”,仅需使用一张打印的棋盘格靶标,通过拍摄不同姿态的靶标图像,即可求解出相机的内参、外参和畸变系数。该方法兼顾了精度和实操性,广泛应用于自动驾驶、机器人视觉、工业检测等领域。
张正友标定法的核心步骤如下:
1. 准备标定靶标:打印一张棋盘格靶标(常用的是8×6、9×7的角点布局),测量并记录每个格子的实际边长(如20mm);
2. 采集靶标图像:将靶标固定在平面上,调整相机与靶标的距离、角度,拍摄10-20张不同姿态的靶标图像(确保靶标在图像中完整显示,且覆盖图像的不同区域,姿态变化足够大);
3. 提取角点:通过图像处理算法(如Harris角点检测),提取每张图像中棋盘格的角点坐标(像素坐标);
4. 建立对应关系:根据靶标的实际尺寸,确定每个角点的世界坐标(如以靶标左上角角点为原点,X轴、Y轴平行于靶标平面,Z轴为0);
5. 求解参数:利用角点的世界坐标与像素坐标的对应关系,通过最小二乘法求解内参矩阵K、外参(R、t)和畸变系数;
6. 精度验证:通过重投影误差(将世界坐标中的角点,通过求解的参数投影到图像中,计算投影坐标与实际提取的角点坐标的偏差)验证标定精度,若重投影误差过大,需重新采集图像或调整靶标姿态,重新标定。
自动驾驶场景下的标定注意事项
在自动驾驶场景中,相机标定的精度要求远高于普通视觉应用,因为其直接关系到车辆行驶安全,因此需要注意以下几点:
1. 标定环境:选择光线均匀、无反光、无遮挡的环境,避免光线过强或过暗导致角点提取失败;同时,标定区域需足够大,确保靶标能够呈现不同姿态,覆盖相机的整个视场。
2. 靶标选择:优先使用高精度棋盘格靶标,格子边长需精准测量;对于车载环视相机,可使用环形靶标或多棋盘格靶标,确保覆盖环视相机的所有视场。
3. 图像采集:拍摄的图像数量需足够(不少于15张),靶标姿态变化需充分(平移、旋转、俯仰),避免姿态单一导致参数求解不稳定;同时,确保靶标在图像中清晰可见,角点无模糊、无遮挡。
4. 多传感器融合标定:自动驾驶中,相机通常与LiDAR、IMU等传感器融合使用,因此需要进行多传感器联合标定(如相机-LiDAR标定),确保各传感器的坐标系统一,避免因传感器之间的偏差导致融合算法失效。
5. 定期重新标定:车载相机的安装姿态可能因车辆行驶中的振动、碰撞等因素发生偏移,因此需要定期(如每3个月、每行驶1万公里)重新标定,确保参数的准确性;同时,更换镜头、维修相机后,也需重新标定。
相机标定是连接图像与真实世界的“桥梁”,其核心是通过求解内参、外参和畸变系数,建立像素坐标与世界坐标的精准映射,修正镜头畸变和安装偏差。从基础原理来看,针孔相机模型是标定的核心框架,四级坐标系统的映射关系是数学基础;从实际应用来看,张正友标定法是最常用的实操方法,而在自动驾驶场景中,标定的精度、稳定性直接决定了环境感知、目标定位、路径规划等核心功能的可靠性。
随着自动驾驶技术的发展,相机标定也在向“自动化、高精度、在线化”方向演进——比如量产车的产线自动化标定、行驶过程中的在线自标定,能够大幅提升标定效率和适应性,满足自动驾驶L4、L5级别的高精度需求。此外,多传感器融合标定(相机-LiDAR-IMU)、鱼眼镜头/环视相机的标定等细分场景,也成为相机标定技术的重要发展方向。
对于从事计算机视觉、自动驾驶相关的从业者来说,掌握相机标定的原理、模型和参数,不仅能够理解视觉应用的底层逻辑,更能在实际项目中解决精度偏差、参数失效等问题,为后续的算法开发和系统落地奠定坚实基础。从0到1掌握相机标定,本质上是掌握“让机器看懂真实世界”的核心能力——这也是所有视觉技术的出发点和落脚点。