3DGS(3D Gaussian Splatting,三维高斯溅射)是2023年SIGGRAPH会议提出的革命性三维场景表示与实时渲染技术,其核心创新在于以可学习、可参数化的3D高斯分布作为场景的基本表征单元,通过可微分渲染与并行光栅化技术,在保持高保真重建质量的同时,实现了传统三维重建技术难以企及的实时渲染性能,彻底打破了“重建精度”与“渲染效率”的固有矛盾,成为连接物理世界与数字空间的关键技术桥梁。作为神经渲染与计算机图形学融合的典型成果,3DGS不仅重构了三维场景建模与渲染的技术范式,更在数字孪生、自动驾驶仿真、AR/VR、文化遗产数字化等领域展现出巨大应用潜力,其技术原理、核心优势、实现流程与行业价值共同构成了完整的技术体系。3DGS的核心思想是将复杂的三维场景解构为数百万个具备独立属性的3D高斯“基元”,每个高斯基元本质上是一个三维椭球体,通过一组可学习的参数精准定义其在空间中的状态,包括位置(高斯分布的中心坐标)、形状与方向(由协方差矩阵控制,可灵活表征球体、椭球体等不同形态)、颜色(基于球谐函数的视角相关颜色,支持真实光照下的色彩变化)以及不透明度(控制该基元对最终图像的贡献权重)。与传统三维重建技术的表征方式不同,3DGS采用显式表示方案——所有高斯基元的参数均为直接可调的显性数据,而非NeRF等隐式方法依赖的神经网络参数,这一特性使其具备更强的可控性与编辑性,同时为并行计算优化提供了基础。其核心优势集中体现在三个维度:一是实时渲染能力,通过基于GPU的并行光栅化流程(如CUDA加速),3DGS在RTX 4090等主流硬件平台上可实现120fps以上的实时渲染,较传统NeRF技术提升百倍级速度,彻底解决了神经渲染“慢渲染”的行业痛点;二是高保真重建精度,通过高斯基元的精细参数优化与自适应密度控制,能够精准捕捉场景的几何细节(如文物浮雕、建筑纹理)与光照特性,重建效果可媲美顶级NeRF模型,支持8K级视觉保真度输出;三是轻量化与高效性,显式存储结构避免了隐式表示的高内存消耗,模型通常以.ply或.splat格式存储,体积压缩至MB量级,同时支持数据压缩与分层加载,极大降低了存储与传输成本,适配云端渲染与移动端部署需求。3DGS的完整实现流程是一套端到端的闭环系统,涵盖从数据输入到模型输出的全链路优化,核心可分为七个关键步骤:第一步是数据预处理与初始化,通过SfM(运动恢复结构)技术(如COLMAP工具)对输入的多视角RGB图像序列进行处理,估计相机位姿(内参与外参)并生成场景的初始稀疏点云,这一步为后续高斯基元的构建提供了空间基准;第二步是高斯基元建模,将初始稀疏点云转换为初始的3D高斯椭球体集合,为每个高斯基元分配初始参数(位置继承自点云坐标,形状与颜色进行初始,形状与颜色进行初始赋值);第三步是视锥体筛选,根据当前相机的拍摄参数,动态剔除位于视场范围之外的高斯基元,减少无效计算,提升渲染效率;第四步是可微分投影,将保留的3D高斯基元通过仿射变换投影至二维图像平面,建立三维空间与二维像素的映射关系,这一过程具备可微分特性,为后续参数优化提供梯度传递路径;第五步是分块光栅化,将投影后的高斯基元按图像块(瓦片)组织,通过专用光栅器实现并行、有序的混合渲染,每个像素的最终颜色由其覆盖范围内所有高斯基元的颜色与不透明度加权累加得到,形成类似“颜料泼溅”的融合效果,这也是“Gaussian Splatting”命名的由来;第六步是损失计算与反向传播,通过对比渲染图像与真实输入图像的差异(如均方误差损失),利用梯度下降算法(如Adam)反向优化所有高斯基元的参数,不断提升重建精度;第七步是自适应密度控制,这是3DGS提升细节表现力的关键创新——在训练过程中动态执行高斯基元的分裂、克隆与剪枝操作:对细节丰富区域的高斯基元进行分裂,生成更多精细基元;对冗余区域的基元进行合并或删除,在保证细节的同时控制基元数量,实现场景的自适应精准建模。