云边端协同计算与智能
扫描二维码
随时随地手机看文章
随着物联网设备数量的持续攀升、传感器应用的日益广泛以及生成式AI的蓬勃发展,全球数据规模正经历指数级扩张。国际数据公司(IDC)预测显示[1],至2028年全球数据总量将突破384.6 ZB,较2024年实现倍增。在此背景下,传统云计算架构面临实时性不足、网络时延高以及分布式数据隐私风险等多重核心挑战。为应对上述挑战,云边端协同计算应运而生,通过网络连接多个节点(端设备、边缘服务器或云数据中心)协同工作,实现计算能力的扩展与并行化,有效降低核心网带宽压力[2],如图1所示。智能化技术的融入,使云边端协同计算具备环境自适应与协同决策能力[3]。人工智能模型被部署于从云到端的各个层级,使系统能够动态感知和适应复杂的外部环境,并进行协同决策。更重要的是,边缘智能激活了海量终端设备的数据价值,将其从被动的数据采集单元,转变为能够主动感知、推理和决策的智能体,为构建泛在智能服务奠定了坚实基础。国家层面高度重视并积极引导云边端协同与边缘智能的发展。《“十四五”数字经济发展规划》强调推进云网协同和算网融合发展,打造智能算力、通用算法和开发平台一体化的新型智能基础设施[4]。工业和信息化部等六部门联合发布的《算力基础设施高质量发展行动计划》提出要促进边缘算力协同部署,推动“云边端”算力泛在分布、协同发展[5]。这些政策文件共同构成了推动云边端协同计算与智能发展的顶层设计,为相关技术创新和产业应用指明了方向,注入了强大动力。
Figure 1. Cloud-edge-end collaborative computing architecture diagram
2. 国内外研究现状
在物联网与人工智能技术的推动下,云边端协同架构已成为学术界的研究前沿。当前的研究路径清晰地分化为两大相辅相成的领域。其一为云边端协同计算,该领域致力于构建一个普适、高效、可靠的分布式计算底座,将任务与资源进行抽象化处理,追求系统层面的全局最优。其二为分布式智能,该领域则从AI任务的内生需求出发,研究如何设计专有的协同架构与算法,以实现复杂的分布式感知、学习与决策,追求智能任务本身的效果最大化。
2.1. 云边端协同计算:普适性计算框架的构建与优化
本领域的核心目标是打造一个通用的分布式计算平台,它视上层应用为待处理的抽象任务,致力于解决在异构、动态环境下普适性的调度与管理难题。研究重点在于优化系统级的关键性能指标,如时延、能耗、成本和可靠性,为所有上层应用提供一个稳定高效的运行环境,如下表1。
在计算卸载与资源分配这一核心问题上,学术界已发展出较为成熟的优化理论。传统方法侧重于运筹学模型,例如,华东师范大学吴连涛团队[6]通过构建多小区协作框架来最小化用户总成本;陈英团队[7]则从博弈论视角切入,构建了用户体验驱动的任务卸载模型。随着环境动态性的增强,基于AI的决策方法成为主流。郝昊团队[8]利用深度强化学习(DRL)赋能边缘节点进行动态协同决策;北京邮电大学范文浩团队[9]-[11]更是系统性地构建了“服务放置–任务调度–资源分配”三维协同框架,通过混合DRL突破了长期服务的稳定性瓶颈。南京理工大学周俊龙团队[12]聚焦智能交通场景,提出多智能体强化学习模型,实现车路协同场景下任务卸载和计算资源分配的最优决策。
在异构与跨域协同方面,研究者致力于打破资源壁垒,实现更广泛的算力共享。中南大学的王伟等人[13]提出的混合模式资源协作框架,实现了边缘与云算力的弹性适配。陈星延团队[14]创新性提出面向“云–边–端”算力系统的计算和传输联合优化方法,采用梯度投影法突破算力与网络耦合瓶颈。电子科技大学的张林团队[15]与英国萨里大学Chong Huang团队[16]的研究则将协同的范畴从地面网络拓展至“空间–空中–地面”一体化的立体网络,探索了该复杂场景下的能效与任务联合优化。
此外,为解决异构环境下的部署难题,张文柱等人[17]引入Docker容器化技术,为构建通用的多接入边缘计算环境提供了实践方案。
Table 1. Research status of cloud-edge-end collaborative computing
2.2. 分布式智能:AI赋能下的协同感知、决策与生成
与协同计算的普适性视角不同,分布式智能领域的研究出发点是AI任务本身,如表2所示。在分布式智能中,资源调度和协同策略不再是通用目的,而是被深度定制,以服务于特定的智能目标,如最大化模型精度、加快学习收敛速度或提升推理实时性。
在分布式协同感知方面,研究旨在融合多源、多模态数据以形成超越单点的场景理解。哈尔滨工业大学崔双双等人[18]通过构建多维特征张量,实现了云边端跨层异构数据的语义对齐,解决了多模态数据的融合难题。刘林峰团队[19]则将图注意力机制与时空卷积网络结合,这种为时空数据“定制”的融合框架,是实现精准城市交通预测的关键。来自Uber和多伦多大学的Liang等人[20]探索了如何利用车对车通信来提升自动驾驶汽车的感知和运动预测性能。他们通过智能整合从附近多辆车接收到的信息,能够从不同视角观察同一场景,穿透遮挡物,在观测数据极为稀疏或根本不存在的情况下,远距离检测目标。
在面向AI任务的实时协同方面,协同机制的设计完全服务于AI模型的实时推理需求。例如,赵林东团队[21]开发的数字孪生驱动架构,其核心是通过虚实映射机制,将工业预测性维护AI模型的决策延迟压缩至毫秒级。华中科技大学郝义学团队[22]提出的轻量化实时计数框架,其采用的可微分神经架构搜索和视频流动态裁剪技术,本质上是一种AI驱动的协同策略——系统根据AI模型的需求来智能决定传输哪些数据,从而在保证计数精度的前提下极大降低带宽消耗。同样,北京航空航天大学曹志强团队[23]设计的自适应判别器协作检测系统,其“边筛选、云精判”的模式,是为优化困难样本检测这一特定AI任务而设计的协同流程。
在分布式协同学习与生成方面,研究已进入更复杂的协同智能阶段。例如,联邦学习(Federated Learning)是分布式智能的标志性范式,其客户端选择、模型聚合等协同策略,完全是为了在保护数据隐私的前提下,高效、准确地完成分布式模型训练这一核心智能任务。例如,由来自Google的研究人员McMahan等人提出的开创性工作[24],其设计的联邦平均(FedAvg)算法奠定了该领域的基础,使得在不共享原始数据的情况下,通过聚合本地模型更新来训练全局模型成为可能。然而,真实场景中各节点的数据异构性(Non-IID)会严重影响模型收敛,为解决这一挑战,Li等人提出的FedProx算法[25]通过引入近端项来约束本地训练过程,显著提升了异构环境下的模型稳定性和性能。同样,在生成式AI的浪潮下,如何通过边云协同来运行大型语言模型(LLM)成为前沿,研究者们探索将模型进行切分,或通过检索增强生成(RAG)让边云协同完成推理,这些协同方式的设计初衷均是为了实现高质量的内容生成。如基于向量数据库的智能缓存机制VELO框架[26]。该方法在边缘侧缓存LLM的问答对,并通过多智能体强化学习训练一个决策智能体。当新请求到达时,智能体能判断该请求与缓存中问题的相似度,从而决定是直接从边缘返回“语义相似”的答案,还是向云端发起新的推理请求。这种将LLM视为“黑盒”并优化其服务流程的思路,为降低LLM使用成本和延迟提供了极具实用价值的方案。
Table 2. Research status of distributed intelligence
3. 发展趋势和展望
随着云边端协同计算与智能技术的深度融合,其发展将呈现以下核心趋势:
(1) 从资源孤岛到分布式算力网络
面对AI模型、数字孪生等应用带来的爆炸式算力需求,传统的、孤立的边、云数据中心正在向一个统一、协同的“算力网络”演进。其核心目标是让算力像电力和网络一样,成为一种可按需取用、即取即用的社会级服务。一方面,从“任务卸载”到“算力路由”,系统将具备全局视野,能够实时感知从云到端所有可用算力资源(CPU、GPU、NPU等)的状态、成本和能耗。如同网络中的路由协议,智能调度算法将为每一个计算任务动态规划出最优的“算力路由”,实现跨地域、跨运营商、跨空天地的算力最优分配。另一方面,从“应用适配算力”到“算力主动服务应用”:未来的算力网络将是“意图驱动”的。开发者只需声明其应用对时延、成本、精度等方面的需求,算力网络便能自动化地完成服务部署、资源配置、弹性伸缩和故障自愈的全生命周期管理,从而极大降低复杂应用的开发和运维门槛。
(2) 终端与边缘成为智能创新的核心
AI能力下沉至边缘,已成为应对实时性需求与隐私保护双重压力的必然趋势。例如,机器视觉作为智能制造的典型场景,需要上行带宽超过50 Mbps甚至200 Mbps,端到端通信时延小于10 ms,可靠性要求大于99.9999% [27]。这一趋势正从根本上颠覆长期以来“云重边轻”的模式,推动终端与边缘从被动的“数据采集器”转变为主动的“智能体”。这场变革的实现,得益于硬件算力的突破与协同算法的创新。硬件层面,以华为海思Ascend310芯片为例,其能以约25 W的低功耗提供高达22TOPS的AI算力,为在边缘部署复杂AI模型提供了坚实的物理基础[28]。算法层面,智能化的协同范式不断涌现,为不同AI任务在边缘的落地提供了可行路径。以联邦学习为代表的技术使边缘节点群能在不共享原始数据的前提下,协同训练强大的全局模型,并可进一步演化为最适应本地需求的个性化模型,实现“群体智能”与“个体智能”的共生。对于生成式AI,业界正积极探索“小模型在边缘、大模型在云端”的高效协同模式。其核心是利用边缘侧的轻量化模型和智能语义缓存处理海量高频请求,仅在需要深度创作或复杂推理时才调用云端大模型,从而在保证服务质量的同时大幅降低AIGC的应用成本,为其在各行业的普及铺平道路。
(3) 绿色计算成为协同架构的内生目标
随着全球数据总量和计算需求的激增,数据中心和通信网络的能耗问题日益凸出,全球数据中心年耗电量已达1000 TWh [27] [29]。云边端协同架构通过将计算推向数据源头,天然具备了节能潜力。未来,“绿色计算”将从一个附加选项,变为协同架构设计与调度的核心约束和优化目标。绿色化路径呈现出从宏观能源供给到微观芯片设计,再到系统级智能调度的多层次、立体化特征:一是供电模式的绿色革新,例如腾讯云正大规模开发建设数据中心分布式新能源项目,预计2030年实现100%绿色电力,自身运营及供应链的全面碳中和[30];二是硬件能效提升,从追求性能到专注“算力功耗比”。例如,3D堆叠、存算一体、新型半导体材料以及专用计算架构等技术在加速发展,其共同目标是在有限的功耗预算内,为边缘设备提供出最大的有效算力。三是架构与算法的协同节能,将计算推向数据源头,最大限度减少非必要的数据传输。架构级节能通过在边缘侧完成数据预处理、清洗和特征提取,仅将高价值、小体积的结果数据上传至云端,从物理上减少了广域网的流量和能耗。算法级节能中轻量化的模型压缩与量化技术,则直接降低了在资源受限的边缘设备上运行算法所需的计算能耗。这种从传输“原始数据”到传输“有效知识”的转变,是实现全链路绿色化的关键。
(4) 安全与隐私保护加强
云边端协同在带来灵活性和高效性的同时,也因其开放和分布式的特性,引入了更复杂的安全挑战,据统计2024年物联网恶意软件攻击增长了45%,其中路由器是攻击目标最多的设备类型,超过66%的攻击针对这些设备[31]。安全能力必须“内生”于协同体系的每一环,并构建于零信任架构与隐私计算范式两大基石之上。首先是遵循“永不信任,永远验证”原则的零信任架构:在传输层,国密SM9等高性能加密算法[32]可为5G边缘网络提供高速安全信道;在计算层,基于可信执行环境的安全节点(如蚂蚁链“摩斯”)能实现高效的机密计算与联邦学习;在存储层,“分片加密–边缘存储–云端审计”等机制,通过将数据分散加密存储,能有效防范因单点故障或攻击导致的数据泄露与篡改风险。其次是隐私计算范式的普及深化。以联邦学习为代表的“数据不动模型动”技术正成为处理敏感数据的标准范式,从源头保障用户隐私。在此基础上,业界正积极探索效率更高的多方安全计算、同态加密等前沿技术,以适应更广泛的协同计算场景。





