Qwen3发布并开源,海光DCU实现全模型无缝适配
扫描二维码
随时随地手机看文章
2025年4月29日,阿里巴巴云旗下的Qwen团队正式发布并开源Qwen3,作为Qwen系列的最新一代大型语言模型(LLM),包含一系列密集型(Dense)和混合专家(MoE)模型,参数规模从0.6亿至2350亿不等。同日,海光信息技术股份有限公司(以下简称“海光信息”)在其“智能深算”战略引领下,宣布其深算单元(DCU,Deep Computing Unit)已完成对Qwen3全部8款模型(235B、32B、30B、14B、8B、4B、1.7B、0.6B)的无缝适配与优化,实现零错误、零兼容性问题、秒级部署。这一整合依托基于GPGPU架构的生态优势和海光DTK软件栈的领先特性,展现了Qwen3在DCU上的卓越推理性能与稳定性,充分验证了DCU的高通用性、高生态兼容性及自主可控的技术优势,使其成为支撑AI大模型训练与推理的关键基础设施。
Qwen3:开源大型语言模型的新里程碑
Qwen3是阿里巴巴云Qwen系列的最新成果,旨在通过多样化的模型架构满足广泛的AI应用需求。其模型包括密集型模型,参数规模涵盖0.6亿、1.7亿、4亿、8亿、14亿、32亿,适用于从边缘设备到数据中心的多种部署场景;以及混合专家(MoE)模型,包括Qwen3-30B(总参数300亿,推理时激活部分参数)和Qwen3-235B(总参数2350亿,推理时激活部分参数),通过选择性激活专家网络降低计算成本,同时保持高性能。Qwen3以Apache 2.0许可开源,模型权重通过Hugging Face、GitHub及阿里云ModelScope等平台公开,供全球开发者与研究人员免费使用。这种开源策略促进了技术创新与协作,使Qwen3可广泛应用于金融、医疗、教育、电信等行业。
Qwen3的密集型与MoE模型组合体现了其在性能与效率上的平衡。密集型模型适合需要全面参数参与的复杂任务,如高级自然语言处理或多模态应用;MoE模型通过稀疏计算降低资源需求,适合计算资源受限的场景。参数规模从0.6亿到2350亿的设计,使Qwen3能够覆盖从轻量级应用到企业级数据中心的高性能需求。作为开源模型,Qwen3延续了Qwen系列推动AI民主化的使命,开发者可基于其开发定制化解决方案,特别是在中国信息技术应用创新(信创)政策支持的行业中,Qwen3有望成为关键的AI技术驱动力。
海光DCU:“智能深算”战略的核心支柱
海光信息的“智能深算”战略以DCU为核心,聚焦高性能计算(HPC)与人工智能算力的自主研发,旨在满足中国对安全高效、自主可控算力的需求。该战略顺应信创政策与AI市场快速增长的趋势,推动国产芯片在通用计算与智能计算领域的应用。DCU定位于AI、大数据处理及商业计算场景的协处理器,类似英伟达GPU,但更注重成本效益与本土化适配。海光信息自2016年通过与AMD的技术授权合作,获得x86架构许可,开发了通用处理器(CPU)与DCU。2019年被列入美国“实体清单”后,AMD停止技术支持,海光加速自主研发,DCU成为其核心竞争力。目前,DCU已广泛应用于金融、电信、互联网、教育、医疗、政务等领域,成为国产AI算力的重要支撑。
DCU在Qwen3适配中展现了卓越的技术能力。其采用通用图形处理单元(GPGPU)架构,支持高并行计算,适合AI模型训练与推理,类CUDA并行计算框架兼容主流AI软件生态,确保与Qwen3等模型的无缝整合。海光的深算工具包(DTK)是一套完整的软件开发套件,包括开发工具、库和优化框架,支持模型迁移、性能优化与快速部署,助力DCU实现Qwen3全系列模型的秒级部署,无任何错误或兼容性问题。DCU支持从0.6亿到2350亿参数的Qwen3模型,展现了其适应多样化计算需求的灵活性,覆盖边缘计算到数据中心的高性能场景。其兼容全球AI框架及国产大模型,降低开发者迁移成本,同时内置安全硬件,支持国密算法(如SM2、SM3)与可信计算,满足中国对信息安全与技术自主的高要求。
DCU通过支持Qwen3的训练与推理,确立了其作为AI大模型关键基础设施的地位。相较于进口GPU,DCU提供自主可控的算力解决方案,满足金融、政务等行业对安全与效率的需求。其在信创市场中的应用进一步巩固了其作为国产算力核心的地位。
Qwen3与DCU的协同效应
海光信息在Qwen3发布当天宣布完成全部8款模型的适配与优化,实现了零错误、零兼容性问题、秒级部署,这一技术突破彰显了DCU在高性能计算与AI应用中的强大能力。DCU的GPGPU架构为Qwen3的密集型与MoE模型提供了高效的并行计算支持,能够处理从0.6亿到2350亿参数的多样化计算需求,确保推理任务的稳定性和高吞吐量。海光的DTK软件栈在这一过程中发挥了关键作用,其包含的开发工具和优化框架支持快速模型迁移与性能调优,使Qwen3能够在DCU上以秒级速度完成部署,且运行过程中无任何兼容性问题。这种高效适配能力源于DCU类CUDA生态的兼容性设计,使其能够无缝支持主流AI框架,同时适配国产大模型的独特需求。DCU对Qwen3全系列模型的支持,体现了其在处理轻量级边缘计算任务到高强度数据中心推理任务时的通用性,进一步验证了其作为国产AI算力基础设施的技术成熟度。
Qwen3与DCU的成功整合对中国AI生态具有深远的战略意义。首先,这一整合推动了信创政策目标的实现,Qwen3作为开源的国产大模型,与DCU这一自主研发的协处理器结合,显著降低了国内AI产业对国外技术的依赖,增强了技术自主性和信息安全性,特别是在金融、政务等敏感领域。其次,Qwen3的开源特性与DCU的生态兼容性共同促进了国产AI生态的建设,Qwen3通过Hugging Face等全球平台吸引开发者,而DCU的DTK工具链为开发者提供高效的本地化开发支持,降低了技术迁移门槛,助力构建从算法到算力的完整产业链。此外,Qwen3+DCU的解决方案为信创重点行业提供了安全高效的AI能力,例如在金融领域支持智能客服系统,在政务领域助力数据分析与决策支持,满足行业对自主可控技术的高要求。虽然具体成本数据未披露,DCU的国产化生产与Qwen3的开源模式相较于进口GPU与闭源模型的组合,预计具有显著的成本优势,使更多企业能够采用国产AI技术,从而推动技术的广泛应用和产业升级。
中国信创政策旨在推动国产IT解决方案的研发与应用,构建安全自主的技术体系。Qwen3与DCU的整合是信创政策的具体体现,通过国产大模型与芯片的结合,打造从算法到算力的完整AI技术栈,降低对国外技术的依赖。
DCU在国内与寒武纪、华为昇腾等AI芯片竞争,国际上则面对英伟达、AMD等巨头。Qwen3则与DeepSeek、百度文心一言及国际模型如Llama竞争。Qwen3+DCU的开源与国产化优势,使其在信创市场中具备独特竞争力。
虽然主要服务国内需求,Qwen3的开源特性使其可吸引国际开发者,DCU的性价比优势也可能在发展中国家市场获得机会。这种内外兼顾的潜力提升了中国AI技术的全球影响力。
结语
2025年4月29日Qwen3的发布及其与海光DCU的快速适配,标志着中国AI算力与算法生态的重大进展。Qwen3通过密集型与MoE模型满足多样化需求,其开源策略推动技术普及;海光DCU凭借GPGPU架构、DTK软件栈及自主可控特性,成为AI大模型训练与推理的关键支撑。在“智能深算”战略引领下,Qwen3与DCU的协同效应推动了信创目标的实现,加速了国产AI生态的成熟。未来,这一组合有望在金融、政务等行业深化应用,为中国AI产业的自主可控与全球竞争力注入新动能。