2025年4月29日,阿里巴巴云旗下的Qwen团队正式发布并开源Qwen3,作为Qwen系列的最新一代大型语言模型(LLM),包含一系列密集型(Dense)和混合专家(MoE)模型,参数规模从0.6亿至2350亿不等。同日,海光信息技术股份有限公司(以下简称“海光信息”)在其“智能深算”战略引领下,宣布其深算单元(DCU,Deep Computing Unit)已完成对Qwen3全部8款模型(235B、32B、30B、14B、8B、4B、1.7B、0.6B)的无缝适配与优化,实现零错误、零兼容性问题、秒级部署。这一整合依托基于GPGPU架构的生态优势和海光DTK软件栈的领先特性,展现了Qwen3在DCU上的卓越推理性能与稳定性,充分验证了DCU的高通用性、高生态兼容性及自主可控的技术优势,使其成为支撑AI大模型训练与推理的关键基础设施。
NVIDIA NeMo Guardrails 包含全新 NVIDIA NIM 微服务,能够为各行业构建 AI 的企业提高 AI 的准确性、安全性和可控性。
今年9月份OpenAI对外宣称,AI能力达到新等级,相比之前的LLM,新AI更接近人类的思考能力。OpenAI的断言引起争论:到底还要等多久机器才能具备人类大脑一样的认知能力?
人工智能正在改变我们的世界,推动前所未有的增长和创新。这场革命的核心是高性能芯片,其特点是复杂性、精度要求和先进技术的集成度不断提高。
大型语言模型 (LLM) 的出现导致人们急于将人工智能 (AI) 强行塞入每一种有意义的产品,以及相当一部分不有意义的产品。但有一个领域已经证明人工智能是一个强大而有用的补充:低代码和无代码软件开发。
随着最近法学硕士 (LLM)的成就和关注,以及随之而来的人工智能“夏季”,模型训练方法开始复兴,旨在尽快获得最优、性能最佳的模型。其中大部分是通过大规模实现的——更多芯片、更多数据、更多训练步骤。然而,许多团队一直专注于如何更高效、更智能地训练这些模型,以实现预期结果。
本文根据完整的基准测试,将Achronix Semiconductor公司推出的Speedster7t FPGA与GPU解决方案进行比较,在运行同一个Llama2 70B参数模型时,该项基于FPGA的解决方案实现了超越性的LLM推理处理。
5 月 20 日,英国政府下属人工智能安全研究所(AISI)发布了最新的 LLM 安全评估等三则公告。
事实表明,AI无法替代开发者,但更适用于优秀的开发者。而识别大型语言模型(LLM)生成的代码什么时候会出错,需要开发人员具有丰富的知识和经验。
2022年11月30日,ChatGPT正式上线。以其为代表的生成式AI颠覆了人们对于生产力的认知,而此后整个2023年,科技巨头纷纷强势入局,各种大语言模型也蜂拥而至。经过了一年的沉淀,从底层大模型、到基础设施、再到消费端应用,生成式AI的生态已经初步建立。
全新 GeForce RTX SUPER GPU、各大OEM的AI笔记本电脑为领先的AI平台带来 RTX 加速
波士顿动力公司、Collaborative Robotics、Covariant、Sanctuary AI、宇树科技等企业正在将 LLM 应用于机器人领域
Arm® 今日宣布多项全新的战略合作,继续致力于推动人工智能 (AI) 的创新,并将 AI 的体验变为现实。除了自身已能实现 AI 开发的技术平台之外,Arm 还与 AMD、英特尔、Meta、微软、NVIDIA 和高通技术公司等领先的科技企业携手合作,通过多项计划,聚焦于先进 AI 能力的实现,由此带来更快响应、更加安全的用户体验。这些合作计划将在所有计算进行之处,助力 1500 多万名 Arm 开发者,构建其所需的基础框架、技术和规范,带来新一代的 AI 体验。
AI 智能体利用 LLM 自动生成奖励算法,训练机器人完成复杂任务。