在人工智能飞速发展的当下,大模型展现出了强大的语言理解与生成能力。然而,要让这些模型真正在实际场景中发挥作用,与外部丰富的工具及数据源顺畅交互至关重要。在此背景下,Model Context Protocol(MCP),即模型上下文协议应运而生,正悄然改写 AI 开发的固有模式,在传统 API 之外开辟出一片新的天地。
8月7日消息,今日,阿里通义千问宣布发布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。
7月30日消息,日前,中国科学院深圳先进技术研究院发布了一项名为HYPIR的图像复原大模型。
在 2025 世界人工智能大会 (WAIC) 期间,Arm 举办了以“AI 无处不在:从云到边尽在 Arm” 为主题的技术论坛。该论坛汇聚了 Arm 技术专家及支付宝、联想等合作伙伴代表,共同分享人工智能 (AI) 行业的发展趋势与前沿洞察。开场环节,Arm 中国区业务全球副总裁邹挺深入解读了 AI 技术的演进趋势,分享了由 Arm 调研的《AI 就绪指数调研报告》,报告中揭示了针对中国市场的核心发现,并系统剖析了 AI 发展面临的挑战及对应解决方案。
随着芯片规模突破百亿晶体管,传统可测试性设计(DFT)方法面临测试向量生成效率低、故障覆盖率瓶颈等挑战。本文提出一种基于大语言模型(LLM)的DFT自动化框架,通过自然语言指令驱动测试向量生成,并结合强化学习优化故障覆盖率。在TSMC 5nm工艺测试案例中,该框架将测试向量生成时间缩短70%,故障覆盖率从92.3%提升至98.7%,同时减少30%的ATE测试时间。实验表明,大模型在DFT领域的应用可显著降低人工干预需求,为超大规模芯片设计提供智能测试解决方案。
在亚马逊云科技中国峰会上,亚马逊全球副总裁、亚马逊云科技大中华区总裁储瑞松表示,过去一年,机器智能已经爆发了,如今AI的发展又来到了一个拐点,我们正处在Agentic AI 爆发的前夜。
6月8日消息,苹果近日发表了一篇研究论文,称推理模型全都没真正思考,无论DeepSeek、o3-mini还是Claude 3.7都只是另一种形式的“模式匹配”,所谓思考只是一种假象。
随着人工智能技术在各领域的广泛应用,将大型语言模型(LLM)部署到嵌入式端侧设备成为重要趋势。Llama 2 - 7B作为一款性能优异的大语言模型,具有广泛的应用前景。然而,其庞大的参数量对嵌入式设备的计算资源和存储能力提出了巨大挑战。瑞萨RZ/V2L处理器集成了强大的NPU(神经网络处理单元),结合INT4量化技术,为在嵌入式端侧部署Llama 2 - 7B提供了可行方案。
自诞生以来,人工智能大模型始终被“幻觉”问题困扰。这里的“幻觉”,指的是大语言模型会将虚构信息当作真实事实输出。
2025年4月29日,阿里巴巴云旗下的Qwen团队正式发布并开源Qwen3,作为Qwen系列的最新一代大型语言模型(LLM),包含一系列密集型(Dense)和混合专家(MoE)模型,参数规模从0.6亿至2350亿不等。同日,海光信息技术股份有限公司(以下简称“海光信息”)在其“智能深算”战略引领下,宣布其深算单元(DCU,Deep Computing Unit)已完成对Qwen3全部8款模型(235B、32B、30B、14B、8B、4B、1.7B、0.6B)的无缝适配与优化,实现零错误、零兼容性问题、秒级部署。这一整合依托基于GPGPU架构的生态优势和海光DTK软件栈的领先特性,展现了Qwen3在DCU上的卓越推理性能与稳定性,充分验证了DCU的高通用性、高生态兼容性及自主可控的技术优势,使其成为支撑AI大模型训练与推理的关键基础设施。
2025年4月25日,中国,北京——人工智能终端产业发展研讨会暨人工智能终端工作组第一次全体大会召开,工业和信息化部副部长熊继军出席会议并致辞,工业和信息化部电子司和科技司、国家发展和改革委员会、商务部、北京市朝阳区有关领导参会,各地行业主管部门以及工作组有关专家学者、企业单位共200余人参加大会。
在当今数字化时代,人工智能(AI)无疑是推动各行业创新与发展的核心力量。从最初的简单算法到如今复杂的大模型,AI 的发展日新月异。而随着数据量呈指数级增长以及实时处理需求的飙升,传统的云端 AI 模式逐渐显露出诸多局限性,尤其是在带宽受限或对隐私要求极为严苛的场景下,依赖远程云服务器进行 AI 计算已难以满足实际需求。在这样的背景下,边缘生成式 AI 异军突起,正引领着智能计算领域的全新变革,将智能体验切实地带到消费者身边。
助力生成式 AI 初创企业释放潜能,加速全球化进程
随着大模型在不断演进的同时将推理应用大规模推向边缘和端点设备,以及物联网智化、具身智能、AI智能体(AI Agent)和物理AI等新的AI应用场景和模式的快速涌现,AI赋能设备的主控芯片设计师正面临着全新的挑战。尤其是对于边缘和端点设备,它们既可能成为大模型的承载设备,也可能是用智能去为应用提供更好的核心功能,新的产品定义方向使主芯片架构师不得不去思考,其芯片在如何应对大模型快速演进的同时,还能实现用智能手段赋能传统应用和实现新兴功能。
4月13日消息,北京大学定量生物学中心钱珑团队研发、构建了全球首个针对功能基因挖掘任务的大语言模型SYMPLEX。
在当今数字化时代,数据量呈爆炸式增长,从人工智能大模型的训练,到实时性要求极高的自动驾驶场景,从大规模数据中心的高效运算,到边缘设备的快速响应,各行各业对计算性能的需求持续攀升。传统的电计算模式在面对如此庞大且复杂的计算任务时,逐渐暴露出其在延迟和能效方面的局限性。而光电混合计算,作为一种融合了光与电优势的新兴计算方式,正悄然崛起,逐步实现商业落地,为低延迟、高能效计算带来了新的曙光,有望成为未来计算领域的主流选择。
近日,百川智能被曝联合创始人焦可已经离职,联合创始人、模型研发负责人陈炜鹏即将离职。对于这些消息,百川智能方面选择保持沉默。
3月12日消息,3月6日,来自中国的创业公司Monica正式对外发布通用型AI Agent(AI智能体)产品Manus。
3月10日消息,Monica联合创始人、首席科学家季逸超(Peak)今日在社交平台透露,Manus使用了Claude大模型和不同的阿里千问大模型(Qwen)的微调模型开发。
最近,OpenAI、DeepSeek、谷歌、Anthropic都推出新模型,它们都宣称模型已经具备真正的推理能力,也就是人类解决问题时运用的思维方式,但问题在于:AI大模型所说的推理真的和人一样吗?