北京2023年2月6日 /美通社/ -- 日前,全球知名市场调研机构弗若斯特沙利文(Frost & Sullivan, 简称沙利文)联合头豹研究院发布《2022年中国AI开发平台市场报告》,亚马逊云科技连续两年蝉联榜首,在中国AI开发平台市场的综合表现中,处于&...
北京——2023年2月6日,日前,全球知名市场调研机构弗若斯特沙利文(Frost & Sullivan, 简称沙利文)联合头豹研究院发布《2022年中国AI开发平台市场报告》,亚马逊云科技连续两年蝉联榜首,在中国AI开发平台市场的综合表现中,处于“弗若斯特雷达”创新指数和增长指数的最高位置。亚马逊云科技在AI开发平台领域提供完备的AI开发软硬件全栈服务,并通过“智能湖仓架构”加速数智融合,同时投身AI普惠化以构建完善的AI开放体系,让机器学习变得触手可及。
“一直在云环境中运行人工智能模型的企业正在看到高性能云处理可能会给他们带来的财务损失。2023年,可能会看到更多公司寻求降低人工智能推理云成本。实现这一点的最有效方法之一是在保持其准确性的同时提高人工智能模型速度,减少在云上的处理时间,并有效地节省了资金。”
今年的重庆政府工作报告中提出,培育人工智能等未来产业集群,加快制造业数字化转型,培育壮大数字经济。在2023重庆两会上,重庆市人大代表,科大讯飞人工智能西南研究院院长娄超建议,推动人工智能在教育、医疗、汽车、人才等领域的高水平应用,促进重庆经济高质量发展。
疫情已近尾声,但其积累的不利影响仍需持续消化。面临着诸多的不确定性因素,我们度过了不平凡的2022,并将迎来令人期待的2023年。2023年伊始,我们特地邀请到了Achronix中国区总经理郭道正先生,来参与21ic电子网 “2022回顾及2023年展望”的专题采访,和我们分享Achronix 2022这一年来的成绩,以及对于2023年的趋势展望。
全球保险领导企业选择亚马逊云科技作为首选云供应商,借助亚马逊云科技能力及其欧洲(苏黎世)区域云服务加快创新、满足监管和安全要求
图是一种数据结构,它对一组对象(节点)及其关系(边)进行建模。近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。图神经网络(GNN)是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN最近已成为一种广泛应用的图分析方法。
循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习(deep learning)算法之一,其中双向循环神经网络(Bidirectional RNN, Bi-RNN)和长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络。
AutoEncoder的基本思想是利用神经网络来做无监督学习,就是把样本的输入同时作为神经网络的输入和输出。本质上是希望学习到输入样本的表示(encoding)。早期AutoEncoder的研究主要是数据过于稀疏、数据高维导致计算复杂度高。比较早用神经网络做AutoEncoder的可以追溯到80年代的BPNN和MLP以及当时Hinton推崇的RBM。后来到了2000年以后还坚持在做的只剩下Hinton的RBM了。从2000年以后,随着神经网络的快速兴起,AutoEncoder也得到快速发展,基本上有几条线:稀疏AutoEncoder、噪音容忍AutoEncoder、卷积AutoEncoder、变分AutoEncoder。最新的进展是结合对抗思想的对抗AutoEncoder。
卷积神经网络的发展,最早可以追溯到1962年,Hubel和Wiesel对猫大脑中的视觉系统的研究。1980年,一个日本科学家福岛邦彦(Kunihiko Fukushima)提出了一个包含卷积层、池化层的神经网络结构。在这个基础上,Yann Lecun将BP算法应用到这个神经网络结构的训练上,就形成了当代卷积神经网络的雏形。
深度学习是近10年机器学习领域发展最快的一个分支,由于其重要性,三位教授(Geoffrey Hinton、Yann Lecun、Yoshua Bengio)因此同获图灵奖。深度学习模型的发展可以追溯到1958年的感知机(Perceptron)。1943年神经网络就已经出现雏形(源自NeuroScience),1958年研究认知的心理学家Frank发明了感知机,当时掀起一股热潮。后来Marvin Minsky(人工智能大师)和Seymour Papert发现感知机的缺陷:不能处理异或回路等非线性问题,以及当时存在计算能力不足以处理大型神经网络的问题。于是整个神经网络的研究进入停滞期。
有一些特定的标准可用于分类模型解释方法。Christoph Molnar在2018年“可解释的机器学习,制作黑箱模型可解释指南”中提到了一个很好的指南。
对抗机器学习是一个机器学习与计算机安全的交叉领域。对抗机器学习旨在给恶意环境下的机器学习技术提供安全保障。由于机器学习技术一般研究的是同一个或较为稳定的数据分布,当部署到现实中的时候,由于恶意用户的存在,这种假设并不一定成立。比如研究人员发现,一些精心设计的对抗样本(adversarial example)可以使机器学习模型不能成功地输出正确的结果。针对模型的攻击问题,我们主要分为两大类,就是从训练阶段和推理(inference)阶段来进行讨论。
生成对抗网络(Generative Adversarial Networks,GAN)是用于无监督学习的机器学习模型,由Ian Goodfellow等人在2014年提出。由神经网络构成判别器和生成器构成,通过一种互相竞争的机制组成的一种学习框架,GAN在深度学习领域掀起了一场革命,这场革命产生了一些重大的技术突破,学术界和工业界都开始接受并欢迎GAN的到来。GAN最厉害的地方是它的学习性质是无监督的,GAN也不需要标记数据,这使得GAN功能强大,因为数据标记的工作非常枯燥。
从1990到2012年,机器学习逐渐走向成熟和应用,在这20多年里机器学习的理论和方法得到了完善和充实,可谓是百花齐放的年代。代表性的重要成果有:支持向量机(SVM,1995)、AdaBoost算法(1997)、循环神经网络和LSTM(1997)、流形学习(2000)、随机森林(2001)。
1980年机器学习作为一支独立的力量登上了历史舞台。在这之后的10年里出现了一些重要的方法和理论,典型的代表是:分类与回归树(CART,1984)、反向传播算法(1986)、卷积神经网络(1989)。
机器学习算法可以按照不同的标准来进行分类。按照训练样本提供的信息以及反馈方式的不同,将机器学习算法分为监督学习、无监督学习和强化学习。
机器学习已经成为了当今的热门话题,但是从机器学习这个概念的诞生到机器学习技术的普遍应用经过了漫长的过程。在机器学习发展的历史长河中,众多优秀的学者为推动机器学习的发展做出了巨大的贡献。
近几年,人工智能一直是学术界和产业界研究的热点,对于人工智能将如何改变我们的生活,人们充满想象与期待。人工智能概念的提出,最早可以追溯到1956年的达特茅斯会议,然而,在那之后,人工智能又是如何一步步发展起来的呢?
这话有些偏激,但似乎有点道理。奈何今天题目里的“联姻”不是指人与人,而是圈内的公司与公司。每每想到半导体公司的联姻,我都觉得好苦。自由恋爱?不存在的!爱情不是你想买,想买就能买。有时甚至让你觉得这是一场浩大工程的取经行为,需经历九九八十一难才能修成正果。