机器学习

关注458人关注
我要报错
  • 亚马逊云科技宣布将在马来西亚推出新区域

    北京——2023年3月15日 日前,亚马逊云科技宣布将在马来西亚推出亚马逊云科技基础设施区域。新的亚马逊云科技区域将为开发者、初创公司、创业人士和企业,以及政府机构、教育和非营利组织提供更多运行其应用程序的选择,他们可选择亚马逊云科技位于马来西亚的数据中心向最终用户提供服务。东南亚一直是中国企业出海的首选目的地之一,亚马逊云科技马来西亚新区域将帮助中国出海企业以更低延迟构建、运行更接近最终用户的应用程序。亚马逊云科技计划到2037年在马来西亚投资总计60亿美元。

  • 人工智能发展如火如荼,人工智能实际应用介绍

    为增进大家对人工智能的认识,本文将对人工智能以及人工智能在现实生活中的实际应用予以介绍。

  • 人工智能是什么?难掌握吗?需哪些技术基础?

    当前学习人工智能是不错的选择,随着人工智能技术的不断发展和应用,整个行业领域会释放出大量的相关人才需求。中国人工智能发展迅猛,中国政府也高度重视人工智能领域的发展。到今年,中国人工智能产业规模超过1500亿元,带动相关产业规模超过1万亿元。全球新兴人工智能项目中,中国占据51%,数量上已经超越美国。但全球人工智能人才储备,中国却只有5%左右,人工智能的人才缺口超过500万。

  • 亚马逊云科技连续三年在云计算领域获得最多的用户满意度第一

    北京2023年3月9日 /美通社/ -- 日前,在由中国工业信息安全发展研究中心、中国电子质量管理协会指导,计世资讯主办的"第二十一届中国IT用户满意度大会"上,亚马逊云科技在如下五个领域荣获用户满意度第一,分别为企业出海云服务解决方案、人工智能与机器学习服务...

  • 亚马逊云科技连续三年在云计算领域获得最多的用户满意度第一

    北京——2023年3月9日,日前,在由中国工业信息安全发展研究中心、中国电子质量管理协会指导,计世资讯主办的“第二十一届中国IT用户满意度大会”上,亚马逊云科技在如下五个领域荣获用户满意度第一,分别为企业出海云服务解决方案、人工智能与机器学习服务、云原生数据库、云计算数据架构服务解决方案和IaaS + PaaS服务。

  • 亚马逊云科技:生成式AI发展的瓶颈在算力

    北京2023年3月8日 /美通社/ -- 经过60余年的等待,生成式AI(Generative AI)终于爆发了。 早在1957年,莱杰伦·希勒和伦纳德·艾萨克森就完成了历史上第一支由计算机创作的弦乐四重奏《伊利亚克组曲》。而生成式AI真正走向产业化...

  • Snowflake与亚马逊云科技携手深耕以客户为中心的创新

    Snowflake与亚马逊云科技通过促进销售合作、行业解决方案协同及联合市场推广战略,进一步扩大了卓有成效的合作伙伴关系 包括高盛集团等财富500强企业在内的6000多家联合客户[1]在使用Snowflake和亚马逊云科技的技术和服务加速创新 大约84%的Snowf...

  • Snowflake与亚马逊云科技携手深耕以客户为中心的创新

    北京——2023年3月7日 数据云服务商Snowflake与亚马逊云科技共同宣布,将在未来几年中深化合作关系,Snowflake将增加在亚马逊云科技上的支出,两家公司将共同出资数百万美元支持市场营销工作。双方将通过深入的、多维度的深化合作以推动增长,并在销售与营销、行业解决方案、产品集成等各领域推动以客户为中心的创新。

  • 顺丰供应链携手亚马逊云科技,推动供应链智慧转型和升级

    北京——2023年2月23日 亚马逊云科技日前宣布,领先的供应链服务企业顺丰供应链与亚马逊云科技聚力合作,打造智能化综合管理平台系统“数智门”,满足多场景园区物流需求,实现供应链端到端可视化。使用亚马逊云科技计算、存储、数据分析、容器、机器学习和安全等服务,顺丰供应链改进了园区运营流程,提升了运营效率,园区车辆日吞吐量提升40~60%,员工作业效率提升30%,调度员和安检员工作量减少50%。

  • 亚马逊云科技连续两年蝉联中国AI开发平台"榜首"

    北京2023年2月6日 /美通社/ -- 日前,全球知名市场调研机构弗若斯特沙利文(Frost & Sullivan, 简称沙利文)联合头豹研究院发布《2022年中国AI开发平台市场报告》,亚马逊云科技连续两年蝉联榜首,在中国AI开发平台市场的综合表现中,处于&...

  • 亚马逊云科技连续两年蝉联中国AI开发平台“榜首”

    北京——2023年2月6日,日前,全球知名市场调研机构弗若斯特沙利文(Frost & Sullivan, 简称沙利文)联合头豹研究院发布《2022年中国AI开发平台市场报告》,亚马逊云科技连续两年蝉联榜首,在中国AI开发平台市场的综合表现中,处于“弗若斯特雷达”创新指数和增长指数的最高位置。亚马逊云科技在AI开发平台领域提供完备的AI开发软硬件全栈服务,并通过“智能湖仓架构”加速数智融合,同时投身AI普惠化以构建完善的AI开放体系,让机器学习变得触手可及。

  • 国内外都在积极部署和发展人工智能技术!

    “一直在云环境中运行人工智能模型的企业正在看到高性能云处理可能会给他们带来的财务损失。2023年,可能会看到更多公司寻求降低人工智能推理云成本。实现这一点的最有效方法之一是在保持其准确性的同时提高人工智能模型速度,减少在云上的处理时间,并有效地节省了资金。”

  • 人工智能技术未来将在多领域高水平应用!

    今年的重庆政府工作报告中提出,培育人工智能等未来产业集群,加快制造业数字化转型,培育壮大数字经济。在2023重庆两会上,重庆市人大代表,科大讯飞人工智能西南研究院院长娄超建议,推动人工智能在教育、医疗、汽车、人才等领域的高水平应用,促进重庆经济高质量发展。

  • Achronix:把握市场趋势,灵活布局产品

    疫情已近尾声,但其积累的不利影响仍需持续消化。面临着诸多的不确定性因素,我们度过了不平凡的2022,并将迎来令人期待的2023年。2023年伊始,我们特地邀请到了Achronix中国区总经理郭道正先生,来参与21ic电子网 “2022回顾及2023年展望”的专题采访,和我们分享Achronix 2022这一年来的成绩,以及对于2023年的趋势展望。

  • 苏黎世保险集团选择亚马逊云科技加速数字化转型 为客户提供全新体验

    全球保险领导企业选择亚马逊云科技作为首选云供应商,借助亚马逊云科技能力及其欧洲(苏黎世)区域云服务加快创新、满足监管和安全要求

  • 什么是图神经网络?未来如何发展?

    图是一种数据结构,它对一组对象(节点)及其关系(边)进行建模。近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。图神经网络(GNN)是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN最近已成为一种广泛应用的图分析方法。

  • 循环神经网络 RNN发展史概述

    循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习(deep learning)算法之一,其中双向循环神经网络(Bidirectional RNN, Bi-RNN)和长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络。

  • 什么是自编码器?对机器学习有什么影响?

    AutoEncoder的基本思想是利用神经网络来做无监督学习,就是把样本的输入同时作为神经网络的输入和输出。本质上是希望学习到输入样本的表示(encoding)。早期AutoEncoder的研究主要是数据过于稀疏、数据高维导致计算复杂度高。比较早用神经网络做AutoEncoder的可以追溯到80年代的BPNN和MLP以及当时Hinton推崇的RBM。后来到了2000年以后还坚持在做的只剩下Hinton的RBM了。从2000年以后,随着神经网络的快速兴起,AutoEncoder也得到快速发展,基本上有几条线:稀疏AutoEncoder、噪音容忍AutoEncoder、卷积AutoEncoder、变分AutoEncoder。最新的进展是结合对抗思想的对抗AutoEncoder。

  • 简述卷积神经网络发展进程

    卷积神经网络的发展,最早可以追溯到1962年,Hubel和Wiesel对猫大脑中的视觉系统的研究。1980年,一个日本科学家福岛邦彦(Kunihiko Fukushima)提出了一个包含卷积层、池化层的神经网络结构。在这个基础上,Yann Lecun将BP算法应用到这个神经网络结构的训练上,就形成了当代卷积神经网络的雏形。

  • 什么是深度学习

    深度学习是近10年机器学习领域发展最快的一个分支,由于其重要性,三位教授(Geoffrey Hinton、Yann Lecun、Yoshua Bengio)因此同获图灵奖。深度学习模型的发展可以追溯到1958年的感知机(Perceptron)。1943年神经网络就已经出现雏形(源自NeuroScience),1958年研究认知的心理学家Frank发明了感知机,当时掀起一股热潮。后来Marvin Minsky(人工智能大师)和Seymour Papert发现感知机的缺陷:不能处理异或回路等非线性问题,以及当时存在计算能力不足以处理大型神经网络的问题。于是整个神经网络的研究进入停滞期。