当前位置:首页 > 技术
  • 深入了解工业机器人,工业机器人重要技术讲解

    深入了解工业机器人,工业机器人重要技术讲解

    工业机器人的使用越来越广泛,即使是普通群众,对工业机器人也愈来愈了解。就普通人而言,对工业机器人的认识大多停留在感性认识层面,对工业机器人的相关技术却未必了解。为此,本文中小编将对工业机器人的7大技术予以介绍。如果你对工业机器人具有兴趣,不妨继续往下阅读哦。 技术参数是不同工业机器人之间差距的直接表现形式,不同的机器人技术参数特点不同,对应了它们不同的应用范围,工业机器人是高精密的现代机械设备,参数众多,企业挑选工业机器人的时候应该着重注意以下7大参数。 1.自由度 自由度可以用机器人的轴数进行解释,机器人的轴数越多,自由度就越多,机械结构运动的灵活性就越大,通用性强。但是自由度增多,使得机械臂结构变得复杂,会降低机器人的刚性。当机械臂上自由度多于完成工作所需要的自由度时,多余的自由度就可以为机器人提供一定的避障能力。目前大部分机器人都具有3~6个自由度,可以根据实际工作的复杂程度和障碍进行选择。 2.驱动方式 驱 动方式主要指的是关节执行器的动力源形式,一般有液压驱动、气压驱动、电气驱动,不同的驱动方式有各自的优势和特点,根据自身实际工作的需求进行选择,现在比较常用的是电气驱动的方式。液压驱动的主要优点在于可以以较小的驱动器输出较大的驱动力,缺点是油料容易泄露,污染环境;气压驱动主要优点是具有较好的缓冲作用,可以实现无级变速,缺点是噪声大;电气驱动的优点是驱动效率高,使用方便,而且成本较低。 3.控制方式 机 器人的控制方式也被称为控制轴的方式,主要是用来控制机器人运动轨迹,一般来说,控制方式有两种:一种是伺服控制,另一种是非伺服控制。伺服控制方式有可以细分为连续轨迹控制类和点位控制类。与非伺服控制机器人相比,伺服控制机器人具有较大的记忆储存空间,可以储存较多点位地址,可以使运行过程更加复杂平稳。 4.工作速度 工 作速度指的是机器人在合理的工作载荷之下,匀速运动的过程中,机械接口中心或者工具中心点在单位时间内转动的角度或者移动的距离。简单来说,最大工作速度愈高,其工作效率就愈高。但是,工作速度就要花费更多的时间加速或减速,或者对工业机器人的最大加速率或最大减速率的要求就更高。 5.工作空间 工 作空间指的是机器人操作机正常工作时,末端执行器坐标系的原点能在空间活动的最大范围,或者说该点可以到达所有点所占的空间体积。工作空间范围的大小不仅与机器人各连杆的尺寸有关,而且与机器人的总体结构形式有关。工作空间的形状和大小是十分重要的,机器人在执行某作业时可能会因存在手部不能到达的盲区(deadzone)而不能完成任务。 6.工作载荷 机 器人在规定的性能范围内工作时,机器人腕部所能承受的最大负载量。工作载荷不仅取决于负载的质量,而且与机器人运行的速度和加速度的大小和方向有关。为保证安全,将工作载荷这一技术指标确定为高速运行时的承载能力。通常,工作载荷不仅指负载质量,也包括机器人末端执行器的质量。 7.工作精度、重复精度和分辨率 简单来说机器人的工作精度是指每次机器人定位一个位置产生的误差,重复精度是机器人反复定位一个位置产生误差的均值,而分辨率则是指机器人的每个轴能够实现的最小的移动距离或者最小的转动角度。这三个参数共同作用于机器人的工作精确度。 以上便是此次小编带来的“工业机器人”相关内容,通过本文,希望大家对工业机器人的7大技术特征具备一定的了解。如果你喜欢本文,不妨持续关注我们网站哦,小编将于后期带来更多精彩内容。

    时间:2020-09-28 关键词: 工业机器人 指数 技术

  • Kubernetes架构的8个问题

    Kubernetes的架构非常适合大规模的组织,但是对于中小组织来说,它可能会过于复杂。 作为开源容器编排器,Kubernetes已经成为组织部署容器化应用程序的实际解决方案。这其中有一些充分的理由,其中包括Kubernetes提供高度的可靠性、自动化、可扩展性的事实。尽管如此,有此行业人士还是认为Kubernetes架构过于复杂。虽然已经有6年以上的应用历史,但它还是有许多缺点。其中一些缺点是Kubernetes本身所固有的,而另一些缺点则是围绕该平台成长起来的生态系统的产物。 在部署Kubernetes之前,企业需要考虑以下开源容器编排器的一些问题。 1. Kubernetes是为大规模的公司设计的 首先,Kubernetes架构始终是为需要管理超大规模应用程序环境的组织而构建的。对于谷歌公司来说(Borg编排者构成了成为开源Kubernetes项目的基础),Kubernetes是一个很好的工具。而对于拥有数十个数据中心以及数千个分布在其中的应用程序和服务的Netflix、Facebook、AWS等其他大规模的公司来说,也是如此。 但是如果是一个规模较小的组织,并且只有一个可能只部署十几个应用程序的数据中心,那么Kubernetes架构无疑规模过于庞大,这可能就像驾驶推土机为后院花园翻土一样大材小用。除非是大规模使用,否则配置和管理它需要解决大量的问题。 2. Kubernetes有很多发行版 Kubernetes架构的另一个问题是,Kubernetes有很多发行版,以及大量与其相关的不同的工具、理念和观点。 当然,在某种程度上,任何开源生态系统中都会发生分裂。例如,RedHat Linux与Ubuntu Linux具有不同的软件包管理器、管理工具等。但是,RedHat和Ubuntu的相似之处远大于区别。对于使用Red Hat系统的管理员来说,如果要迁移到Ubuntu,则不需要花费六个月的时间自学新工具。 行业专家并不认为Kubernetes也是如此。如果现在正在使用OpenShift,但又想切换到VMware Tanzu,则其学习过程将非常艰巨。尽管这两个Kubernetes发行版都使用相同的基础平台Kubernetes,但是它们添加的方法和工具却截然不同。 基于云计算的Kubernetes服务也有类似的分裂。Google Kubernetes Engine(GKE)与Amazon EKS(相当于AWS云)等平台相比,具有截然不同的用户体验和管理工具套件。 当然,这并不是Kubernetes架构本身的错,而是不同供应商尝试使其Kubernetes产品实现差异化的结果。但是从Kubernetes用户的角度来看,这仍然是一个现实问题。 3. Kubernetes是多个部分组成的平台 人们将Kubernetes当作一个平台,但实际上它由6个以上的不同组件组成。这意味着当安装或更新Kubernetes时,必须分别处理每个组件。而且大多数Kubernetes发行版都缺乏执行这些操作的自动化解决方案。 当然,Kubernetes是一个复杂的平台,它需要多个部分组合才能工作。但是与其他复杂平台相比,Kubernetes在将其各个部分集成到一个易于管理的整体方面做得特别糟糕。典型Linux发行版也包含许多不同的软件。但是用户能够以集中、简化的方式安装和管理它们。Kubernetes架构并非如此。 4. Kubernetes不会自动地保证高可用性 使用Kubernetes的最常被提及的原因之一是,它以一种神奇的方式管理应用程序,保证它们永远不会失败,即使部分基础设施出现故障。 确实,Kubernetes架构可以做出明智的自动决策,以决定将工作负载放置在集群中的位置。但是,Kubernetes并不是实现高可用性的灵丹妙药。例如,它将在只有一个主节点的生产环境中运行,这是关闭整个集群的方法(如果主要服务器出现故障,则整个集群将基本上停止运行)。 Kubernetes也不能自动保证在集群中运行的不同工作负载之间正确分配资源。要进行设置,用户需要人工设置资源配额。 5.很难人工控制Kubernetes 尽管Kubernetes需要大量的人工干预才能提供高可用性,但是如果确实要这样做,它会使人工控制变得相当困难。 可以肯定的是,有一些方法可以修改Kubernetes执行的探测时间,以确定容器是否正常运行,或者强制工作负载在集群中的特定服务器上运行。但是,Kubernetes架构的设计并不期望管理员会进行这些人工更改。 如上所述,Kubernetes首先是针对Web规模的部署,这是有道理的。如果用户有数千台服务器和数百个工作负载,将不会人工配置许多东西。但是如果是一家规模较小的公司,并且想要更好地控制集群中工作负载的结构方式,那么采用Kubernetes很难做到这一点。 6. Kubernetes监视和性能优化面临挑战 Kubernetes试图在保持工作负载正常运行方面做得很好(尽管如上所述,其能力取决于诸如用户设置的管理者数量以及如何组织资源分配等因素)。 但是Kubernetes架构并不能帮助用户监视工作负载或确保它们表现最佳。它不会在出现问题时向用户发出警报,而且从集群中收集监视数据也不太容易。Kubernetes发行版随附的大多数监视仪表板也无法提供对环境的深入可见性。采用第三方工具可以使用户获得可见性,但是如果要运行Kubernetes,则必须设置、学习和管理这些工具。 同样,Kubernetes也不擅长帮助用户优化成本。它不会通知用户集群中的服务器是否仅以20%的容量使用,这可能意味着用户在过度配置的基础设施方面浪费了资金。同样,第三方工具可以帮助用户应对诸如此类的挑战,但它们会增加复杂性。 7. Kubernetes将所有内容简化为代码 在Kubernetes中,完成几乎所有任务都需要用户编写代码。通常情况下,其代码采用YAML文件的形式,然后必须在Kubernetes命令行上应用它们。 许多人会把Kubernetes架构的所有代码要求作为功能而不是错误。然而,虽然使用单一方法和工具(即YAML文件)可以管理整个平台,但确实希望Kubernetes能为需要它们的人提供其他选择。 有时候,用户不想编写一个很长的YAML文件(或从GitHub中提取一个文件,然后人工调整其中的随机部分以适合其环境)来部署简单的工作负载。用户希望按下一个按钮或运行一个简单的命令(这指的是不需要十几个参数的kubectl命令,其中许多参数都配置有必须复制和粘贴的数据串)。需要在Kubernetes中做一些简单的事情。但是这种情况很少发生。 8. Kubernetes希望控制一切 Kubernetes的最后一个问题是,它的设计并不能很好地与其他类型的系统配合。它希望成为用户用来部署和管理应用程序的唯一平台。 如果用户的所有工作负载都是容器化的,并且可以由Kubernetes进行协调,这是一个很好的结果。但是,如果用户拥有无法作为容器运行的原有应用程序怎么办?或者,如果想在Kubernetes集群上运行一部分工作负载,而又有一部分在外部运行呢?Kubernetes不提供执行这些操作的原生功能。其设计的前提是希望一直在容器中运行所有内容。 结论 Kubernetes其实是编排大型容器化应用程序的强大工具。 Kubernetes有很多适合的用例。 但是Kubernetes架构也有一些缺点。总体而言,如果用户要管理原有的工作负载或部署规模不足以证明Kubernetes带来的所有复杂性,那么就不是一个很好的解决方案。为了证明它的全部价值,Kubernetes应该解决这些问题,以便它可以完全匹配其在IT生态系统某些领域中享有的声誉。

    时间:2020-09-11 关键词: 云计算 kubernetes 技术

  • 人工智能市场收入今年将达到1560亿美元

    一项研究称,人工智能(AI)解决方案目前是一个快速增长的市场,预计到2020年将达到1560亿美元。 人工智能解决方案的全球收入包括服务、软件和硬件。人工智能市场今年预计将达到1,565亿美元,比上年增长12.3%。这些发现是根据国际数据公司(IDC)的最新研究得出的。 在2020年,软件收入的大部分(1204亿美元)来自人工智能应用程序和人工智能软件平台。这一增幅仍低于2019年—;—;这是由于大流行带来的持续经济下滑。然而,IDC的“全球半年度人工智能跟踪”显示,各行业对人工智能的投资将迅速恢复。 在数字时代,软件是主要的AI技术,占AI总收入的近80%。此外,到2024年,全球AI市场收入可能会超过3000亿美元。这是五年复合增长率17.1%。 根据研究,以AI为动力的客户关系管理(CRM)解决方案在AI应用市场中的需求最大,为20%。企业关系管理(ERM)应用程序排名第二,占总市场份额的17%。 除了上述部分,流行的解决方案还包括用于内容工作流和管理应用程序、协作应用程序和生产应用程序的AI。在供应商份额方面,Adobe在AI驱动的CRM应用程序中排名最高,而Microsoft对AI非中心CRM应用程序的需求最大。在剩余的AI应用市场中,IBM在以AI为中心的类别中排名第一,而Microsoft在以AI非中心的类型中排名最高。 IDC称,服务是第二大AI类别,到2020年很有可能达到184亿美元。这同比增长了13%。在AI服务市场中,基于AI的IT服务约占收入的80%,其余部分由AI商业服务构成。从本质上讲,IBM、埃森哲、德勤、Infosys和Cognizant具有最大的市场份额。 此外,包括服务器和存储收入在内的AI硬件预计将很快达到134亿美元,同比增长10.3%。就厂商份额而言,人工智能服务器的最大竞争对手是戴尔、惠普和浪潮。就AI存储市场而言,戴尔、NetApp和HP是顶级公司。 IDC人工智能研究项目副总裁RituJyoti在其博客文章中提到:“人工智能应用程序继续处于数字转型(DX)计划的前沿,推动企业运营的创新和改进。”

    时间:2020-09-08 关键词: 人工智能 AI 技术

  • 下一代混合云对托管数据中心意味着什么

    与以前的版本不同,新的混合云框架更易于部署,并且消除了“云计算vs托管数据中心”的二分法。 自2000年代中期云计算时代到来以来,托管数据中心行业普遍认为自己可以替代公共云。“云计算vs托管数据中心”是大多数人已经习惯的二分法。 在过去的二十年中的大多数时间里,这种想法都是有道理的,当时公共云提供商和托管数据中心确实处于激烈的竞争之中。但是,在过去的几年中,情况发生了变化。比较大的公共云提供商已推出了新一代的混合云解决方案,这些解决方案使客户可以轻松访问公共云服务,同时将其工作负载存储在自己的数据中心或托管数据中心中。 以下是这些混合云服务的含义以及它们对托管数据中心未来的意义。 云计算vs托管数据中心:传统选择 很容易理解,为什么传统上将公共云和主机托管被描述为非此即彼的主张。 如果选择在公共云中运行工作负载,则可以访问几乎可以立即启动的一系列不同服务。但是,企业丢失的是托管数据中心中托管工作负载所带来的隐私和控制权,在该数据中心中,客户具有更大的能力来选择他们使用的硬件,如何配置硬件以及如何将其与其他组织的资源隔离。 另一方面,托管服务提供商无法提供公共云提供商的灵活性或广泛的服务。他们只专注于基础设施。 在2010年代的大部分时间里,对于许多逐渐迁移到公共云的企业来说,公共云似乎被证明是更有吸引力的选择。尽管他们并不总是在那儿,有些企业遣返托管数据中心服务。但是,很难说托管服务行业在过去十年中与公共云计算一样拥有强劲的发展势头。如果没有别的,收入数据表明公共云的增长速度快于托管数据中心。 现代混合云满足托管据中心需求 具有讽刺意味的是,近年来,公共云供应商为扩大自己的市场份额所做的努力甚至改变了形势。今天,由于公共云公司本身已经引入了新的混合云框架,利用公共云服务同时将工作负载保持在托管中心内已经变得非常可行。 这些框架中的主要是: Azure Stack,使客户可以在自己的硬件上从Microsof tAzure云平台部署服务。Azure Arc是一项仍在开发中的较新服务,它将以更加灵活的方式执行相同的操作。 AWS Outposts,一个用于在私有硬件上运行来自AWS云平台的服务的框架。 Anthos来自谷歌公司的基于Kubernetes的平台,可以为跨多个云平台或数据中心部署的应用程序构建一致的部署和管理层。 这些混合云产品中的每一个都有其局限性,尤其是在用于将公共云服务扩展到托管设备中时。Azure Stack仅与认证的硬件一起使用,托管服务提供商可能不提供(因此,不受此限制的Azure Arc可能在托管中心更有用)。AWS Outposts的限制更大;尽管亚马逊表示它与托管方案兼容,但它要求客户使用AWS自己的硬件。Google Anthos可以与任何硬件一起使用,但是它的主要警告是,它可能难以部署和管理,尤其是对于那些没有广泛内部Kubernetes专业知识的组织。 尽管如此,这些混合解决方案仍为弥合传统上将公共云与托管数据中心分隔开的鸿沟带来了巨大的新机遇。只要托管服务提供商满足任何适用的硬件要求,并且企业愿意在必要时自行管理软件方面的事情(或为此聘请第三方服务提供商),这些框架将使部署公共云变得非常容易位于托管中心的服务器上的服务(例如AWS S3存储或Azure虚拟机)。 同时,这些混合云解决方案提供对广泛的公共云服务的访问。它们不仅支持简单的IaaS计算和存储服务,还支持无服务器功能、数据库,甚至支持内置在公共云中的类似PaaS的软件交付平台。通常,它们的成本与企业直接在公共云中访问相同服务所需的费用相同或更少。这意味着,即使将托管定价考虑在内,总托管成本对于托管中心内的混合云框架的用户而言也可能比仅使用公共云或托管解决方案的总拥有成本低。 这一切都是大问题,尤其是因为公共云供应商提供的早期混合云解决方案没有提供这种兼容性或广泛功能。Windows Azure Pack(于2013年首次推出)等框架(AzureStack的主要前身)仅支持少量的公共云服务,但从未获得大量关注。 同时,数据中心托管提供商自己提供的用于与数据中心内的公共云服务进行交互的解决方案,例如Equinix公司的Microsoft Azure入门工具包(于2014年推出),成本增加,部署麻烦,并且仅针对一部分子集而设计。混合云使用案例。 结论 像Azure Stack和AWS Outposts这样的混合云平台的引入最终对托管行业意味着什么,还有待观察。这些解决方案只有几年的历史了,目前尚不清楚它们在托管客户中的采用率。 显而易见的是,到2020年,以相反的方式考虑公共云和托管数据中心不再有意义。新一代的混合云框架已在公共云和托管之间引入了一定程度的集成,这在几年前很难想象到。

    时间:2020-09-07 关键词: 数据中心 混合云 技术

  • 如何创建数据架构以推动创新

    如何创建数据架构以推动创新

    昔日的数据架构已经无法满足当今对速度、灵活性和创新的需求。成功升级的关键(也是巨大的潜在回报)是敏捷性。 在过去的几年中,组织不得不迅速在原有基础设施的基础上部署各种新的数据技术,从而推动由市场驱动的各种创新,例如定制化的报价、实时警报和预测性维护。 但是,数据湖、客户分析平台、流处理等技术的加入极大地增加了数据架构的复杂性,这些技术往往严重妨碍了组织提供新功能,维护现有基础设施以及持续确保人工智能模型的完整性。 当前的市场动态不容放缓。亚马逊和谷歌等先进的公司一直在利用人工智能技术创新来颠覆传统的商业模式,而这就要求落后者重新构想自身业务的各个方面以跟上发展的步伐。云提供商已经推出了最前沿的产品(例如可以立即部署的无服务器数据平台),这些产品使采用者享有更快的上市时间并且具备更高的敏捷性。Analytics(分析)用户要求使用更多兼容性强的工具(如自动模型部署平台),以便他们可以更快地使用新模型。许多组织已经采用了应用程序编程接口(API),使来自不同系统的数据能够接触到数据湖并迅速将洞察直接集成到前端的应用程序中。如今,随着各大公司纷纷开始研究由冠状病毒(COVID-19)大流行所引起的前所未有的人道主义危机并为下一次正常运转做准备,它们对灵活性和速度的需求只会增加而不会减少。 对于要加强竞争优势(甚至是保持同等优势)的公司,它们必须以一种新的方法来定义、实施和集成数据栈,同时利用云(除了基础架构即服务)以及各种新的概念和组件。 打造颠覆性数据架构的六个转变 我们发现,各大公司正在对其数据体系结构蓝图做出六项根本性的转变,这些转变可以更快地交付新功能并大大简化现有的体系结构方法。这些转变几乎涉及所有的数据活动,包括采集、处理、存储、分析和公开。尽管组织可以在实施一些转变的同时使其核心技术栈不受任何影响,但许多组织仍需要对现有数据平台和基础设施进行仔细的架构调整,包括以前使用的各种遗留技术和比较新的技术。 这样的工作并非微不足道。为创建基本用例(例如自动报告)的功能而进行的投资往往高达数千万美元,而用于部署优秀功能的体系结构组件(例如为了与最具创新力的颠覆者竞争的各种实时服务)的投资则可能高达数亿美元。因此,对于组织而言,制定清晰的战略计划至关重要,数据和技术领导者必须做出大胆的选择,以优先考虑那些将直接影响业务目标的转变,并投资于复杂度适中的体系结构。因此,各大公司之间的数据架构蓝图往往看起来截然不同。 如果投资得当,投资回报将非常丰厚(有一家美国银行每年可赚取5亿多美元,一家石油和天然气公司则实现了12%至15%的利润率增长)。我们发现,这类收益来自方方面面:节省IT成本、提高生产率、降低法规和运营风险以及提供全新的功能,新服务乃至整个业务。 那么,组织需要考虑哪些关键变革? 1. 从本地数据平台到基于云的数据平台 云可能是一种全新的数据架构方法的很具颠覆性的推动力,因为它为公司提供了一种快速扩展人工智能工具和功能以获取竞争优势的方法。亚马逊(Amazon Web Services)、谷歌(Google Cloud Platform)和微软(Microsoft Azure)等主要云提供商已经彻底改变了各大组织大规模采购,部署和运行数据基础设施、平台和应用程序的方式。 例如,有一家公用事业服务公司将基于云的数据平台与容器技术相结合,该技术用微服务(例如搜索账单数据或向帐户添加各种新属性)将应用程序功能模块化。这使公司能够在几天(而不是几个月)的时间内向大约100000个业务客户部署新的自助式服务功能,为最终用户提供大量的实时库存和交易数据以进行分析并通过在云中(而不是在更昂贵的本地旧系统上)“缓冲”交易来降低成本。 管用的概念和组件 无服务器数据平台(如Amazon S3和Google BigQuery)使组织可以无限地创建和运行以数据为主的各种应用程序,而无需安装和配置解决方案或管理工作负载。此类产品可以降低专业门槛,将部署时间从数周缩短至几分钟,而且几乎没有产生任何运营开销。 由于使用了Kubernetes的容器化数据解决方案(可通过云提供商以及开放源代码获得,并且可以快速集成和部署),公司能够脱离其他计算能力和数据存储系统的部署并将这项工作自动化。此功能可以确保设置高度复杂的数据平台(例如,将数据从一个应用程序会话保留到另一个应用程序会话所需的数据平台,以及具有复杂备份和恢复要求的数据平台)可以扩展以满足需求,因此它特别有用。 2. 从批处理到实时数据处理 实时数据通信和流媒体功能的成本已大大降低,这为其主流使用铺平了道路。这些技术实现了一系列新的业务应用:例如,运输公司可以在出租车到达时向客户提供精确到秒的抵达时间预测;保险公司可以分析来自智能设备的实时行为数据,从而将费率客制化;而且制造商可以根据实时的传感器数据来预测基础设施方面的各种问题。 订阅机制等实时流媒体功能使数据消费者(包括数据集市和数据驱动的员工)可以订阅各种“主题”,以便他们可以获取所需交易的持续更新。通用数据湖通常充当此类服务的“大脑”,它保留了所有细粒度的事务。 管用的概念和组件 Apache Kafka之类的消息通信平台提供了完全可扩展,持久且具备容错能力的发布/订阅服务,该服务每秒可以处理和存储数百万条消息,以供立即使用或以后使用。与传统的企业通信队列相比,这可以支持实时用例,绕过现有的基于批处理的解决方案并且占用的空间更少(占用的成本基础也更少)。 流处理和分析解决方案(例如Apache Kafka流、Apache Flume、Apache Storm和Apache Spark流)实现了实时对消息进行直接的分析。该分析可以基于规则,也可以包括高级分析,从而在数据中提取事件或信号。分析往往会整合众多历史数据以比较各种模式,这在推荐和预测引擎中尤其重要。 Graphite或Splunk之类的警报平台可以向用户触发各种业务操作,例如,如果销售代表没有达到每天的销售目标,那么他们就会得到通知,或者将这些操作集成到可能运行于ERP或CRM的现有流程中。 3. 从预集成的商业解决方案到模块化的同类最佳平台 为了扩展应用程序的规模,公司往往需要冲破大型解决方案供应商所提供的遗留数据生态系统的限制。现在,许多公司正朝着高度模块化的数据架构发展,这种架构使用了最佳的,经常使用的开源组件,这些组件可以根据需要被新技术替换而不会影响数据架构的其他部分。 前面提到的那家公用事业服务公司正在向这种方法过渡,从而快速向数百万客户提供新的,以数据为主的各种数字化服务并大规模地接入基于云的各种应用程序。例如,该公司每天都会准确地显示客户的能源消耗和比较了同侪消费的实时的分析洞察。该公司建立了一个独立的数据层,该数据层包含各种商业数据库和开源组件。数据通过专有的企业服务总线与后端系统同步,而托管在容器中的各个微服务在数据中运行业务逻辑。 管用的概念和组件 数据管道和基于API的接口简化了不同工具和平台之间的集成,其方法是使数据团队免受不同层的复杂性的困扰,缩短产品上市时间并减少在现有应用程序中引起新问题的机会。当需求发生变化是,这些接口还使单个组件更容易更换。 Amazon Sagemaker和Kubeflow等分析工作台可简化高度模块化架构中的端到端解决方案的创建。这样的工具可以与各种各样的基础数据库和服务连接并使高度模块化的设计成为现实。 4. 从点对点到脱离数据访问 人们可以通过API来揭露数据,这样可以确保直接查看和修改数据的做法是受限且安全的,同时还可以让人们更快地访问常见的数据集。这使得数据可以在团队之间轻松得到重用(reused),从而加速访问并实现分析团队之间的无缝协作,从而可以更高效地开发各种人工智能用例。 例如,有一家制药公司正在通过API为所有员工创建内部“数据市场”,以简化和标准化对核心数据资产的使用,而不是依赖各种专有接口。该公司将在18个月内逐步将其最有价值的现有数据馈送(data feed)迁移到基于API的结构中,同时部署API管理平台以向用户展示各种API。 管用的概念和组件 企业必须创建一个API管理平台(通常称为API网关)以创建和发布以数据为主的API,实施使用策略,控制访问并衡量使用情况和性能。该平台还可以让开发人员和用户搜索现有数据接口并重用这些接口,而不是创建新的数据接口。API网关通常作为数据中心内的单独区域而被嵌入,但它也可以作为中心外的独立功能开发。 企业往往需要一个数据平台来“缓冲”核心系统之外的各种事务。这样的缓冲区可以由数据湖之类的中央数据平台或在分布式数据网格中提供,这个分布式数据网格是一个生态系统,它由为每个业务域的预期数据的使用情况和负载创建的最佳平台(包括数据湖、数据仓库等)组成。例如,有一家银行创建了一个纵列数据库(columnar database),以便直接向线上银行和移动银行应用程序提供客户信息(例如最近的金融交易)并减少大型机上昂贵的工作量。 5. 从企业仓库到基于域的架构 许多负责数据架构的领导者已经从中央企业数据湖转向“域驱动”的设计,这些设计可以定制并“合乎某个目的”,从而缩短新的数据产品和服务的上市时间。由于用了这种方法,虽然数据集可能仍驻留在相同的物理平台上,但每个业务领域(例如,市场营销,销售,制造等)中的“产品负责人”的任务就是以易于使用的方式来组织数据集,使其既适用于域内的用户,也适用于其他业务域中的下游数据使用者。这种方法需要谨慎地权衡,以免变得支离破碎和效率低下,但是它可以减少在数据湖中创建新数据模型所需的时间(通常从数月缩短至数天),在反映联合业务结构或遵守数据移动性的法规限制时,它可以是一种更简单有效的选择。 有一家欧洲电信提供商使用了分布式的基于域的架构,因此销售和运营人员可以将客户、订单和账单等数据提供给数据科学家用于人工智能模型或直接通过数字渠道提供给客户。该公司部署了由公司销售和运营团队中的产品负责人管理的各种逻辑平台,而不是创建一个中心化的数据平台。该公司还激励产品负责人使用数据进行分析并使用数字渠道、论坛和黑客马拉松来推动采用。 管用的概念和组件 作为平台的数据基础设施提供了用于存储和管理的一系列通用工具和功能,以加快实施速度并使数据生产者不必创建自己的数据资产平台。 数据虚拟化技术始于客户数据之类的小众领域,这些技术如今已为各大企业所采用,以此来管理人们对分布式数据资产的使用并将分布式数据资产整合进来。 即便企业没有获得完全访问权或没有做好充分准备,数据编目工具也能让企业搜索和研究数据。该目录通常还提供元数据定义和端到端接口,以简化对数据资产的访问。 6. 从严格的数据模型到灵活的,可扩展的数据模式 来自软件供应商的预定义数据模型和满足特定业务智能需求的专有数据模型往往都创建于高度标准化的架构(schema)中,这些架构具有固定的数据库表和数据元素,从而很大程度地减少冗余。尽管此方法仍然是数据报送和以法规为中心的用例的标准,但它也要求组织在合并新的数据元素或数据源时经历漫长的开发周期并具备丰富的系统知识,因为任何更改都可能影响数据的完整性。 为了在研究数据或支持高级分析时获得更大的灵活性和强大的竞争优势,公司正朝着“架构简化(schema-light)”的方法发展,它们使用物理表较少的非规范化数据模型来组织数据以实现优质性能。这种方法好处颇多—;—;灵活的数据探索,更灵活地存储结构化和非结构化数据以及降低复杂性,因为数据领导者不再需要引入其它抽象层(例如高度规范化的表之间的多个“联接”)来查询关系数据。 管用的概念和组件 数据点建模技术(例如Data vault 2.0)可以确保数据模型可扩展,以便将来可以在有限的中断范围内添加或删除数据元素。 图形数据库是NoSQL数据库的一种,这种数据库近年来颇受关注。一般来说,NoSQL数据库非常适合需要大量可伸缩性和实时功能的数字应用程序以及服务于人工智能应用程序的数据层,这是因为它们可以利用非结构化数据。尤其是图形数据库,提供了以强大而灵活的方式对数据之间的关系进行建模的功能,许多公司正在使用图形数据库来创建主数据库,以适应不断变化的信息模型。 Azure Synapse Analytics之类的技术服务使人们可以访问类似于关系数据库的基于文件的数据,其方法是将各种表结构动态地应用到各种文件。用户得以灵活地在访问存储于文件中的数据时继续使用各种通用接口(例如SQL)。 使用JavaScript对象表示法(JSON)来存储信息,这使组织可以更改数据库结构而不必更改业务信息模型。 如何开始 数据技术正在迅速发展,这使定义三到五年的目标架构的状态并朝着这个方向努力的传统工作既充满风险又效率低下。只要制定各种使数据领导者和技术领导者快速评估和部署各种新技术的实践,以便他们快速适应,那么他们就能得到更好的服务。下面来看看四种重要的做法: 将测试中学习的思维方式应用于架构创建并尝试使用各种不同的组件和概念。这种敏捷实践已经在应用程序开发中应用了很长时间并且最近在数据领域得到沿用。例如,领导者可以从较小的预算开始,创建最小可行产品或者将现有的开源工具整合起来创建一个临时产品并将其投入生产(使用云来加速这个过程),以便它们可以在得到扩展和进一步发展之前展示其价值;相反,领导者不应该为了找到“完美”的选择而参与有关最佳设计,产品和供应商的漫长讨论,然后再进行冗长的预算批准。 建立数据“部落”,由数据管理人员,数据工程师和数据建模人员组成的团队负责创建端到端的数据体系结构。这些部落还致力于创建标准的,可重复的数据工程流程和特征工程流程,从而为开发高度可建模的数据集提供支持。这些敏捷的数据实践有助于加快各种新数据服务的上市时间。 投资数据运维(DataOps,即用于数据的强化了的DevOps)有助于加快新组件在数据体系结构中的设计,开发和部署,以便团队可以根据反馈快速实施和频繁更新各种解决方案。 创建这样一种数据文化,在这种文化氛围里,员工希望在其职务范围内应用各种新的数据服务。实现这一目标的一个重要工具是确保数据战略与业务目标相关联并在高管向组织发出的信息中得到反映,这有助于强调这项工作对业务团队的重要性。 随着数据、分析和人工智能在大多数组织的日常运营中得到越来越深入的应用,为了创建和发展以数据为中心的企业而对数据架构采取截然不同的方法是十分必要的,这是显而易见的。那些采用这种新方法的数据和技术领导者可以更好地定位自己的公司,即具备敏捷性,弹性并且在未来具有竞争力。

    时间:2020-09-07 关键词: 大数据 数据架构 技术

  • 中国大数据市场规模将在2020年达到104.2亿美元

    中国大数据市场规模将在2020年达到104.2亿美元

    根据最新发布的《IDC全球大数据支出指南》(Worldwide Big Data and Analytics Spending Guide, 2020V2)中IDC预测,2020年,全球大数据相关硬件、软件、服务市场的整体收益将达到1,878.4亿美元,较2019年同比增长3.1%。IDC认为,在2020-2024年预测期间内,全球大数据技术与服务相关收益将实现9.6%的CAGR(年均复合增长率),预计2024年将达到2,877.7亿美元。 根据IDC最新预测,2020年中国大数据相关市场的总体收益将达到104.2亿美元,较2019年同比增长16.0%,增幅领跑全球大数据市场。2020年,大数据硬件在中国整体大数据相关收益中将继续占主导地位,占比高达41.0%;大数据软件和大数据服务收入比例分别为25.4%和33.6%。而到2024年,随着技术的成熟与融合以及数据应用和更多场景的落地,软件收入占比将逐渐增加,服务相关收益占比保持平稳的趋势,而硬件收入在整体的占比则逐渐减少。硬件、服务、软件三者的比例将更为相似,逐渐趋近于各占三分之一的权重。IDC预计,在2020-2024年的预测期间内,中国大数据相关技术与服务市场将实现19.0%的CAGR(年均复合增长率)。 大数据细分市场 从子市场来看,2020年中国大数据市场最大的构成部分仍然来自于传统硬件部分—;—;服务器和存储,占比超过40%,其次为IT服务和商业服务,两者共占33.6%的比例,剩余由25.4%的大数据软件所构成。从软件角度来看,2020年中国最大的三个细分子市场依次为终端用户查询汇报分析工具(End-User Query, Reporting, and Analysis Tools)、人工智能软件平台(AI Software Platforms)以及关系型数据仓库(Relational Data Warehouses),并且IDC预计,三者总和占中国整体大数据软件市场的比例接近50%。 大数据行业应用 从行业上来看,2020年中国大数据技术与服务市场中收益前三的行业依次是金融(包括银行、保险、证券与投资)、政府(包括中央政府与地方政府)以及通信,三者总和占中国总体的50%以上。在金融行业中,大数据分析技术赋能于金融反欺诈、风控、信贷业务等业务。在政府行业中,智慧城市、公共安全、交通、气象等各部门对大数据应用较多。在电信行业中,三大运营商拥有庞大的个人位置数据,精准营销、信用评估等是大数据技术主要的应用方向。 大数据企业规模 从企业规模的视角来看,在2020-2024年的预测期间内,中国大数据技术与服务相关企业中,雇员超过1,000人的特大型企业数量最多,占中国大数据市场整体的52%。其次,雇员数量在100-499人的中型企业略多于500-999人的大型企业,两者在整体市场中占比相当,在16%-18%范围内。未来,在大数据领域投入的厂商中,特大型企业将持续超过半数。 IDC中国新兴科技研究组分析师姚雨墨认为,在新冠肺炎疫情的影响下,部分大数据技术与服务相关的项目进入冻结状态,预计2020年整个中国大数据市场将暂时放缓增长。但由于企业对于部署大数据基础架构及建设数据仓库的需求旺盛,并且在疫情的推动下加速了企业内部数字化转型的进程,预计2021年后整体市场将继续向好。

    时间:2020-09-04 关键词: 大数据 it 技术

  • 新里程碑!IBM宣布最高量子体积64,把霍尼韦尔从世界最强宝座拉下来

    新里程碑!IBM宣布最高量子体积64,把霍尼韦尔从世界最强宝座拉下来

    刚刚,IBM宣布达到了量子计算新的里程碑,目前最高的64量子体积。与去年相比,其量子计算机的性能又提高了一倍。 就在几个月前,霍尼韦尔宣称已经研发出世界最强大的量子计算机。 此次,IBM宣布的最新进展直接对飚霍尼韦尔,量子计算领域的竞争逐渐白热化。 霍尼韦尔放狠话,IBM不Care,量子计算谁最强 早在今年3月,霍尼韦尔就「放狠话」:在接下来的三个月,我们将推出世界上性能最高的量子计算机。 可能谷歌、IBM和英特尔也没想到,6月18日会杀出这样一个劲敌。 霍尼韦尔宣布:「我们建造了目前世界上性能最好的量子计算机」。 其最新量子计算机的量子体积得分达到64,是IBM和谷歌竞争对手的两倍。2019年,IBM的量子体积达到了32。 霍尼韦尔这个「最好」可不是自夸的,这是基于IBM的量子计算机衡量基准而得到的结果。 「量子体积」这一概念最先由IBM提出,量子体积是用于度量量子计算机性能的指标,而不是仅仅以量子比特(Quantum Bit)数量作为度量标准,这一指标的提出旨在摆脱该行业原有相对过时的评估方法。 量子体积的影响因素包括量子比特数、门和测量误差、设备交叉通信、以及设备连接和电路编译效率等。量子体积越大,量子计算机就越强大,对时间和空间复杂性的处理能力越好。 量子体积能更全面地度量量子计算机的能力,包括度量可解决问题的复杂程度等。 要更好地理解IBM和霍尼韦尔的量子计算孰优孰劣,首先要知道,他们采用的是两种完全不同的技术路线。 三英战吕布 : 超导量子计算VS离子阱 目前量子计算主要分为固态器件和光学路线两大类路线,谷歌、IBM、英特尔这三家公司属于「固态器件路线派」,霍尼韦尔的离子阱走的技术路线则属于的是「光学器件派」。 光学路线的离子阱在相干时间上就有优势,但是其可操控性上很弱,而且与经典计算很难实现兼容。 目前世界上80%以上的量子计算机都采用了固态器件的路线,在与经典计算兼容等方面固态器件都具有明显优势,离子阱等光学路线更多是在科研上用的比较多。 目前量子计算的主要技术路线(数据来源:华为、赛迪) 超导量子计算是目前进展最快最好的一种固态量子计算实现方法。 超导量子电路的能级可以通过外加电磁场进行干预 ,电路更容易实现定制化开发,而且现在的集成电路工艺已经十分成熟,超导量子电路的可扩展性优势明显。 图片来源:腾讯量子实验室 但是也有些问题存在,由于量子体系的不可封闭性,环境噪声、磁通偏置噪声等大量不受控的因素存在,经常会导致量子耗散和相干弱化。此外,超导量子系统工作对物理环境要求极为苛刻,比如,超低温是超导量子计算实现过程中不可避免的问题。 谷歌Bristlecone量子芯片 除了IBM,谷歌和英特尔等企业也在积极开展超导量子研究。谷歌量子人工智能实验室发布的Bristlecone量子芯片,可实现 72 个量子比特长度上的单比特门操纵,单量子比特门最佳保真度达到了99.9%。 此前,曾有专家表示,霍尼韦尔声称拥有世界上最快量子计算机有炒作嫌疑,因为没有解决世界上任何问题,只是参数上的进步。 霍尼韦尔的离子阱是利用电荷与电磁场间的交互作用力牵制带电粒子的运动,将受限离子的基态和激发态两个能级作为量子比特。 量子态被存储在单个离子阱中,并从其中读取信息。量子比特可以通过它们在阱中的运动直接相互作用,也可以通过光和微波的发射和吸收相互作用。 尽管离子阱技术本身的发展可以追溯到 1980 年,但是利用离子阱技术实现量子计算由奥地利的量子科学家 Circa 和 Zoller 于 1995 年首次提出。 2003年,该实验室实现利用失谐激光束照射和激光冷却控制非门,同年该实验室第一次成功地利用离子阱技术实现了 Deutsch-Jozsa 算法。 奥地利因斯布鲁克的离子阱量子计算机 离子阱量子计算具有量子比特品质高,相干时间长、量子比特制备和读写效率高的优点。 然而,离子阱技术也面临不少问题,由于外加激光不稳定,电磁场噪声导致量子比特相干性弱化,而且离子阱难以多条离子链共存,可扩展性差。 霍尼韦尔之所以能在离子阱量子计算方面实现飞跃,部分原因是其在2015年突破了一项目关键技术,能够使用激光捕获处于叠加状态的带电粒子。 自2017年以来,IBM的量子体积每年都翻一番。在2019年,IBM表示,其名为Raleigh的量子计算机的量子体积达到32,而一年前只有16。 有分析指,霍尼韦尔的离子阱更学院派,IBM的方案更有实用价值。 量子计算:超低温也能加热人工智能 尽管量子计算仍处于早期阶段,但已经有了许多创新和突破。那它在人工智能领域将发挥着什么样的作用呢? 数据增强变的简单易行 现在的生成模型是不仅限于回答问题,还能够输出图像、音乐、视频等等。 假设你有很多人脸照,但其中很多不是正面照,生成模型可以帮你从中创建更精确的「正脸」。 将量子处理单元插入经典框架可能会大幅度提高生成图像的质量。 这如何帮助我们提升经典机器学习模型?如果你尝试使用少量的人脸数据集训练经典的人脸检测模型,但性能并不是很好,可以使用量子增强的生成模型来增强数据集,从而显着改善模型性能。 自然语言处理更懂「人话」 自然语言处理(NLP)算法将在量子计算上取得「意义感知」的突破。 「意义感知」是指计算机实际上可以理解整个句子,不仅仅是单词,并且可以将其感知能力扩展到整个短语,甚至整篇文章。而BERT等语言模型的进一步提升,有赖于量子计算的强大算力。 随着量子计算机发展,自然语言处理的应用将更加广泛。 执行效率更高,新的算法设计成为可能 AI和ML是基于过去的经验学习解决方案的好方法。 比如,告诉计算机什么是猫可能会有点儿挑战,因为它学不会。如果你用足够多的「猫片」训练神经网络,计算机就能够正确识别出其他的猫。 将这些数据放在量子计算机上运行,就可以大大提升AI和ML算法的执行效率。 对于某些算法,甚至可达到指数级增长。量子计算机不只是执行任务更快,而且它能够执行以前不可能完成的任务。 让金融模型更智能 当前,人工智能在金融领域的应用也越来越广泛。 量子物理学是概率论,金融市场预测某种程度上也是,量子计算机可以无限制地建立候选模型,有潜力更好地预测分布,从而得出更准确的答案。 基本思想就是,一些问题是需要AI生成新的数据才能做出决定。解决此问题可能需要提出一个潜在的模型来解决未知状况下的概率分布问题,而这是量子计算的强项。 量子计算和经典计算是协同而非竞争 就机器学习而言,经典计算和量子计算有着协同工作的潜力,可以利用云计算的弹性,以及量子计算强大的计算能力来协同工作。 经典计算和量子计算两者都有优势,量子计算目前的发展使其成为解决方案的一部分。随着时间的流逝,这两种计算方式都将继续发展。 在传统GPU和ASIC上加速工作负载的能力的同时还利用量子计算的能力,能够让量子计算更快,结果更可靠。 在不久的将来,也许我们能用上量子计算,用它的无限算力来降低这个世界的复杂性。

    时间:2020-09-04 关键词: IBM 量子 技术

  • 人工智能可以阻止基于物联网的DDoS攻击

    人工智能可以阻止基于物联网的DDoS攻击

    研究人员说,人工智能可以帮助互联网服务提供商(IPS,internet service providers)提前防御DDoS攻击。 新加坡国立大学和以色列内盖夫本古里安大学的研究结果在同行评审的《计算机与安全》杂志上提出了一种新方法。该方法使用机器学习来检测易受攻击的智能家居设备,这些设备对于通过僵尸网络以发起DDoS攻击的黑客来说是一个有吸引力的目标。 机器学习检测器不会侵犯客户的隐私,并且即使没有受到攻击,也可以查明易受攻击的设备。 检测NAT路由器后面的设备 Ben-Gurion博士和研究小组负责人Yair Meidan对媒体表示:“据我所知,电信公司会监控流量,并且只能在DDoS攻击执行后才能检测到,这可能为时已晚。” “相比之下,我们的方法提出了一种手段,可以在潜在的易受攻击的物联网设备受到威胁并用于执行此类攻击之前对其进行检测。 “一旦检测到这些潜在有害的设备,便可以采取减轻风险的措施。” 众所周知,智能监控摄像头、智能灯泡、智能冰箱和智能婴儿监视器等家用物联网设备因安全性差而著称,经常被用于DDoS攻击。 同时,大多数客户不具备保护其智能家居设备或监控其网络中是否存在受感染设备的技术知识和技能。这将检测易受攻击的物联网设备的负担放在了ISP的肩上。 Meidan说,该项目的想法源自一家电信公司,由于与物联网相关的DDoS攻击,该公司的基础设施面临严重风险,尽管他没有透露公司名称。 检测易受攻击的智能家居设备的主要挑战之一是,它们被隐藏在网络地址转换(NAT,network address translation)路由器后面,并在家庭网络外部共享公用IP地址,这使电信公司很难区分它们。 一种解决方法是使用深度数据包检查(DPI,deep packet inspection)。但是DPI在计算上既昂贵又使ISP客户的私人通信面临风险。 而且,由于大多数互联网流量已被加密,因此除非电信公司采取更多侵入隐私的方法,例如在客户的家庭网络内部安装监视设备,否则DPI几乎变得不可能。 Ben-Gurion和新加坡国立大学的研究人员没有使用包检查,而是使用有监督的机器学习,通过对路由器的出站流量进行统计分析来识别NAT设备。 训练和部署机器学习模型 所提出的方法使用CVE和NVD列表作为易受攻击的家庭IoT设备的来源。要创建检测器,电信公司必须建立一个实验室家庭网络,在其中安装各种IoT和非IoT设备。该网络还包括易受攻击的物联网设备的实例。 在从路由器收集的NetFlow数据上训练了机器学习检测器,以检测易受攻击的IoT设备的已知模式。 简而言之,检测器将查看路由器的传出流量,并让您知道其背后是否存在已知类型的易受攻击的IoT设备。 该模型针对正常的网络流量进行了训练,这意味着即使它们没有受到攻击并且没有进行恶意活动,它也可以检测到易受攻击的设备。 图-人工智能可用于帮助防御DDoS攻击 设置实验室和训练机器学习模型将使电信公司花费数千美元。 Meidan指出,但是成本大大低于DDoS攻击的后果。 “这种攻击很可能会导致互联网服务中断,这可能会导致客户流失,并从越来越重要的QoE(体验质量)衡量标准上对电信公司的声誉及其与其他电信公司竞争的能力造成长期损害。 。” Meidan说,为削减成本,电信公司可以“在较小但有效的IoT模型子集上训练其检测器,即发现易受僵尸网络感染并具有最大安装基础的特定IoT模型”, 经过训练的检测器模型可以在Raspberry Pi等低成本计算机上运行,该计算机可以实现分散式部署模型,在该模型中,本地检测器将安装在客户的家庭路由器与光网络终端之间。 识别出易受攻击的设备后,电信公司可以重新路由流量,应用虚拟补丁或通知客户采取适当措施。 Meidan说:“我们计划将评估范围扩大到来自各个制造商的各种物联网模型,并评估该方法对对抗性攻击的适应性。”研究人员正在考虑将他们的工作范围从智能家居设备扩展到其他领域。该方法可能是可行和有益的。

    时间:2020-09-03 关键词: 物联网 人工智能 技术

  • 超过35%的德国中小企业已使用人工智能技术

    超过35%的德国中小企业已使用人工智能技术

    2018年,德国联邦政府公布了《德国人工智能发展战略》,以推动德国在人工智能领域的研发、技术应用及产业政策,力争通过创立“人工智能—;德国制造”的新品牌来保持德国的核心竞争力。德国经济与能源部部长阿特迈尔表示,德国必须重视加快人工智能领域研究向应用领域转化,核心是让广大中小企业真正用上人工智能技术,用好人工智能技术。 但是如何把顶尖技术、研究项目转移给广大的中小企业,是德国目前面对的挑战。德国有 99% 的企业都是中小企业,对于他们来说,人工智能技术的获取与评估正面临极大的挑战,不是每个中小企业都拥有该领域的高素质人才。许多大企业都拥有强大的人工智能解决方案和丰富的经验,德国政府正透过扮演大企业与中小企业之间的桥梁,以及相关人工智能政策、各种创新挑战赛等,对中小企业伸出援手,让他们更加理解 AI 是什么,能带给他们什么效益。 八月初,德国Gemeinsam_Digital发布《德国中小企业人工智能应用调查》。该调查由德国联邦中小企业联合会(BVMW)和柏林中小企业4.0能力中心发起,历时三个半月,共调查企业414家。《德国中小企业人工智能应用调查》旨在阐明不同领域的德国中小企业对于人工智能的态度、需求、障碍、潜力以及经验等,从而为更多德国中小企业的人工智能实施计划提供借鉴。35%的德国中小企业正在使用人工智能 如上图所示,35%的受访者表示已在企业中使用人工智能技术。这其中,有5.8%的企业表示在所有的部门中均使用了该技术。将近三分之一的受访者在单个项目中应用到人工智能。这其中,营销销售、管理和IT领域是这些企业使用人工智能最多的地方。 此外,四分之一的受访者虽然还未使用AI,但已经在计划当中。40%的企业表示暂时没有相关的计划。主要的原因在于缺乏对于人工智能在企业中投入使用的全局视野,不确定的经济效益以及缺乏专业的知识和人才。 中德两国不同的人工智能发展方式,偏民用好还是偏工业好? 在中国,人工智能几乎是人人耳熟能详的名词,它遍布在人们的生活中。无论是刷个新闻、发个短视频、修个图美个颜,还是订个外卖打个车,生活中的方方面面都会涉及到 AI。而这些商业应用背后的互联网公司里,真的有一批在做 AI 的人不断地优化着算法,以打造更好的用户体验。 反观德国的 AI,则是由车企和传统制造业牵头引领的,围绕着升级工业制造而服务。这和德国雄厚的工业积累及疲软的互联网企业是有关系的。德国的车企结合自身的资源配置,会很自然地把 AI 优先落地在工业领域,比如优化生产流水线,提升机床加工效率,降低质量检测中的坏件率等。当然,自动驾驶也是他们的研发重点。 因此,作为一个在德国生活的普通人,很难在每天的生活中直接享受这些技术成果。对于各方面实力相对比较薄弱的中小企业亦如此。如上图所示,有63.11%的受访者认为德国在人工智能方面的应用落后于国际平均水平。只有3.28%的企业认为德国在人工智能领域超越国际平均水平。 所以孰好孰坏?德中人工智能协会主席肖涵在接受对话德国专访时曾提到:这是两种发展 AI 的不同方式。到底是先民用,让大众享受 AI 带来的种种便利;还是先工业,用 AI 对传统制造进行升级换代。其实二者各有好处也各有局限。全民 AI 及其商业模式在短期内会吸引来大量的人才和资本,但对国家和社会的长远发展缺乏实际支撑。工业 AI 正好相反,则是一个厚积薄发的过程。但在人才资本高速流动的今天,这种模式显得有些古板而缺乏弹性,吸引不了年轻人。如何有效地结合二者,取长补短,其实也正是德中人工智能协会的目标之一。 中小企业应用人工智能最大的障碍在哪里? 无论在德国还是中国,人工智能是一个大的方向,是大家必然要走的路。然而对大部分传统企业以及中小型企业而言,目前人工智能还未创造价值,距离真正落地尚远,还有许多障碍需要克服。调查发现,接近70%的受访企业认为缺乏专业的相关知识是他们应用人工智能最大的障碍。此外,欧盟数据保护条例(DSGVO)、数据安全、员工面对人工智能的不安全感是他们实施人工智能需要考虑的因素之一。 结语 伴随人工智能的发展与应用逐步成为世界各国的发展战略,AI技术已经进入了历史性拐点,人工智能正在成为企业发展新的引擎。研究机构Gartner认为,未来10年人工智能将成为最具颠覆性级别的技术。 人工智能如何发展,最终还掌握在人的手里。小编认为,实现安全、可信赖和包容性的人工智能需要前所未有的合作,要以开放的态度对待人工智能的发展,趋利避害,才能让人工智能真正为人类社会所用。

    时间:2020-09-02 关键词: 人工智能 德国 小企业 技术

  • 微软收购TikTok或面临技术难题:特朗普期限太紧

    据知情人士透露,微软从字节跳动剥离TikTok部分业务的计划将在技术上面临一些复杂问题,可能会对特朗普政府的耐心构成考验。 特朗普要求微软在9月15日之前制定一份TikTok收购计划,否则就会禁用TikTok。 之前有报道称,微软希望争取一段过渡期,以便在双方达成协议后有时间将TikTok从技术上与字节跳动分割。 据悉,想要按照特朗普及美国立法者的设想完成“彻底分手”,可能需要一年甚至更长时间。 TikTok在功能和技术上都与字节跳动旗下的抖音非常相似,后者仅面向中国本土推出。此外,二者还与字节跳动旗下的其他资产共享技术资源。 知情人士表示,由于面临美国政府的密切审查,字节跳动几个月前就开始进行技术隔离工作。 知情人士称,虽然决定TikTok外观的应用代码已经与抖音隔离,但服务器代码仍然与字节跳动旗下产品共享。服务器代码提供了数据存储、审核算法、内容推荐、用户资料管理等基础功能。 为了避免TikTok出现服务中断,微软可能还要在评估和设计代码时依靠字节跳动的代码,并且要转移到新的后台基础设施来服务用户。 如果在出售TikTok之后,这项服务仍在技术和运营层面对字节跳动存在任何依赖,都将成为美国外国投资委员会无法接受的事情。 微软面临的另外一个挑战是如何转移TikTok的秘密武器,即内容推荐算法。这个算法支撑了TikTok的“For You”页面,可以通过分析用户行为来推荐下一个视频。 知情人士表示,TikTok使用的算法与抖音相互独立,但比较难处理的是算法使用的内容和用户信息。“如果没有数据,算法就一文不值。”微软前CIO吉姆·杜波依斯(Jim Dubois)说,“为这些国家隔离数据是一项重要任务。” 微软正在通过谈判收购TikTok的美国、加拿大、新西兰和澳大利亚业务。TikTok不仅要与字节跳动分割,还必须与TikTok在其他地区的业务分离。而由于其中涉及众多数据,所以会在技术上面临许多挑战。 “最麻烦的是分割数据,包括内容和用户数据。”杜波依斯说。他还指出,字节跳动和微软之间可能需要转移硬盘数据。 TikTok表示,该公司的用户数据存储在美国,并备份在新加坡,与该公司的其他数据相隔离。 业内律师表示,特朗普制定的最后期限很难完成,在类似的交易中,光是确定商业需求以及知识产权和资产问题通常就需要几个月的时间。

    时间:2020-09-01 关键词: 微软 tiktok 技术

  • 无人机反哺5G发展,助推运维智能新升级

    近年来,伴随着民用无人机的快速发展,以及5G商用的逐渐深化,无人机与5G的关系愈发密切。 人们普遍认为,无人机是5G商用落地的首选之一,因为5G不仅能通过功能升级解锁无人机更多应用场景,而且还能强化无人机的网络安全和管理,加速其市场转型,可谓价值满满。 但其实,除了5G对于无人机的推动外,无人机对5G的作用也不小,比如在5G基站运维上,无人机就能带来精细化、智能化的升级助力。 基站建设虽快但运维成难 如今,经过一年多的发展布局,我国5G网络建设已经取得了不错成果。据此前工信部透露的数据显示,截至今年6月,我国已建设开通5G基站超40万个,平均每周新建开通5G基站超1.5万个。预计到年底,就能在全国主要一线城市完成5G网络的基本覆盖。 如此快的建设速度无疑令人欣喜,但与此同时,运维难题也让人忧虑。因为伴随着5G基站的越建越多,运维压力和成本必然不断升级,再加上5G基站由于频率高损耗大、用户少空载率高、行业应用呈现峰谷趋势,都对其运维提出严峻考验,容不得我们忽视。 据了解,相比已有的4G基站,未来5G基站不管是数量上还是耗电量和价格上,都将在3倍左右。这意味着数量庞大的5G基站需要远比4G更多的投入去运维,同时如果运维稍有不妥,就可能带来比4G时代大得多的损失。这在一定程度上加剧了运维的难度。 而5G时代的运维除了要面临数量和成本上的难题外,精细化管理刺痛着运营商的神经。目前,在基站建设快但用户数量并不多的情况下,5G基站空载率比较高、应用峰谷现象明显,如何保障5G开展应用的同时又尽可能减少不必要的损耗,变得同样非常迫切。 在此背景下,我国虽然采取了多种运维手段缓解上述压力,但效果都不太明显,也时常遭受人们的质疑。例如我国采用人力巡检方式保障基站稳定安全,却呈现出效率低、成本高、不安全等问题。以及采用闲置的方式解决基站空载损耗问题,也被指浪费了资源。 对于此,我国有关部门也是提出,我国5G建设除了要追求快之外,对于基站的精细化、智能化运维管理也迫在眉睫。 未来无人机或成运维尖兵 那么,如何才能实现对5G基站的精细化、智能化管理呢?这时候就要依靠无人机了! 作为现在电力、管道、农林等领域广泛应用的运维利器,无人机在勘察、巡检方面具有显著的优势。一方面其不受地形地貌限制,能够满足5G基站数量多、分布广的巡检需求,另一方面其也能实现对人员的替代,降低巡检安全风险、提高运维工作效率。 与此同时,针对目前5G基站大部分建设在城市之中,巡检起来容易对居民和商业活动造成影响等问题,无人机更是不二之选。通过无人机进行于远距离勘察和巡检工作,不仅能减少扰民、降低协调成本、快速完成工作,而且资料数据收集也更精确详实。 除此以外,在无人机操作简单、灵活性强、适应能力突出的特点加持下,无人机运维还能有效应对大风、雷雨、大学、冰冻等极端天气,以及地震、洪水等灾害环境,并且能够适用于因交通或障碍物阻拦而无法进入的巡检区域,可以说运维的可靠性极佳。 当然,更为重要的是无人机能够发挥出平台功能,集成包括5G自身在内的诸多前沿科技与智能技术,让运维变得更加准确化、精细化和智能化。在众多技术加持下,无人机不单单能胜任前段数据收集工作,甚至能参与到后方分析、决策与处理环节之中。 目前,我国民用无人机市场规模已经来到200多亿元,行业企业和产品分别达到7000余家与40万架,其中巡检无人机做出了显著贡献。可以预见,伴随着5G基站建设的不断加快,基站运维需求进一步提升,未来无人机在5G领域的应用的将迎来爆发。

    时间:2020-09-01 关键词: 无人机 5G 技术

  • 人工智能对生产力和薪酬的影响

    人工智能对生产力和薪酬的影响

    人工智能提供了通过自动化日常任务来提高生产率的机会。本文概述了人工智能可能很快获得应用的一些领域。 本周,我遇到了一个有趣的产品,它可以大大加快那些需要做大量重复性工作的作者的写作速度。它叫做ActiveWords,现在已经是第四代了。它的工作原理是允许你把常用元素和你创造的首字母缩略词联系起来。例如,如果你必须在不同的回复中使用相同的图表,比如产品支持,那么你只需键入几个字母,图表就会立即出现在电子邮件当中。 这些元素可以是web页面、文本段落、图片--几乎可以是你经常使用的任何元素--而且它比剪切和粘贴要快得多。 在一次关于这个工具的简报中,我了解到某些律师,那些靠小时费率生活并且没有受到抨击的律师,会讨厌它,因为它减少了他们的计费时间。律师会做很多计费的工作,但是仅仅是因为它不再允许你开那么多账单了。 人工智能的潜力远远超过了ActiveWords目前所能提供的功能,因为它可以简单地从几行字中就构建出一份法律文件,把一个可能需要两天时间的项目压缩成一个10分钟的项目。假设你有一个每小时100美元的律师,这将是大约1575美元的差异,而且还可能是一个低质量的结果。 我的观点是,除非收费转向“按项目”而不是按小时收费,否则小时工的自动化就不会受到欢迎。这只是我们转向人工智能生产力工具时需要考虑的问题之一。让我们来探索一些其他的东西。 谁的工作成果? 作者的报酬来自于他们的内容,他们的名字和他们过去的工作的声誉。如果我们谈论的是书籍,他们也会从销售额中获得一定比例的报酬。但如果是人工智能完成了大部分的工作呢?公司正在开发一种超越ActiveWords功能的系统,我希望ActiveWords能够进一步自动化它所做的事情--比如自动建议或插入所需的材料来加强某一个部分。 但是,随着人工智能能够承担越来越多地工作,作者的收入是否会下降到只有很少人能够谋生的地步,还是他们的生产力提高了,作者将可以做更多的工作,并能够从增加的产出中获利了? 你当然可以看到这样一种情况:出版商使用人工智能和更少的写作人员来调整输出,而有经验的作者则可以有自己独特的训练有素的人工智能来提高他们的作品。后者类似于使用工具的机械师,因为工具改进了结果,但不会减少机械师的收入。 在某些情况下,写一本书或剧本将包括写出一个概要和提纲,并让人工智能来完成90-95%的实际写作,然后让作者来编辑结果。(像这样的专栏只需要几分钟。)但是我也明白,如果人工智能做了95%的提升,那么就有理由认为作者只能够获得5%的收入了;这将导致人们对与写作相关的人工智能程序产生大量的敌意。 其他的变化 人工智能最终能够做的另一件事是,把那些曾经流行但老化严重的作品,或者那些已经被遗忘的作品,用核心元素创造出更多最新的作品。把哈利波特写成太空歌剧,或者把暮光之城写成浪漫片--而没有吸血鬼,会怎么样?(在后面一个例子中,已经用灰色系的阴影来完成了。) 这不仅适用于书面作品;想象一下是否可以把星球大战变成一个剑与魔法的系列?其元素是一样的。你只需要简单地将科幻元素更改为魔法元素,并在保留对话的同时重新渲染场景和演员。 总结 人工智能将对许多行业的生产力产生重大影响,这一趋势通常被称为下一次的工业革命。尽管如此,我们仍然需要适应新的常态,在AI自动化工作的同时,不去惩罚创作者、演员、作者和其他在人工智能自动化领域创新的人。因为,当你仔细想想,如果我们不这样做,结果将是永远的衍生作品和很少的创新。人工智能离创新还有很长一段路要走,尽管它已经越来越擅长模仿了,但是一个只有无数副本的世界会很快衰老。 需要记住的是:随着人工智能的发展,我们必须确保我们不会因为消灭创新者而意外地扼杀创新。 最后一个故事。几年前,我被提升到了IBM的高管级别,我报告了我所在部门的销售额下降的原因。我们的一个销售代表去了一个客户那里,讨论自动化的好处。但一些决策者表示可能会因为自动化而失去大量员工,而这又将使他们的工作面临风险。这位销售代表变得沮丧起来,他没有去讨论这个问题,也没有解决这个问题,而是把那些面临失业风险的人比作“训练有素的猴子。” 我们因为明显缺乏同情心和过于自负而失去了生意。 最后的教训是,如果你想在自动化领域取得成功,解决方案的一部分还需要确保你能够充分地处理工作风险。否则,当你把那些人置于危险之中时,他们的管理层就会反对解决方案。理解这种风险对人工智能的广泛成功来说是至关重要的。

    时间:2020-08-31 关键词: 人工智能 工具 技术

  • 大数据的下一步是什么?混合服务/分析处理(HSAP)

    大数据的下一步是什么?混合服务/分析处理(HSAP)

    混合服务/分析处理(HSAP)具有强大的分析能力,那么会取代大数据技术吗?大数据的下一步发展是什么? 由于侧重点不同,传统数据库可以分为以事务为中心的联机事务处理 (OLTP) 系统和以分析为中心的联机分析处理(OLAP)系统。随着国际互联网的发展,数据量呈指数级增长,离线数据库已经无法满足企业的业务需求。特别是在分析领域,查询可能需要遍历大部分数据甚至全部数据,而海量数据带来的压力使得采用新技术变得尤为紧迫。这推动了过去十年左右以Hadoop技术开始的大数据革命,并满足了对海量数据分析的需求。与此同时,在数据库领域出现了几种分布式数据库产品,以应对联机事务处理 (OLTP)场景数据的增长。 为了分析联机事务处理 (OLTP)系统中的数据,标准做法是定期(例如每天)将联机事务处理 (OLTP)系统中的数据同步到联机分析处理(OLAP)系统。该架构确保分析查询不会影响在线事务处理。但是,定期同步导致分析结果并不是基于最新数据,并且这种延迟可能使企业失去及时做出业务决策的机会。为了解决这个问题,近年来出现了混合事务分析处理(HTAP)架构,它使企业能够直接分析联机事务处理 (OLTP)数据库中的数据,从而确保分析的及时性。分析不再是传统联机分析处理(OLAP)系统或大数据系统的独特功能。那么一个问题是:由于混合事务分析处理(HTAP)具有分析能力,它将取代大数据系统吗?大数据的下一站是什么? 背景介绍 为了回答这个问题,以下将以推荐系统为例来分析大数据系统的典型场景。 当购物应用程序推荐人们想要购买的商品,以及播放喜欢的音乐时,推荐系统将发挥其神奇的作用。高级推荐系统的核心目标是根据用户的实时行为进行个性化推荐。用户与系统之间的每次交互都会实时优化下一次体验。为了支持这样的系统,大数据技术堆栈已经发展成为一个非常复杂且分散的系统。 为了提供高质量的实时个性化推荐,推荐系统非常依赖于实时功能和模型的持续更新。 实时功能可以分为两类: 推荐系统将收集大量用户行为事件(如浏览、点击等)和交易记录(如从OLTP数据库同步的支付记录等)。这些数据量非常大(流量可能高达每秒数千万甚至数亿条),而且大部分数据都不是来自交易系统。为了方便以后的使用,这些数据将导入到系统中,同时将它们与各种维度表数据相关联,推导出一系列重要特征,并实时更新到推荐系统中,优化用户体验。这里的实时维度表关联需要低延迟和高吞吐量的点检查支持,以跟上新生成的数据。 推荐系统还将使用滑动窗口和其他方法来计算各种维度和时间粒度的特征(例如,过去5分钟的点击次数,过去7天的观看次数,以及过去30天内某一商品的销售额等)。根据滑动窗口的粒度,这些聚合可以通过流计算或批处理来完成。 这些数据还用于生成实时和离线的机器学习样本,经过验证的模型将在推荐系统中不断更新。 以上解释的是高级推荐系统的核心部分,但这只是整个系统的冰山一角。此外,还需要一套完整的系统,如实时模型监控、验证、分析和调整,其中包括:使用实时大屏幕查看A/B测试结果、使用交互式分析用于商业智能,以及优化和调整模型。此外,运营部门还将使用各种复杂的查询来深入了解业务进展情况,并利用客户定位和产品推荐进行有针对性的营销。 这个例子展示了一个非常复杂但典型的大数据场景,从实时数据导入到预聚合,从数据服务、连续聚合、到交互式查询再到批处理。这种复杂的场景对大数据系统的需求非常多样化。在构建这些系统的实践中,可以看到两个新趋势。 (1)实时:业务需要从刚刚收集的数据中快速获得业务洞察力。写入的数据需要在几秒钟内可见。漫长的离线ETL(抽取、转换、加载)流程变得令人无法忍受。与此同时,所收集的数据远远超过从联机分析处理(OLAP)系统同步的数据,事件日志数据(例如用户浏览和单击)甚至比其大几个数量级。企业的系统需要能够提供低延迟查询功能,同时以极高的吞吐量写入数据。 (2)混合服务和分析:传统的联机分析处理(OLAP)系统通常在业务中扮演相对静态的角色。可以通过分析数据来获得业务洞察力(例如预先计算的视图和模型等),并基于获取的知识通过另一个系统提供在线数据服务。这里的服务和分析是一个分散的过程。与其相反,理想的业务决策过程通常是持续优化的在线过程。服务过程将生成大量新数据,需要对这些新数据进行复杂的分析。分析产生的见解会实时反馈给服务,以创造更大的商业价值。服务和分析正在形成一个闭环。 现有解决方案通过一系列产品的组合来满足实时服务/分析融合的需求。例如,通过Apache Flink进行数据的实时预聚合,聚合的数据将存储在提供多维分析的产品(如Apache Druid)中,而数据服务将通过诸如Apache HBase之类的产品提供。这种烟囱开发模式将不可避免地生成数据孤岛,从而导致不必要的数据重复。各种产品之间复杂的数据同步也使数据的一致性和安全性成为一个挑战。这种复杂性使应用程序开发难以快速响应新需求,影响了业务的迭代速度,还给开发、操作和维护带来了额外的大量开销。 专家认为,实时服务/分析集成应通过统一的混合服务/分析处理(HSAP)系统实现。通过这样一个系统,应用开发不再需要处理多个不同的产品,也不再需要学习和应用每个产品的问题和局限性,可以显著简化业务架构,提高开发和运行效率。这样一个统一的系统可以避免不必要的数据重复,从而节省成本。同时,该体系结构还可以为系统带来二级甚至亚二级的实时性能,使业务决策更加实时,从而使数据发挥更大的商业价值。 尽管分布式混合服务/分析处理(HSAP)系统具有实时分析功能,但无法解决大数据的问题。 首先,事务系统同步的数据只是实时推荐系统需要处理的数据中的一小部分。大多数其他数据来自日志等非事务系统(用户在每次购买前通常有几十甚至数百次的浏览行为)。大多数分析都是在这些非事务数据上进行的。但是,混合事务分析处理(HTAP)系统没有这部分数据,因此无法进行分析。 这些非事务数据能否写入混合事务分析处理(HTAP)系统进行分析?以下分析一下混合事务分析处理(HTAP)系统和混合服务/分析处理(HSAP)系统在数据写入模式上的差异。混合事务分析处理(HTAP)系统的基础和优势是支持细粒度的分布式事务。事务性数据通常以许多分布式小事务的形式写入混合事务分析处理(HTAP)系统。但是,来自日志和其他系统的数据并没有细粒度分布式事务的语义。如果要将这些非事务性数据导入到混合事务分析处理(HTAP)系统中,必然会带来不必要的开销。 与其相反,混合服务/分析处理(HSAP)系统不需要这种高频分布式的事务。混合服务/分析处理(HSAP)系统中通常有两种数据写入模式: (1)海量单笔记录的实时写入; (2)频率相对较低的分布式批处理数据写入。 这使混合服务/分析处理(HSAP)系统可以进行一系列优化设计,从而提高成本效益,并避免由于将非事务性数据导入混合事务分析处理(HTAP)系统而导致的不必要的开销。 即使企业不在乎这些支出,假设可以不计成本地将所有数据写入混合事务分析处理(HTAP)系统中,那么能否解决问题?其答案是否定的。 支持联机事务处理 (OLTP)方案是混合事务分析处理(HTAP)系统的先决条件。为此,混合事务分析处理(HTAP)系统通常采用基于行存储的数据格式,而基于行存储中的分析查询效率大大低于列存储。具有分析能力并不等于能够有效分析,为了提供有效的分析功能,混合事务分析处理(HTAP)系统必须将大量非事务数据复制到列存储中,但这势必带来大量成本。最好以较低的成本将少量事务数据复制到混合服务/分析处理(HSAP)系统,同时,可以更好地避免对在线事务系统的影响。 因此,混合服务/分析处理(HSAP)和混合事务分析处理(HTAP)将会互补,并将分别引领数据库和大数据的发展方向。 混合服务/分析处理(HSAP)面临的挑战 作为一种全新的架构,混合服务/分析处理(HSAP)面临着与现有大数据和传统联机分析处理(OLAP)系统截然不同的挑战。 高并发混合工作负载:混合服务/分析处理(HSAP)系统需要处理的并发查询远远超出了传统的联机分析处理(OLAP)系统。 实际上,数据服务的并发性远远超出了联机分析处理(OLAP)查询。例如,人们在实践中已经看到,数据服务每秒需要处理数千万个查询,这比联机分析处理(OLAP)查询的并发性要高出5个数量级。同时,与联机分析处理(OLAP)查询相比,数据服务查询对延迟的要求更加严格。而且,更大的挑战是系统在提供数据服务查询的同时需要处理非常复杂的分析查询。这些混合查询有效载荷在延迟和吞吐量之间具有不同的权衡。如何有效利用系统资源来处理这些完全不同的查询,并确保每个查询的服务水平目标(SLO)是一个巨大的挑战。 混合服务/分析处理(HSAP)系统在处理高并发查询负载的同时,还需要支持海量数据的实时写入。实时写入的数据量远远超过了传统联机分析处理(OLAP)系统的要求。例如,以上实时推荐场景将持续每秒写入数千万甚至数亿个事件。与传统联机分析处理(OLAP)系统的另一个区别是混合服务/分析处理(HSAP)系统对实时数据的要求很高。为了确保服务和分析结果的效率,其书面数据需要在几秒钟甚至几秒钟内可见。 灵活性和可扩展性:数据写入和查询的负载可能会出现突发峰值,这对系统的灵活性和可扩展性提出了很高的要求。在实际应用中,注意到数据写入的峰值可以达到平均值的2.5倍,查询的峰值可以达到平均值的3倍。此外,数据写入和查询的峰值不一定同时出现,这也要求系统具有根据不同峰值进行快速调整的能力。 混合服务/分析处理(HSAP)的系统设计 为了应对这些挑战,典型的混合服务/分析处理(HSAP)系统可以采用以上相似的架构。 存储和计算的存储分解:所有数据都存储在分布式文件系统中,企业通过切分来扩展系统。存储管理器将管理这些碎片。资源管理器对系统的计算资源进行管理,保证系统能够处理高吞吐量的数据写入和查询要求。该架构可以随着工作负载的变化而快速扩展,当查询负载变大时可以扩展计算资源,当数据量快速增长时,可以快速扩展存储资源。存储和计算的分离确保了这些操作可以快速完成,而无需等待数据的移动/复制。该架构显著简化了操作和维护,为系统的稳定性提供了保证。 统一实时存储:为了支持各种查询模式,统一的实时存储层至关重要。查询可以大致分为两种类型,一种是点查询(其中大多数是数据服务类型),另一种是扫描大量数据的复杂分析查询(其中大多数是分析类型)。当然,两者之间有许多查询。这两种查询类型也对数据存储提出了不同的要求。基于行的存储可以更有效地支持点查询,而列存储在支持具有大量扫描的查询中具有明显的优势。需要在行存储和列存储之间做出折衷,但其代价是在检查和扫描数据的情况下无法获得优质性能。希望在两种情况下都能达到优质效果,因此系统同时支持行存储和列存储,并且用户可以根据方案选择每个表的存储。对于同时具有两个需求的表,允许用户通过索引抽象同时选择两种存储,系统通过索引维护机制确保两者之间的一致性。在实践中,发现此设计带来的效率和灵活性可以更好地支持业务。 工作负载隔离 通过计划来保证在混合工作负载下系统的服务水平目标(SLO)。在理想情况下,大型查询应该能够利用所有资源。当多个查询同时运行时,这些查询需要公平地共享资源。由于面向服务的点查找查询通常相对简单,并且需要较少的资源,因此这种公平的调度机制可以确保即使存在复杂的分析查询,也仍然可以保证面向服务的查询的等待时间。作为分布式系统,调度可以分为分布式调度和过程调度。协调器将查询分解为多个任务,这些任务分配给不同的进程。协调人员需要采取某些策略来确保公平。同样重要的是,企业还需要允许不同的任务在流程中公平地共享资源。由于操作系统不了解任务之间的关系,因此在每个进程中都实现了一个用户状态调度程序,以更灵活地支持工作负载隔离。 系统的开放性 许多企业已经使用了其他存储平台或计算引擎,因此新系统必须考虑与现有系统的集成。查询、计算和存储的集成需要很高的时间效率,可以带来明显的优势。但是,对于没有高时间效率的脱机计算,存储层可以提供一个统一的接口来打开数据,这使得其他引擎能够提取数据进行处理,并给业务带来更大的灵活性。开放性的另一方面是处理存储在其他系统中的数据的能力,这可以通过联合查询来实现。 混合服务/分析处理(HSAP)的应用 以下将分享阿里巴巴集团的搜索推荐优化运营业务。 原始搜索推荐完善的运营业务架构 可以通过一系列存储和计算引擎(HBase、Druid、Hive、Drill、Redis等)的复杂协作来满足业务需求,多个存储需要通过数据同步任务来保持近似同步。这种业务架构极其复杂,整个业务架构的开发需要大量的时间。 升级搜索推荐优化运营业务架构 阿里巴巴2019年的网站购物购买额超过2684亿元人民币(379.6亿美元),而阿里巴巴已在2019年的“双十一”通过混合服务/分析处理(HSAP)系统对其业务进行了升级。混合服务/分析处理(HSAP)系统总共支持1.45亿个在线查询,这进一步支持了非常复杂的业务的分析和决策过程,同时,这些分析背后还包含具有1.3亿个实际数据的大规模数据记录而不会生成冗余数据。 阿里巴巴新的架构更加简化。用户、商品、商家的数据和大量用户行为数据从在线和离线ETL进入混合服务/分析处理(HSAP)系统。混合服务/分析处理(HSAP)系统提供查询和分析服务,例如实时数据可视化、实时报告、效果跟踪、实时数据应用等。它通过提供实时数据可视化、实时销售等服务帮助做出更好的决策。预测、实时库存监控、实时商业智能报告、实时监控业务进度、监控运营增长、跟踪算法效果、实时标签、实时肖像、竞争分析、客户定位、产品推荐以及奖金分配等数据产品有助于精确的运营和决策。实时数据服务支持算法控制、库存监视和预警以及其他服务。一套混合服务/分析处理(HSAP)系统实现了所有渠道和所有过程的数据共享和重用,从而从运营商、产品所有者、算法所有者、开发人员、分析师或高级经理的不同业务角度解决了数据分析和查询要求。 通过提供统一的实时存储而不需要任何数据复制,混合服务/分析处理(HSAP)架构为点查找查询、联机分析处理(OLAP)分析、在线数据服务以及其他各种查询和服务提供了一站式服务。这种新的架构显著降低了应用程序的复杂性,并使企业能够快速响应新的业务需求。实时性能中的秒级甚至亚秒级延迟使决策更加迅速和高效,从而允许数据创造更大的商业价值。

    时间:2020-08-27 关键词: 分析 大数据 技术

  • AIoT技术的广泛应用与巨大优势

    AIoT作为一个相对较新的概念,即人工智能(AI)与物联网(IoT)的相结合,使得传统的物联网应用更上一个台阶。 物联网是一个相互关联的计算设备和机器的系统,可以在无需人工干预的情况下通过网络传输数据,已被用于为消费者启用新功能、更好的应用和实时状态监视。将其与不断发展的AI进步相结合,可使组织更好地预测变化并优化其设备。 AIoT允许算法改善通信并应用预测功能,从而为企业提供优于竞争对手的优势。 什么是AIoT? AIoT是将人工智能添加到组织部署的物联网中的设备中。 AI和机器学习的结合使机器可以做出各种决策。 得克萨斯州一家信息技术和服务公司Rackspace Technology首席技术官Tolga Tarhan说:“通过机器学习,人工智能可以从纯粹的编程/算法响应转变为动态决策,从而为连接的设备提供更多功能。” 用机器学习的适应性和灵活性替换编程的响应可以提高组织的应对水平,因为AI和IoT的组合使组织可以通过使互连的设备收集数据并更好地了解其需求和弱点来改善决策并减少延迟。 通常,在AI系统使用IoT设备传感器数据的情况下,两者之间的交集发生在网络边缘,AI在其中处理每个设备的数据。因此,它的应用更有可能在遍布家庭或工厂的单个设备中找到。 AIoT的应用 增强型AIoT的应用范围从最终用户计算机和个人设备到企业大型机器设备。在商用领域,人工智能和物联网的结合已经在智能电器、安全摄像机和恒温器等家庭管理系统中找到。通过将这些设备连接在一起并增加智能水平,产品用户可以更好地了解他们的房屋需求。 智能家庭监控摄像头使用AI来决定哪些信息值得发送到云中。图像检测软件可以识别正常设置,并且仅发送、警告和存储引入超出图片正常范围的新内容(即有人或树木倒下)的视频。视频流需要较大的带宽,并且让摄像机解密重要的内容可以减少对系统的拖累并为观看者节省时间。智能设备可以了解耗材(某些食品或饮料产品)何时不足,并通过连接的设备向用户发出提醒信息。 AIoT还推动了自动驾驶技术的发展。通过增加车辆内的通信和智能,AIoT可以使车辆本身做出更好的决策。 数字咨询公司Nerdery的数据科学总监贾斯汀·里奇(Justin Richie)表示:“特斯拉就是一个很好的例子,自动驾驶技术依赖于这种类型的AIoT。人工智能不仅会利用计算机视觉,而且下一阶段将使用人工智能来帮助制定推动物联网的决策。” AIoT应用还涉及到经济的工业方面。工厂需要大量需要物联网的技术设备才能正常运行,但是预测分析技术的加入意味着企业可以避免(或至少计划)中断、系统故障或维护停机,这对于系统来说是至关重要保养。 Tarhan说:“在工业领域,我们看到了对工业工厂的预测性维护和预测性故障的依赖。” 在工业高压情况下,算法可以评估泵何时可能发生故障,并提前提醒工人,从而为工厂提供时间提前解决故障并进行维护以防止停机。 结合使用AI和IoT还可以使组织以更有组织性和更高效的方式从数百万个IoT设备中收集数据。基于AI的算法可以为组织整理并消除无用的数据,从而节省时间和成本。 AIoT的优势 AI与IoT两种强大技术的结合带来了各种各样的应用和灵活性。AIoT的优势在于它能够促进和提供可行的选择。物联网可以提供有关设备的信息,但是通过添加机器学习算法,组织可以预测决策和结果,从而有可能使物联网在将来自行做出决策。 可以通过范围广泛的应用案例来衡量该技术的影响。专家指出,这项技术具有跨越企业和个人使用的能力,这标志着它的悠久历史。 Tarhan说:“三十年前,在家里拥有与工业应用相同的技术是不可想象的。” 而且,AIoT将继续扩展到各个行业,并扩展其应用和产品组合。 Richie说:“随着物联网设备管理逐渐发展为更多的AI概念,机器人技术将从中受益匪浅。” “随着设备开始与人类进行交互,并且体验变得越来越复杂,AIoT将参与其中。” 设备变得越来越突出,对它们的需求也在不断增长。人工智能和物联网是具有互补技能的天然盟友,它们的合作应用将持续到未来。

    时间:2020-08-26 关键词: 物联网 人工智能 技术

  • 云计算托管数据库的成本和性能效率

    普渡大学(Purdue University)的数据科学和机器学习创新者希望帮助组织和用户从基于云计算的数据库中获得很大收益。当等待时间是主要问题时,其相同技术可以帮助自动驾驶车辆在道路上更安全地运行。 普渡大学农业与生物工程学助理教授索Somali Chaterji负责细胞和神经机器创新[ICAN]的研究,她的团队创造了一种称为OPTIMUSCLOUD的技术。 对云计算供应商和客户均有利 该系统旨在帮助实现云计算托管数据库的成本和性能效率,对资源进行合理分配,以使那些不必为故障安全操作而积极地过度为其云托管服务器提供过多服务的云计算供应商以及客户受益,因为可以将数据中心节省的成本转移到他们身上。 Chaterji说:“这还可以帮助正在远程数据中心处理研究数据的研究人员,而在疫情期间,远程工作条件使吞吐量成为首要任务。这项技术源于提高数据管道的吞吐量,以处理微生物组或元基因组学数据。” 该技术可与三个主要的云计算数据库提供商一起使用:亚马逊的AWS、Google Cloud和Microsoft Azure。Chaterji表示,将在工程方面与其他更专业的云计算提供商(例如Digital Ocean和Floyd Hub)合作。 它以NoSQL技术Apache Cassandra和Redis在亚马逊的AWS云计算服务上进行了基准测试。 Chaterji说:“通过优化本地或云托管数据库的使用方式,帮助企业很大程度地发挥作用。这不再只是计算上的繁重工作,而是有效的计算,企业可以使用所需的东西并为使用的东西付费。” 处理长期运行的动态工作负载 Chaterji说,当前使用自动决策的云计算技术通常仅适用于短期和重复任务和工作负载。她表示,她的团队创建了一个优秀配置,以处理长期运行的动态工作负载,无论是来自连接农场中无处不在的传感器网络的工作负载,还是来自科学应用程序的高性能计算工作负载,还是来自于计算机不同部分的当前疫情仿真。急于寻找抗冠状病毒的方法。 Chaterji说,“随着在云平台上运行的无数应用程序,数据的多样性以及从数据中获取洞察力所需的算法以及随之而来的,需要拥有异构服务器来分析数据的成本显著不同的情况,我们正确调整大小的方法变得越来越重要。” Chaterji说,“Amazon EC2上按需实例的价格相差五千倍,这取决于企业使用的虚拟内存实例类型。”OPTIMUSCLOUD对于无人驾驶车辆(延迟是优先考虑的),医疗保健存储库(吞吐量是优先考虑的)以及农场或工厂的物联网基础设施中使用的数据库具有众多应用程序。 OPTIMUSCLOUD:使用机器学习和数据科学原理 OPTIMUSCLOUD是与数据库服务器一起运行的软件。它使用机器学习和数据科学原理来开发算法,以帮助共同优化虚拟机选择和数据库管理系统选项。 Chaterji说,“而且在疫情时期,当我们和湿实验室这样的传统计算密集型实验室都依赖于计算存储,例如对疫情的传播运行仿真时,这些云托管的虚拟机的吞吐量至关重要,甚至利用率略有提高可带来巨大收益。考虑到目前,即使是最好的数据中心也只能以低于50%的利用率运行,因此,传递给最终用户的成本将显著增加。我们的系统会查看数百种可用选项,并确定按美元成本归一化的优秀选项。在云数据库和计算方面,当只需要一个轮胎时,尤其是现在每个实验室都需要一个轮胎才能行驶时,并不想购买整辆汽车。”

    时间:2020-08-25 关键词: 数据 云计算 技术

  • 从梅雨季到台风季,无人机再获用武之地

    近期,伴随着梅雨季的悄然退场,热辣的台风季正声势浩大的袭来。 8月1日-3日,今年的第3号台风“森拉克”便袭击了我国海南等省市,给该地区人们日常生活带来严重影响。与此同时3日下午,第4号台风“黑格比”也不断加强,持续威胁着我国东部沿海城市,目前浙江、福建两省已将台风应急响应提升至Ⅱ级。 台风的接踵而来,对于我国沿海地区来说无疑影响重大。因为台风不仅会带来狂风暴雨等恶劣天气,同时还会引发洪水、泥石流等次生灾害,给人们的财产与安全带来巨大损失。在此背景下,完善台风灾害预警防范以及提升灾害应急救援能力刻不容缓。 那么,要如何才能提升抗台能力呢? 或许,在梅雨季中拥有突出表现的无人机值得信赖! 无人机抗台优势明显 众所周知,抗击台风至关重要的一个环节,就是能对台风进行及时预测和实时监测。过去,这些任务主要由有人驾驶飞机来完成,这一方式虽然有效,但监测成本比较高,监测范围和效率比较有限,同时驾驶员生命安全也存在一定风险,因此问题不少。 而无人机的出现与应用,则能很好解决这些痛点。无人机具有高灵活、强适应、低成本和无伤亡的明显优势,这不仅能支撑其在恶劣极端天气下完成各种气象监测任务,而且完成的精度和效率也要高很多。最为重要的是,无人化作业不会产生安全隐患。 据了解,澳大利亚是世界上较早研究气象无人机的国家之一,其系列产品已经落地海内外,并取得了良好成就。与此同时近年来,伴随着无人机技术的不断发展,在结构、系统、通信、荷载、续航等方面的不断完善,更多的国家也是加入到这一队列之中。 其中,就包括我国。8月2日,我国气象局便表示,今年第3号台风“森拉克”肆虐期间,我国自主研发的高空大型气象探测无人机已经圆满完成了对“森拉克”外围云系的综合气象观测任务,这标志着我国无人机在台风探测和预警领域方面愈发成熟。 十八般武艺样样精通 当然,我国对于无人机的应用并不仅在于台风探测和预报预警领域。根据无人机类型的不同,我国还将其放飞于不同的场景与环节当中,承担不同的角色和任务,比如灾区测绘、紧急救援、临时通信、电力巡检等,在灾后应急救援方面同样具有显著价值。 按照灾害发生后的应急抢险顺序,首先无人机能用于灾情侦查与测绘任务之中。台风带来的破坏经常会导致道路中断,这时候就需要无人机进行及时的灾情侦察,尽早发现和掌握险情,并快速、准确的搜集灾区交通和次生灾害等信息,为后续救援以支撑。 其次,了解灾情后边进入紧急救援阶段。当开展灾区救援时,无人机大致能发挥出两方面的作用,其一是充当救援冲锋兵,为救援人员打头开路;其二是充当运输者和通信者角色,为救援工作输送紧急物资和进行通信支持,让救援后勤能获得有效保障。 此外,当救援有序开展,灾后修复与建设便成为重点工作,在此过程中无人机同样具有用武之地。例如,很具代表性的便是电力巡检。当台风影响电力设施,无人机能够代替人员进行巡检,为抢修人员节省大量时间,并保障作业安全和效率,作用巨大。 未来前景将值得期待 得益于上述广阔应用空间和显著抗台价值,2017年以来,我国也是相继发布了多项法律政策,助推民用无人机产业发展,并对应用市场进行严正规范,这为无人机的发展和应用提供了利好条件,创造了健康良好环境,为其未来广阔前景打下重要基础。 在此基础上,相关数据显示,截至2019年我国民用无人机市场规模已经来到210亿元,同比上一年增长超过56%。同时,行业企业和产品分别达到7000余家与40万架,同比增长约76%和37%;并且无人机驾驶员执照总数为67218个,同样增长近50%。 这些数据表明,无人机在与抗台相关的气象监测、物流运输、应急救援、通信保障、电力巡检等民用领域发展正在不断壮大,同时未来发展的潜力和前景也正在不断变现。接下来,如果我国无人机产品和应用能进一步成熟,一片新的市场蓝海将加速浮现。 在气象监测和应急抢险无人机新爆点已点燃之际,我们期待其未来更好的发展。

    时间:2020-08-24 关键词: 无人机 台风 技术

  • 搞大数据,Java 工程师需要掌握哪些知识?

    题目是一名叫“截然不同”的同学私信我的一个问题,原话是,“搞大数据,java 需要掌握哪些技术点?”,我稍微调整了一下。必须得承认一点,我本人没有搞过大数据,所在这方面的经验为零。 但同学既然问了,咱就不能假装不知道啊,虽然真的是不知道。但要变强,就必须无所畏惧,迎难而上,对吧? 幸好我身边有一些朋友是做大数据的,我可以向他们请教,了解清楚后,我现在就把他们给我的建议整理一下发出来,希望给有需求的同学们一点帮助。 01、大数据的就业方向有哪些? 现实点,我们掌握任何技能都是为了就业,为了能够找份工作糊口;立志不打工的同学们请绕行哈。 那大数据的就业方向都有哪些呢? 大数据工程师 大数据科学家 数据分析师 那针对这些不同的就业方向,都需要哪些技能呢?我们来一一的分析下。 02、大数据工程师的技能要求 大数据工程师的门槛相对其他两个较低一些,所以同学们可以重点关注一下这个方向。 先说一些必备的技能吧。 对 Java 虚拟机有着深入的研究,推荐书籍,周志明的《深入理解 Java 虚拟机》。 对 Java 并发掌握得很透彻,推荐书籍,《Java 并发编程实战》。 掌握 Hadoop。Hadoop 是一款支持数据密集型分布式应用程序并以 Apache 2.0 许可协议发布的开源软件框架,可以使应用程序与成千上万的独立计算的电脑和 PB 级的数据连接起来,整个 Hadoop “平台”还包括 MapReduce、Hadoop 分布式文件系统(HDFS)。 掌握 HBase。HBase 是一个开源的非关系型分布式数据库,是 Hadoop 项目的一部分,运行于 HDFS 文件系统之上,对稀疏文件提供极高的容错率。 掌握 Hive。Hive 是一个建立在 Hadoop 架构之上的数据仓库,能够提供数据的精炼,查询和分析。 掌握 Kafka。Kafka 的目标是为处理实时数据提供一个统一、高吞吐、低延迟的平台。 掌握 Storm。Storm 是一个分布式计算框架,使用用户创建的“管”和“螺栓”来定义信息源和操作,允许批量、分布式处理流式数据。 了解 Scala。Scala 是一门多范式的编程语言,设计初衷是要集成面向对象编程和函数式编程的各种特性。可以和 Java 兼容,运行在 Java 虚拟机上。 掌握 Spark。Spark 是一个开源集群运算框架,相对于 Hadoop 的 MapReduce 会在运行完工作后将中介数据存放到磁盘中,Spark 使用了存储器内运算技术,能在数据尚未写入硬盘时即在存储器内分析运算。 会用 Linux。推荐书籍,鸟哥的《Linux 私房菜》。 再来说一些高阶的技能吧。 会用 Python。 会用 R 语言。 精通算法和数据结构。 03、大数据科学家的技能要求 “科学家”,这个 title 听起来就很牛逼,不会出乎同学们的意料,我小时候的梦想之一除了成为一名作家之外,就是成为一名“科学家”。 那大数据科学家,要求的技能就会超出绝大多数普通人的能力。首先,要对“统计机器学习方法”有着很深入的研究,既要会预测,还要能解释为什么要这样预测,对吧? 如果要预测股票是涨还是跌,就必须得有一套可以解释给客户听的理论,还要有一套预测方法,让程序能够按照这个方法去执行,并得出预期的结论。 现如今,数据已经不值钱了,哪里都是大量的数据,值钱的是通过对这些数据进行分析,得出指导性的建议—;—;这就要求科学家要有数据处理的能力。 不多说了,这方面的要求非常高,最起码也得考个研究生吧。 04、数据分析师的技能要求 数据分析也可以细分为两个领域,一个类似产品经理,更注重业务,对业务能力要求比较高;一个偏向数据挖掘,更注重技术,对算法和数据结构要求比较高。 那不管是产品经理还是做数据挖掘,SQL 是必知必会的,因为数据分析师每天都要处理海量的数据,而这些数据来自哪呢?就是数据库。那怎么把数据从数据库中取出来呢?SQL 语句(select * from xxx,哈哈),别无其他。 那还需要什么技能呢?统计学基础,对,没错,数据和时间的关系,数据的动态分布,数据的最大值、最小值、平均值,这些都需要一定的统计学基础。 当然了,做数据分析比较好的编程语言是 R 语言或者 Python,所以还需要学习一下这两门语言。不过,有了 Java 作为基础,学 Python 就会更容易些,因为 Python 本身的语言更简洁。(R 语言主要用于统计分析、绘图、数据挖掘) 推荐两本书吧,《深入浅出数据分析》和《精益数据分析》。 05、最后 好了,我已经把要学习的技能告诉同学们了,接下来,就靠同学们自己的修行了。看书,或者网上找资料(按照关键字去搜索),都可以,关键就看你愿不愿意沉下心,去花时间钻研了。 执行力,很重要,对吧?

    时间:2020-08-21 关键词: 大数据 java 技术

  • AI +边缘计算――边缘人工智能真的存在吗?

    AI +边缘计算――边缘人工智能真的存在吗?

    EdgeAI不再处于蓝图阶段。它已经进入主流应用,并且以惊人的速度增长,但是EdgeAI到底是什么呢? Edge受到全球企业的喜爱,作为一种新时代的感应技术,它具有巨大的实时观察用户的能力,以获得更多的意识,采取智能有力的行动。有争议的问题仍然存在,边缘人工智能真的存在吗?专家说,是的!例如,带上您的智能手机,只需注册并识别您的脸部,它就能在几秒钟内解锁您的手机。自动驾驶汽车是另一个复杂的例子,其中汽车无需任何人工干预即可自行驾驶。数据就在您的汽车或手机中,没有时间将这些数据发送到云中并等待见解。 行业中的边缘人工智能 无论是在企业层面还是在个人层面,我们都在使用EdgeAI的许多其他实例。从提醒你交通状况的谷歌地图到语音再到文本算法,智能人工智能无处不在。EdgeAI拥有巨大的潜力,根据Itractica的一份报告,到2025年,AIEdge设备出货量将从2018年的1.614亿台增加到26亿台。流行的人工智能支持的边缘设备包括头盔显示器、智能扬声器、手机、PC/平板电脑、汽车传感器、机器人、安全摄像头和无人机。此外,可穿戴健康传感器将具有很高的可采用率。 EdgeAI最有可能使包括供应链和生产线在内的工业密集型应用受益。特别是在新兴的工业物联网(IIoT)中,企业将看到更实实在在的ROI。例如,制造业可以使用边缘AI进行预测性维护、故障排除和识别复杂物理系统中的问题。此外,EdgeAI还可以用于自动化产品测试和检查,以提高质量,同时减少资源消耗。 利用深度学习和边缘人工智能 EdgeAI的另一个应用是支持深度学习的智能相机,它可以处理捕获的图像来跟踪多个物体和人。直接在边缘节点上检测可疑活动,而不是依赖于云,这有时会很耗时。智能摄像机可以通过流式传输数据来减少与远程服务器的通信。这也可以减少远程处理和内存需求。深度学习和EdgeAI应用最受关注的包括入侵者监控系统,以保护房屋免受任何干预。这对于保护房屋和监视老年人至关重要。 文本到语音(TTS)和语音到文本(STT)是两个利用人工智能和数字语言(DL)的应用将功能推向边缘的两个例子。例如,汽车中的免提文本读写功能,驾驶员可以在与信息娱乐系统交互的同时保持对汽车驾驶的注意力。 随着AI边缘的转移,做好准备迎接一系列正在发生的变化。这些构造转变包括5G网络、智能设备等的出现,以及对物联网设备的增长和需求。随着未来的飞速发展,企业将越来越多地使其系统“智能化”,这意味着市场将获得显著收益,以满足智能边缘人工智能平台的计算需求。

    时间:2020-08-17 关键词: 人工智能 边缘计算 技术

  • 只要6秒 AI人工智能只要听声音就能描绘你的长相

    只要6秒 AI人工智能只要听声音就能描绘你的长相

    你相信吗?AI人工智慧最近已经进化到,只要花6秒的时间,听到你的声音除可以分辨出你的性别、年纪与种族外,甚至可以描绘出你的长相。 这款由麻省理工学院(MIT)所打造出来的AI,研究人员用一个由数百万个影片剪辑而成的数据集,对一个名为Speech2Face的神经网络模型进行自我训练,而这款网络的运作大概分成两部分,一个是语音编码器,主要负责对输入的语音来进行分析,并预测出相关的脸部特征;另一个则是脸部解码器,主要对输入的脸部特征来进行整合并产生图像。从最终结果来看,仅用了6秒,就能靠着声音来还原人脸,效果上是令人满意的。 该研究团队表示,他们的目的并非为了准确还原说话者的模样,Speech2Face模型主要是为了研究语音与相貌之间的关联性。目前Speech2Face已经可以识别出性别,而对于白种人与亚洲人也能轻易分辨,在年纪部分从30、40、70岁的年龄段声音命中率会比较高一点。 除了基础的性别、年纪与种族外,Speech2Face还可以猜中一些脸部特征,像是鼻子结构、嘴唇厚度与形状、咬合等情况,也可以猜出大概的脸部骨架,基本上声音输入的时间越长,这款AI的准确率就越高;不过研究人员也坦言,AI的听觉也会有错,这款AI会将尚未经历变声期的小男生当作女性、对说话者的口音也会有判断错误的时候、甚至搞错年龄等。研究人员表示,Speech2Face之所以会有局限性,部分原因是因为数据集中的说话者,本身种族多样性不够丰富,所以让它在辨认不同种族人士声音这样的能力上是比较弱的。 不过也有人认为这项技术背后所隐藏的隐私与歧视等问题,令人担忧;他们认为虽然这是纯粹的学术调查,但脸部信息的潜在敏感性,是有必要进一步讨论当中的道德因素,应该要对此进行严谨的技术测试,并确保实际数据可以代表预期中的用户群。

    时间:2020-08-17 关键词: 语音识别 人工智能 技术

  • F1赛车被黑客入侵,人工智能技术是救星?

    F1赛车被黑客入侵,人工智能技术是救星?

    那是在1998年,澳大利亚F1大奖赛期间。在第36圈,芬兰车手米卡·哈基宁通过了进站,然后继续参加比赛。这种做法似乎令人费解。哈基宁加速回到比赛中,但这宝贵的几秒钟让他损失惨重—;—;把领先优势让给了队友大卫库塔。 2020060901 但这并不是人为的错误,而是更险恶的事情发生了。 “有人窃听了我们的无线电,指示米卡·哈基宁进入维修区。麦克拉伦(英国著名的赛车研发制造公司)首席执行官扎克•布朗在最近与网络安全合作伙伴Darktrace的一次讨论中回忆道:“我们的无线电被黑客入侵,但我们能够手动逆转,让哈基宁回到赛道上。即使是在模拟技术时代,一次音频泄漏也影响了迈凯轮的比赛。今天,这样的裂痕可能会对合作伙伴、经济造成毁灭性的打击。这就是我们在安全方面,依赖人工智能的原因。” 今天的F1赛车:工程杰作 在今天迈凯轮F1赛车圆滑的外观背后,是一项复杂的工程技术,极大地提高了它们的速度、灵活性和精度。然而,为超级跑车提供动力的优秀技术也扩大了黑客的威胁范围。 一看之下,引擎盖下的现代F1赛车揭示了一系列的仪器,必须所有设备都在和谐工作。这辆车有超过25,000个独立的部件,其中仅底盘就有11,000个部件,引擎有6,000个部件,以及8,500个电子元件。 这些组件与高级数据分析相协调。在两小时的比赛中,迈凯轮的F1电子控制单元(ECU)传输了超过7.5亿个数据点,使赛车的性能得以持续监控。ECU拥有300多个传感器,在一场平均300公里的大奖赛中,ECU处理超过1000个输入参数,并将超过300GB的实时数据传回车库。 该系统被称为F1遥测,分析发动机性能、悬挂状态、变速箱数据、燃料状态、温度读数、重力测量和驱动的控制。F1总部团队的工程师实时分析这些数据,以调查车手和赛车在比赛中的性能和表现,包括引擎状况、轮胎退化和油耗。 这种对数据的持续分析使车队能够在比赛中以颗粒状的水平优化性能,并准确地决定最佳时刻让赛车离开赛道。遥测数据还帮助团队决定如何调整差速器,即允许两个后轮以不同速度旋转的机制,从而大大缩短了时间。 与赛程有着如此紧密联系,导致很多数据需要保护,而且许多这些组件都是联网的,因此容易受到外部黑客的攻击。传统的安全工具已经试图阻止攻击者进入计算机网络,并使用基于规则的系统来识别已知的恶意行为。 保护迈凯轮的网络和设备免受快速复杂的恶意软件和其他形式的攻击,需要比较先进的技术应用。今天,不知疲倦的人工智能被用来持续监控整个环境,并确定数字活动是否如预期的那样,或是否有任何元素是可疑的和潜在的恶意。 布朗说:“我们在今天的比赛中看到了高水平的技术和互联性,迈凯轮在AI采取的主动和精确的方法中找到了安心,这确保比赛战略和整个企业的正常运作。” 掌握方向盘:人工智能 人工智能做出的计算是实时的,并且随着新信息的出现和环境的演变不断地重新评估—;—;这种技术被称为“自我学习”。这种适应性是至关重要的,它能让这项技术跟上快速变化、嘈杂的数据环境的步伐,并保护司机免受哪怕是最轻微的干扰。 该公司在今年年初采用了Darktrace的网络安全人工智能,它的自我学习能力—;—;在没有事先了解的情况下发现全新的威胁类型,这被证明是团队在疫情大流行期间向远程工作过渡的关键。 如今,闪电般的反应对于打击勒索软件等攻击至关重要。勒索软件可以在几秒钟内从电子邮件收件箱转移到共享文件,在安全团队有时间做出反应之前锁定文件,让行动陷入瘫痪。这些快速执行的攻击通常发生在安全团队分心或不工作的时候,它们由“自主响应”处理,这是一种新的安全AI类型,能够反击攻击,立即中断恶意活动。在自我学习的人工智能的推动下,它能够精确地理解什么是反常的,什么不是,它的干预就像外科手术一样精确:停止威胁行为,但允许正常活动继续进行。 由人工智能提供动力,冲过终点线 无论它是针对时间紧迫的工程师的有针对性的电子邮件钓鱼攻击,还是利用了一个漏洞 汽车内部的联网组件,对敌人来说有很多攻击路线,但对安全团队来说几乎没有犯错的余地。 人工智能通过提供自主的威胁检测和响应,增强了迈凯轮的网络防御能力,确保新兴和新的网络威胁在升级之前得到迅速处理。它随着迈凯轮自己的组织和系统不断发展,不断学习“新常态”。这种对人工智能理解的持续和自动的重新校准是至关重要的,不仅仅是为了跟上工人的步伐:到赛季结束时,一辆拥有20,000个不同部件的F1赛车,与最初设计和工程设计的汽车有85%的不同。

    时间:2020-08-14 关键词: 人工智能 网络安全 技术

首页  上一页  1 2 3 4 5 6 7 8 9 10 下一页 尾页
发布文章

技术子站

更多

项目外包