当前位置:首页 > 技术
  • 大脑直连音乐流?Neuralink脑机接口下月面世

    不用耳机,通过脑机接口直接听音乐,还能平衡体内激素水平,缓解抑郁和焦虑…… 最近,马斯克透露了 Neuralink 新动向,并将于 8 月 28 日公布脑机接口黑科技。 继去年发布首款脑机接口产品之后,马斯克领导的脑机接口研究公司 Neuralink 又有新动向。 近日,马斯克在 Twitter 上透露,Neuralink 正在研究一款能够使用户「直接通过芯片听音乐」的产品。 通过脑机接口将音乐直接传递进大脑,这是不是意味着人们不再需要耳机这类穿戴式设备? 目前,我们暂时无法得知 Neuralink 的脑机接口新产品将如何绕过耳朵、耳蜗神经,将音乐传递进大脑。 不过,马斯克的目标似乎不止于此。在被问及 Neuralink 的设备是否能够「在需要的时候模拟催产素、血清素等化学物质的释放」,马斯克的回复是「Yes」。 他表示,Neuralink「可以帮助控制激素水平,利用它们来增强我们的能力、减轻焦虑等」。 此外,马斯克还在 Twitter 上透露了更多细节。 推特用户 @Pranay Pathole 提问:「Neuralink 可以用来重新训练大脑中与成瘾或抑郁有关的部分吗?」 这个问题得到了马斯克肯定的答复:「当然,这件事既伟大又可怕。我们所感觉到的和想到的一切都是电信号。早期的宇宙只是充斥着夸克和轻子的热汤,而它又是如何开始认为自己有感知力的呢?」 短期内, Neuralink 将用于治疗帕金森症等脑部疾病,长期目标是让人类与 AI 竞争。该系统的早期版本已经在动物身上进行了测试,并且有望在今年内进行人体试验。 安装芯片的过程类似于 Lasik 激光眼科手术,其中一部分需要神经外科手术机器人完成,该机器人可将一根柔韧的「线」与已经接入微型可植入计算机芯片的大脑相连。 Neuralink 和它玩过的花样 Neuralink 是马斯克和其他八位联合创始人创办的神经科技公司,负责研发植入式脑机接口技术。 Neuralink 拥有强大的研发团队,其共同创始人包括神经科学领域的一些著名学者,包括 Lawrence Livermore 国家实验室的工程师和柔性电极专家 Vanessa Tolosa,加利福尼亚大学旧金山分校教授 Philip Sabes,波士顿大学教授 Timothy Gardner,拥有哈佛医学院、MIT 电气工程与计算机系两个博士学位的 Benjamin Rapoport。其中 Philip Sabes 教授的主要研究方向是大脑如何控制运动,Timothy Gardner 教授曾给小鸟植入微电极,研究鸟类鸣叫。 作为一家脑机接口研究公司,马斯克希望可以像微创眼科手术一样安全无痛地植入脑机接口芯片。成立两年后,Neuralink 发布了其首款产品,如下图所示,看起来像一台「缝纫机」。 这款产品首先使用激光在头骨上钻孔,然后再将一条只有人的头发丝 1/4 细的线路植入脑中,并且可以避开大脑血管,整个过程尽可能减少损害。 Neuralink 开发出的细线对大脑造成损伤的可能性较小,并且为大量数据的传输提供了可能。但是这种线难以植入,因为它非常灵活。为了解决这个问题,Neuralink 开发了一种「每分钟自动嵌入 6 根线(192 个电极)的神经外科手术机器人」。 Neuralink 打造的用于插线的机器人。 另外,Neuralink 还开发了一款能够更好地读取、清理和放大大脑信号的定制芯片。 用于放大信号并将信号传输到计算机的芯片。 这款芯片比人的手指还要小很多,很适合植入人体。马斯克表示:「从线上收集到的脑电波信息会通过芯片无线传输到人身体之外的接收器上,就像手机的蓝牙一样」。 在即将到来的 8 月,Neuralink 将迎来重磅更新,这一次钢铁侠马斯克又会带来什么惊喜? 马斯克:五到十年内,人将与 AI 共生 马斯克曾表示,人工智能将在智力上超越人类,人类唯一击败人工智能的方法就是拥有相同智力水平的脑机接口。「我希望人与 AI 能实现某种共生,到某种程度之后,人类的语言将被淘汰。」 在他的设想中,这种情况将于五到十年内发生。届时,人类无需讲话,彼此之间也能实现快速、准确的沟通。 「如今,脑机接口的应用就像智能手机在几十年前一样难以想象。」但这也许并非天方夜谭。在去年皇家学会(Royal Society)发布的一份报告中,研究人员详细论证了脑机接口装置如何使人与人之间产生「心灵感应」。 所以,马斯克也在推特上为自己的「人类进化梦想」招聘人才:「如果你解决过手机或可穿戴设备难题,包括密封、信号处理、感应充电、电源管理等,请考虑来 Neuralink 工作吧!」 和钢铁侠马斯克一起改变世界,你愿意试试吗?

    时间:2020-08-11 关键词: 人工智能 技术 脑机接口

  • 网络和数据布线专家将成为数字时代的主要合作伙伴

    网络和数据布线专家将成为数字时代的主要合作伙伴

    数据布线专家对企业如何在数字领域蓬勃发展,并在这一过程中成为主要合作伙伴进行了阐述。 调研机构去年发布的一份调查报告预计,到2023年,结构化布线市场将增长30亿美元以上。 未来几年,企业将比以往任何时候都更加依赖大数据。需要采用更强大的基础设施来处理大数据,这就需要更多的数据布线。当然,企业需要合适的承包商来进行安装和维护。 选择合适的数据布线专家的重要性 数据中心在大数据时代发挥的重要作用已经得到了广泛认可。一些分析机构通常对数据中心运营进行分析和探讨,但是很少讨论企业需要运行的大数据基础设施的其他元素,其中包括数据布线的重要性。 如果没有一个适当、健全、稳定的布线基础设施,企业很难开展业务。全球互联网对于任何组织的运作至关重要,为了确保不落后于竞争对手,因此需要更好地了解布线的重要性。 企业的业务可能取决于其布线基础设施,需要全球互联网和办公室中所有设备之间的快速连接,才能保证工作环境的平稳运行。物联网使布线基础设施比以往任何时候都更加重要,企业需要良好的网络基础设施以确保对数据进行无缝管理,而其员工的生产力也依赖于这项技术。最重要的是,企业业务的整体成功取决于布线的正确设置。 企业需要与适合的网络和数据布线承包商开展合作,以确保一切正常进行。因此,在选择合作的承包商时,必须格外小心谨慎。而为了解决布线问题而雇用不了解的布线厂家是错误的方法,这将会带来一些麻烦。 具有多种选择对企业来说可能是一件好事,因为可以对这些服务和产品进行比较,并选择适合的。但是这也可能是一件坏事,特别是对于不知道如何挑选的人来说。如果急于将所有事情都做好,那么可能会做出错误的决定。 企业选择适合的专业厂商来处理这些问题,虽然找到适合的承包商可能要花费一些时间,但将帮助企业做出明智的决定。 如果企业是首次选择网络和数据布线承包商,那么可能会感到困惑,甚至可能会害怕做出错误的选择。虽然这是一个需要全神贯注的过程,但是不必害怕。只要遵循一些简单的提示,了解需要的内容,便可以立即做出正确的选择。以下分享一些建议。 一切从经验开始 就像病人就诊一样,需要在拥有数十年经验的医生和刚毕业的医学生之间进行选择,毫无疑问,人们通常会选择经验丰富的医生。因为经验会带来信任,而选择令人信任的布线公司也是如此。 网络和数据布线非常复杂,这意味着容易犯错误。企业的工作人员也很难获得相关经验和知识成为专业人士,因此需要经验丰富的数据布线承包商的帮助。 跟上技术发展很重要 尽管经验是至关重要的,但可能有些技术方法已经过时。对于企业来说,希望其选择的承包商跟上所有新方法、工具和技术的步伐,以便他们能够更好地完成工作。 当企业找到一个不断提高技能水平并跟上技术发展的承包商时,企业可以确定他们将能够满足其网络和数据布线需求,他们可以推荐或部署最适合的布线结构,并且能够解释为什么在特定情况下采用的方法。其技术专家需要时刻关注行业技术的最新发展。 沟通是关键 有效的沟通是业务成功的关键,这意味着企业需要寻找一个满足其业务需求的数据电缆承包商。除此之外,企业还希望所雇用的人员能够提供他们的相关想法,并解释他们认为某些事情对企业有利的原因。简而言之,希望更好地进行对话。 如果企业发现数据线缆专家不称职,或者回避并拒绝了企业提出的想法和要求,那么最好不要与他们合作。最重要的是能够与企业开展合作的人员进行有效的沟通,这是成功合作的关键。 2020年需要合适的数据布线专家 大数据正在以各种方式改变企业的基础设施需求。因此企业需要更加可靠的数据布线系统,这意味着他们需要雇用适合的数布线专家,他们将为企业带来更多的价值。

    时间:2020-08-10 关键词: 网络 技术 大数据

  • 现场总线技术的定义

    现场总线技术的定义

      现场总线(Fieldbus)是近年来迅速发展起来的一种工业数据总线,它主要解决工业现场的智能化仪器仪表、控制器、执行机构等现场设备间的数字通信以及这些现场控制设备和高级控制系统之间的信息传递问题。由于现场总线简单、可靠、经济实用等一系列突出的优点,因而受到了许多标准团体和计算机厂商的高度重视。   现场总线技术发展:   现场总线(Fieldbus)是自动化系统中一种把大量现场级设备和操作级设备相连的工业通讯系统。其一般定义为:一种用于智能化现场设备和自动化系统的开放式,数字化,双向串行,多节点的通信总线。   现场总线(Fieldbus)是20世纪80年代末、90年代初国际上发展形成的,用于过程自动化、制造自动化、楼宇自动化等领域的现场智能设备互连通讯网络。它作为工厂数字通信网络的基础,沟通了生产过程现场及控制设备之间及其与更高控制管理层次之间的联系。它不仅是一个基层网络,而且还是一种开放式、新型全分布控制系统。这项以智能传感、控制、计算机、数字通讯等技术为主要内容的综合技术,已经受到世界范围的关注,成为自动化技术发展的热点,并将导致自动化系统结构与设备的深刻变革。国际上许多实力、有影响的公司都先后在不同程度上进行了现场总线技术与产品的开发。现场总线设备的工作环境处于过程设备的底层,作为工厂设备级基础通讯网络,要求具有协议简单、容错能力强、安全性好、成本低的特点 :具有一定的时间确定性和较高的实时性要求,还具有网络负载稳定,多数为短帧传送、信息交换频繁等特点。由于上述特点,现场总线系统从网络结构到通讯技术,都具有不同上层高速数据通信网的特色。   现场总线技术   一般把现场总线系统称为第五代控制系统,也称作FCS——现场总线控制系统。人们一般把50年代前的气动信号控制系统PCS称作第一代,把4~20mA等电动模拟信号控制系统称为第二代,把数字计算机集中式控制系统称为第三代,而把70年代中期以来的集散式分布控制系统DCS称作第四代。现场总线控制系统FCS作为新一代控制系统,一方面,突破了DCS系统采用通信专用网络的局限,采用了基于公开化、标准化的解决方案,克服了封闭系统所造成的缺陷;另一方面把DCS的集中与分散相结合的集散系统结构,变成了新型全分布式结构,把控制功能彻底下放到现场。可以说,开放性、分散性与数字通讯是现场总线系统最显著的特征。

    时间:2020-08-06 关键词: 技术 现场总线

  • 鸡肋还是翻译神器?日本发明的智能口罩能“说话”

    口罩要来抢翻译机的活了。 最近,日本一家初创公司发明了一款智能口罩,试图解决戴着口罩不能顺畅交流的问题。据FastCompany报道,日本一家名叫“Donut Labs”的公司研发出了一种智能口罩,可以翻译8种不同语言,帮助佩戴者交流。 比起大家买到的厚口罩,这款名为“C-Face”的口罩与智能可穿戴设备Fitbit的共同点似乎更多。据该公司介绍,它可以用来防护新冠病毒,还可以将佩戴者说的话(从日语)翻译成越南语、英语、西班牙语、汉语、韩语、泰语、印尼语和法语这8种语言。 在工作原理上,这款口罩通过蓝牙连接智能手机应用,从而将语音转换成文本信息,同时还可以进行语音听写和打电话。 实际上,C-Face算是一个安装在软质空气过滤面罩上的塑料盒,最主要的作用就是帮人们更好地理解不太听得清或听得懂的对话。据路透社报道,只要将手机连接蓝牙,它就可以通过某种方式感应到面部肌肉,解密佩戴者的语音(如果口罩里面也有麦克风的话),其最远通话距离可达10米。 同时,一个配套的应用程序会将语音转换为手机屏幕上的文本以供阅读,也可以用智能手机的扬声器来放大人的声音。该应用程序承诺,只需要花费几分钟,就可以将开会时的交流内容翻译成8种语言中的一种。 Donut Labs的首席执行官大野大介表示,该产品是经过多年的努力研发而成,他们希望可以运用该技术发明一款可以应对疫情后社会形势的产品。疫情期间,该公司已经和东京羽田机场达成了合作,为该机场提供机器人向导和翻译,但目前还未真正实行。 疫情爆发后,该公司开发了C-Face,同时在日本的众筹网站Fundinno上发起众筹。当然,这款口罩的价格也相对较高,单价预计是40美元(约合人民币280元)。最终,公司筹集了大约26万美元。 自从7月被路透社报道以来,Donut Labs称公司收到了数百封电子邮件,希望他们在30个国家和地区提供支持。 尽管Donut Labs称该口罩可以在不少场景得到应用,比如隔着玻璃的银行专柜、公司的会议场景等,不少人还是认为这一口罩较为鸡肋—;—;毕竟,拿着手机在口罩旁用软件进行语音识别似乎也没什么不同。 但Donut Labs表示,它计划很快在智能口罩中增加更多功能。将来,C-Face将扩展到图像系统(AR、VR)等。首批5000个口罩将于9月份在日本上市,之后将向中国、美国和欧洲市场拓展。

    时间:2020-08-06 关键词: 人工智能 技术 机器学习

  • 成功应用大数据和人工智能的四个关键事项

    成功应用大数据和人工智能的四个关键事项

    大数据技术如今已经成为全球主要的营销工具之一,这已不是什么秘密。 在这个快速变化和发展的时代,各行业组织之间的竞争比以往任何时候都要激烈,并致力于在当今互联互通的世界中提高基准、环境水平、投资回报率、利润率。大数据分析和咨询服务已经存在多年,可以通过处理和分析大量数据获得见解以帮助组织实现其业务目标。随着这个过程的发展和全球互联网技术得到广泛的应用,组织需要处理的数据量将会继续快速增长。 因此,很多组织尝试采用大数据技术,但在没有采取某种策略或评估结果的情况下,大数据技术提供的大多数见解并不能令人信服。 人工智能正在开始创建新的竞争环境。机器学习为组织提供了来自大数据的连续信息流,使组织对其结构和模型中的进展和缺陷有了一些独特的见解。虽然并不完美,但将大数据的大规模处理数据与复杂的预测性或规范性人工智能系统相结合,这是组织迈向数据驱动型公司的第一步。 需要记住,大数据和人工智能并不是万能的。以下是通过大数据对人工智能优化并获得成功的四个关键事项。 1.场景 首先关注的一点也是最重要的一点是,机器学习缺乏意识和场景。 人工智能的强大之处在于其背后的人员和他们提供的数据。组织需要考虑以下因素: 在特殊情况下必须考虑哪些变量? 基准是什么? 最终目标是什么? 不切实际的措施、花费的成本、人工工作对于机器学习来说意义不大,这意味着工作人员需要提供一些必要的常识来找到公平的解决方案。 工作人员需要决定哪些数据是有用的,哪些数据是无用的,以便采用机器学习技术进行分析。为了明确从大数据中得到的问题,人工智能技术将以一种连贯的方式提供具体的答案。组织需要提供一些智能查询和良好的信任来帮助该过程。 2.信任 更改标准可能很困难,尤其是在处理新技术时。人工智能处理对大数据的影响是确定且可衡量的,但人们对人工智能技术的了解可能很模糊。 人工智能提供的各种解决方案很少给出解释性背景,即使经验丰富的专业人士也会感到为难。毕竟,要相信人工智能得出的答案并不容易。当人工智能算法持续按照工作人员的预期运行并获得成功的结果时,人们需要学会与机器建立信任。 与其毫无疑问地听从一系列的建议,不如让人工智能、数据专业人士和场景因素来帮助组织制定最终策略。 3.策略 通过大数据和机器学习技术而创建的一个经常被忽视的关键见解是策略。通过大数据技术提供的人工智能可能有助于组织制定策略,或帮助从数字中突出显示模式,但它缺乏有关如何使用的知识。 使用从数据中收集的信息通过以下几种不同的方式构建策略: 凭借将大量数据转换为易于识别的格式的能力,人工智能可以帮助组织产生易于访问的信息数据库。这是寻找引人注目的模式并制定成功策略的一个很好的方法。 人工智能可以将非结构化数据或不太适合一般电子表格的数字重新配置为新格式和特定平台。这使组织可以在监视已实施的策略时考虑许多不同的角度。 电子邮件和信息图表、视频和Facebook帖子都可以进行处理,以易于实施一致的数据集。机器学习无法理解这一点在组织业务策略中的重要性,但是组织的工作人员当然可以理解。 机器学习并不具备人类拥有的当前技术无法做到的预测未来事物的与生俱来的能力。重要的是不要在现代商业模型中只依赖人工智能技术。 4.理性采用人工智能技术 大数据技术功能强大,将其与机器学习相结合的能力更加强大。某些机器学习的滥用或错误使用可能会给准备不足的组织带来一些重大的法律问题。 在尝试将人工智能应用于各个业务部门之前,需要仔细考虑它将对组织的业务和客户产生的影响。如果遭到黑客入侵或破坏,那么组织需要采取哪些法律措施或保护措施?哪些业务领域需要人工智能处理,哪些领域不需要?组织需要对在哪里以及如何使用机器学习的功能负责? 寻求关键见解 组织需要提供其业务最需要的见解以继续优化性能。无法正确衡量指标(或根本无法衡量)会给组织带来灾难,并使组织的大数据技术不能发挥作用。 参与人工智能的大数据分析服务为全球各地的大型行业提供了出色的数据测量和管理服务。通过将数字和统计信息与实际问题和高级机器学习模式配对,策略成功得到实施,而停顿和缺陷则变得非常明显。人工智能将不断地为组织当前的业务结构提供解决方案,并为消费者、产品、服务以及它们之间的关系提供更深入的见解,而不是建立在过时的模型或传统营销模式的基础上。 大数据在未来将会得到广泛应用,对人工智能的需求不断增长将会为企业带来光明的未来。毕竟,组织将为其不断发展的机器学习算法提供大量数据得出深入的见解。

    时间:2020-08-06 关键词: 人工智能 技术 大数据

  • 训练提速60%!只需5行代码,PyTorch 1.6即将原生支持自动混合精度训练

    训练提速60%!只需5行代码,PyTorch 1.6即将原生支持自动混合精度训练

    PyTorch 1.6 nightly增加了一个子模块 amp,支持自动混合精度训练。值得期待。来看看性能如何,相比Nvidia Apex 有哪些优势? 即将在 PyTorch 1.6上发布的 torch.cuda.amp 混合精度训练模块实现了它的承诺,只需增加几行新代码就可以提高大型模型训练50-60% 的速度。 预计将在 PyTorch 1.6中推出的最令人兴奋的附加功能之一是对自动混合精度训练(automatic mixed-precision training)的支持。 混合精度训练是一种通过在半精度浮点数 fp16上执行尽可能多的操作来大幅度减少神经网络训练时间的技术,fp16 取代了PyTorch默认的单精度浮点数 fp32。最新一代 NVIDIA GPU 搭载了专门为快速 fp16矩阵运算设计的特殊用途张量核(tensor cores)。 然而,到目前为止,这些张量核仍然很难用,因为它需要手动将精度降低的操作写入模型中。这就是自动化混合精度训练的用武之地。即将发布的 torc h.cuda.amp API 将允许你只用五行代码就可以在训练脚本中实现混合精度训练! 混合精度是如何工作的 在我们理解混合精度训练是如何工作的之前,首先需要回顾一下浮点数。 在计算机工程中,像1.0151或566132.8这样的十进制数传统上被表示为浮点数。由于我们可以有无限精确的数字(想象一下π) ,但存储它们的空间是有限的,我们必须在精确度(在舍入数字前,我们可以在数字中包含的小数的数量)和大小(我们用来存储数字的位数)之间做出妥协。 浮点数的技术标准 IEEE 754设定了以下标准:fp64, 又名双精度或"double" ,最大舍入误差 ~ 2^-52fp32, 又名单精度或"single",最大舍入误差 ~ 2 ^-23fp16, 又名半精度或"half" ,最大舍入误差 ~ 2 ^-10。 Python float 类型为 fp64,而对内存更敏感的PyTorch 使用 fp32作为默认的 dtype。 混合精度训练的基本思想很简单: 精度减半(fp32→ fp16) ,训练时间减半。 最困难的是如何安全地做到这一点。 注意,浮点数越小,引起的舍入误差就越大。对“足够小“的浮点数执行的任何操作都会将该值四舍五入到零!这就是所谓的underflowing,这是一个问题,因为在反向传播中很多甚至大多数梯度更新值都非常小,但不为零。在反向传播中舍入误差累积可以把这些数字变成0或者 nans; 这会导致不准确的梯度更新,影响你的网络收敛。 2018年ICLR论文 Mixed Precision Training 发现,简单的在每个地方使用 fp16 会“吞掉”梯度更新小于2^-24的值—;—;大约占他们的示例网络所有梯度更新的5% : 混合精度训练是一套技术,它允许你使用 fp16,而不会导致你的模型训练发生发散。这是三种不同技术的结合。 第一,维护两个权重矩阵的副本,一个“主副本”用 fp32,一个半精度副本用 fp16。梯度更新使用 fp16矩阵计算,但更新于 fp32矩阵。这使得应用梯度更新更加安全。 第二,不同的向量操作以不同的速度累积误差,因此要区别对待它们。有些操作在 fp16中总是安全的,而其它操作只在 fp32中是可靠的。与其用 fp16跑整个神经网络,不如一些用半精度另外的用单精度。这种 dtypes 的混合就是为什么这种技术被称为“混合精度”。 第三,使用损失缩放。损失缩放是指在执行反向传播之前,将损失函数的输出乘以某个标量数(论文建议从8开始)。乘性增加的损失值产生乘性增加的梯度更新值,“提升”许多梯度更新值到超过fp16的安全阈值2^-24。只要确保在应用梯度更新之前撤消缩放,并且不要选择一个太大的缩放以至于产生 inf 权重更新(overflowing) ,从而导致网络向相反的方向发散。 将这三种技术结合在一起,作者可以在显著加速的时间内训练好多种网络以达到收敛。至于benchmarks,我建议读一读这篇只有9页的论文! 张量核(tensor cores)是如何工作的 虽然混合精度训练节省内存(fp16矩阵只有 fp32矩阵的一半大小) ,但如果没有特殊的 GPU 支持,它并不能加速模型训练。芯片上需要有可以加速半精度操作的东西。在最近几代 NVIDIA GPU中这东西叫: 张量核。 张量核是一种新型的处理单元,针对一个非常特殊的操作进行了优化: 将两个4 × 4 fp16矩阵相乘,然后将结果加到第三个4 × 4 fp16或 fp32矩阵(一个“融合乘法加(fused multiply add)”)中。 更大的 fp16 矩阵乘法操作可以使用这个操作作为他们的基本构件来实现。由于大多数反向传播都可以归结为矩阵乘法,张量核适用于网络中几乎任何计算密集层。 陷阱: 输入矩阵必须是 fp16。 如果你正在使用带有张量核的 GPU 进行训练,而没有使用混合精度训练,你不可能从你的显卡中得到100% 的回报! 在 fp32中定义的标准 PyTorch 模型永远不会将任何 fp16数学运算应用到芯片上,因此所有这些极其强悍的张量核都将处于空闲状态。 张量核在2017年末在上一代Volta体系结构中被引入,当代Turing有了一些改进,并将在即将推出的Ampere中看到进一步的改进。云上通常可用的两款GPU 是 V100(5120个 CUDA 核,600个张量核)和 T4(2560个 CUDA 核,320个张量核)。 另一个值得记住的难题是firmware。尽管 CUDA 7.0或更高版本都支持张量核操作,但早期的实现据说有很多 bug,所以使用 CUDA 10.0或更高版本很重要。 Pytorch 自动混合精度是如何工作的 有了这些重要的背景知识,我们终于可以开始深入研究新的 PyTorch amp API 了。 混合精度训练在技术上已经永远成为可能: 手动运行部分网络在 fp16中,并自己实现损失缩放。自动混合精度训练中令人兴奋的是“自动”部分。只需要学习几个新的 API 基本类型: torch.cuda.amp.GradScalar 和 torch.cuda.amp.autocast。启用混合精度训练就像在你的训练脚本中插入正确的位置一样简单! 为了演示,下面是使用混合精度训练的网络训练循环的一段代码。# NEW标记定位了增加了新代码的地方。 self.train() X = torch.tensor(X, dtype=torch.float32) y = torch.tensor(y, dtype=torch.float32) optimizer = torch.optim.Adam(self.parameters(), lr=self.max_lr) scheduler = torch.optim.lr_scheduler.OneCycleLR( optimizer, self.max_lr, cycle_momentum=False, epochs=self.n_epochs, steps_per_epoch=int(np.ceil(len(X) / self.batch_size)), ) batches = torch.utils.data.DataLoader( torch.utils.data.TensorDataset(X, y), batch_size=self.batch_size, shuffle=True ) # NEW scaler = torch.cuda.amp.GradScaler() for epoch in range(self.n_epochs): for i, (X_batch, y_batch) in enumerate(batches): X_batch = X_batch.cuda() y_batch = y_batch.cuda() optimizer.zero_grad() # NEW with torch.cuda.amp.autocast(): y_pred = model(X_batch).squeeze() loss = self.loss_fn(y_pred, y_batch) # NEW scaler.scale(loss).backward() lv = loss.detach().cpu().numpy() if i % 100 == 0: print(f"Epoch {epoch + 1}/{self.n_epochs}; Batch {i}; Loss {lv}") # NEW scaler.step(optimizer) scaler.update() scheduler.s 新的 PyTorch GradScaler 对象是 PyTorch 实现的损失缩放。回想一下在“混合精度如何工作”一节中提到,在训练期间,为了防止梯度变小到0,某种形式的缩放是必要的。最佳的损失乘数得足够高以保留非常小的梯度,同时不能太高以至于导致非常大的梯度四舍五入到 inf产生相反的问题。 PyTorch使用指数退避(exponential backoff)来解决这个问题。Gradscalar 以一个小的损失乘数开始,这个乘数每次会翻倍。这种逐渐加倍的行为一直持续到 GradScalar 遇到包含 inf 值的梯度更新。Gradscalar 丢弃这批数据(例如跳过梯度更新) ,将损失乘数减半,并重置其倍增时间。 通过这种方式逐级上下移动损失乘数,PyTorch 可以随着时间的推移近似得到合适的损失乘数。熟悉 TCP 拥塞控制的读者应该会发现这里的核心思想非常熟悉!该算法使用的准确数字是可配置的,你可以直接从docstring中看到默认值: torch.cuda.amp.GradScaler( init_scale=65536.0, growth_factor=2.0, backoff_factor=0.5, growth_interval=2000, enabled=True ) Gradscalar 需要对梯度更新计算(检查是否溢出)和优化器(将丢弃的batches转换为 no-op)进行控制,以实现其操作。这就是为什么 loss.backwards()被 scaler.scale(loss).backwards()取代, 以及 optimizer.step()被 scaler.step(optimizer)替换的原因。 值得注意的是,GradScalar 可以检测并停止overflows(因为 inf 总是坏的) ,但是它无法检测和停止underflows(因为0通常是一个合法值)。如果你选择的初始值太低,增长间隔太长,你的网络可能会在 GradScalar 介入之前underflow并发散。由于这个原因,选择一个非常大的初始值可能是一个好主意。 最后,注意 GradScalar 是一个有状态对象。使用此功能保存模型checkpoint需要和模型权重一起写入和读取磁盘。用 state _ dict 和 load _ state _ dict 对象方法(在 PyTorch 文档中有介绍)可以很容易地做到这一点。 自动混合精度训练拼图的另一半是 torch.cuda.amp.autocast 上下文管理器。Autocast实现了 fp32-> fp16转换。回想一下“混合精度是如何工作的“中的内容,由于不同的操作以不同的速率累积误差,并非所有的操作都可以在 fp16中安全运行。下面的截图来自 amp 模块文档,介绍了autocast如何处理 PyTorch 中可用的各种操作: 这个列表主要由矩阵乘法和卷积两部分组成,还有简单的线性函数。 这些操作在 fp16中是安全的,但是在输入有 fp16和 fp32混合的情况下,这些操作具有向上适配(up-casting)规则,以确保它们不会出问题。注意,这个列表还包括另外两个基本的线性代数运算: 矩阵/向量点积和向量叉积。 对数、指数、三角函数、正规函数、离散函数和(大)和在 fp16中是不安全的,必须在 fp32中执行。 通过浏览这个列表,在我看来,大多数层都会从autocasting中受益,这要归功于它们内部对基本线性代数操作的依赖,但大多数激活函数却不是。卷积层是最大赢家。 启用sutocasting非常简单。你只需要做的就是使用autocast上下文管理器包好模型的正向传播: with torch.cuda.amp.autocast(): y_pred = model(X_batch).squeeze() loss = self.loss_fn(y_pred, y_batch) 以这种方式包装前向传播,可以自动打开后传(如 loss.backwards ())的autocasting,因此不需要调用两次autocast。 只要你遵循PyTorch 的最佳实践(例如,避免in-place操作) ,autocasting基本上就可以“正常工作”。它甚至可以使用多GPU DistributedDataParallel API (只要遵循建议的策略,每个 GPU 只使用一个进程)。只需一个小调整,多GPU DataParallel API也可以用。Pytorch 文档中的 Automatic Mixed Precision Examples 页面的“Working with multiple GPUs”部分是关于这个主题的一个方便的参考。个人观点,有一个要记住的重点是: "优先用 binary cross entropy with logits 而不是 binary cross entropy"。 Benchmarks性能 此时,我们已经了解了什么是混合精度,什么是张量核,以及 PyTorch API 如何实现自动混合精度。唯一剩下的就是看看一些真实世界的性能benchmarks! 我曾经用自动混合精度训练过三个非常不一样的神经网络,还有一次没用,通过 Spell API 调用 V100s (上一代张量核)和 T4s (当代张量核)。我分别使用了 AWS EC2实例、 p3.2xlarge 和 g4dn.xlarge,最近的 PyTorch 1.6 nightly 和 CUDA 10.0。所有模型的收敛都是一致的,即没有一个模型发现混合精度网络和原网络在训练损失上有任何差异。训练的网络如下: 前馈, 一个前馈神经网络,训练数据来自Kaggle比赛Rossman Store Samples UNet, 一个中等大小的原版UNet 图像分割网络, 在数据集Segmented Bob Ross Images 上训练 BERT, 一个大的 NLP transformer 模型,使用bert-base-uncased 骨干(通过 huggingface),及数据来自Kaggle竞赛 Twitter Sentiment Extraction 结果如下: 由于前馈网络非常小,混合精度训练对它没有任何好处。 UNet 是一个中等规模的卷积模型,共有7,703,497个参数,从混合精度训练中得到了显著的好处。有趣的是,虽然 V100和 T4都受益于混合精度训练,但 T4的好处要大得多: 节省5%时间vs. 高达30%的时间。 BERT 是一个很大的模型,在这里使用混合精度训练节省时间,从中等模型的“很好”到了“必须拥有”。在Volta或Turing GPU 上训练,自动混合精度将为大型模型减少50% 到60% 的训练时间! 这是一个巨大的优势,尤其是当你考虑到增加的复杂性极小时—;—;只需要对模型训练脚本进行四到五行代码修改。在我看来: 混合精度应该是你对模型训练脚本进行的最先性能优化之一。 内存呢? 正如我在“混合精度是如何工作的”一节中解释的那样,在内存中fp16矩阵的大小是fp32矩阵的一半,因此,混合精度训练的另一个据称的优势是内存使用率。GPU 内存的瓶颈远小于 GPU 的计算能力,但仍有很大的优化价值。你的内存使用效率越高,你可以在 GPU 上使用的batch size就越大。 PyTorch 在模型训练过程开始时保留一定数量的 GPU 内存,并在训练期间保留这些内存。这可以防止其它进程在训练过程中抢占过多的 GPU 内存,迫使 PyTorch 训练脚本崩溃并出现 OOM 错误。 以下是启用混合精度训练对 PyTorch 内存保留行为的影响: 有趣的是,虽然两个较大的模型都看到了切换到混合精度的好处,UNet 从切换中得到的好处比 BERT 多得多。PyTorch 内存分配行为对我来说非常不透明,所以我不知道为什么会出现这种情况。 总结 在即将发布的 PyTorch 1.6版本中,自动混合精度训练是一个易于使用且功能强大的新特性,该版本承诺将在最新的 NVIDIA GPU 上运行的大型模型训练工作加快60% 。 虽然这种技术已经存在了一段时间,但是对于普通用户来说还不是很容易理解,因为直到现在它还没有一个原生 PyTorch API。 要直接从源代码中了解更多关于混合精度训练的信息,请参阅 PyTorch master 文档中的automatic mixed precision package和automatic mixed precision examples页面。 想自己测试一下这个功能?安装最新的 PyTorch nightly非常简单: 查看 PyTorch 主页上的说明了解如何安装。 想要自己复现这些benchmarks吗?所有模型源代码都可以在 GitHub 上的 ResidentMario/spell-feedforward-rossman, ResidentMario/spell-unet-bob-ross, 和 ResidentMario/spell-tweet-sentiment-extraction 库中获得。

    时间:2020-08-06 关键词: 人工智能 技术 机器学习

  • 8.6M超轻量中英文OCR模型开源,训练部署一条龙

    8.6M超轻量中英文OCR模型开源,训练部署一条龙

    本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 要说生活里最常见、最便民的AI应用技术,OCR(光学字符识别)当属其中之一。 寻常到日常办理各种业务时的身份证识别,前沿到自动驾驶车辆的路牌识别,都少不了它的加持。 作为一名开发者,各种OCR相关的需求自然也少不了:卡证识别、票据识别、汽车场景、教育场景文字识别…… 那么,这个模型大小仅8.6M,没有GPU也能跑得动,还提供自定义训练到多硬件部署的全套开发套件的开源通用OCR项目,了解一下? 话不多说,先来看效果。 可以看到,无论文字是横排、还是竖排,这个超轻量模型都有不错的识别效果。 难度略高,且实际生活当中经常遇到的场景也不在话下: 那么,如果情况更复杂一点,这么小的模型能hold住吗? 毕竟,在实际应用场景中,图像中的文字难免存在字符弯曲、模糊等诸多问题。 比如,并不高清的路牌: 主体部分基本都识别无误,只有英文小字部分因为确实比较模糊,识别效果不太理想。 再看一张文字背景复杂的图像识别效果: 出现一个错别字,扣一分。满分10分的话,可以打个9分了。 其实,在实际OCR项目落地过程中,开发者往往面临两个痛点: 1. 无论是移动端和服务器端,待识别的图像数目往往非常多,都希望模型更小,精度更高,预测速度更快。GPU太贵,最好使用CPU跑起来更经济。在满足业务需求的前提下,模型越轻量占用的资源越少。 2. 实际业务场景中,OCR面临的问题多种多样,业务场景个性化往往需要自定义数据集重新训练,硬件环境多样化就需要支持丰富的部署方式。再加上收集数据之类的dirty work,往往一个项目落地中的大部分时间都用在算法研发以外的环节中,迫切需要一套完整全流程的解决方案,来加快研发进度,节约宝贵的研发时间。 也就是说,超轻量模型及其全流程解决方案,尤其对于算力、存储空间有限的移动端、嵌入式设备而言,可以说是刚需。 而在这个开源项目中,开发者也贴心提供了直接可供测试的Demo。 在量子位的实际上手测试中,在移动端Demo上这样一个不到10M的模型,基本上可以做到秒出效果。 在中文公开数据集ICDAR2017-RCTW上,限定图片长边尺寸960px,测试数据与测试条件相同的前提下,将该项目与之前一度登上GitHub热榜的Chineseocr_Lite(5.1k stars)最新发布的10M模型进行测试对比。在模型大小、精度和预测速度方面,结果如下: 该8.6M超轻量模型,V100 GPU单卡平均预测耗时57ms,CPU平均预测耗时319ms。 而Chineseocr_Lite的10M模型,V100单卡预测速度230ms,CPU平均预测耗时739ms。 当然,这里面模型预测速度的提升不仅是因为模型大小更小了,也离不开算法与框架深度适配优化。 项目中给出的Benchmark如下: 作为一名面向GitHub编程的程序员,顿时感到老板再来各种OCR需求都不方了。 而且这个8.6M超轻量开源模型,背后还有大厂背书。 因为出品方不是别人,是国产AI开发一哥百度,他们把这个最新开源的OCR工具库取名:PaddleOCR。 GitHub 地址:https://github.com/PaddlePaddle/PaddleOCR 8.6M的通用OCR模型如何炼成 PaddleOCR发布的超轻量模型,主要由4.1M的检测模型和4.5M的识别模型组成。 其中,检测模型的Base模型采用DB算法,文本模型的Base模型采用经典的CRNN算法。 鉴于MobileNetV3在端侧系列模型中的优越表现,两个模型均选择使用MobileNetV3作为骨干网络,可将模型大小初步减少90%以上。 除此之外,开发人员还采用减小特征通道数等策略,进一步对模型大小进行了压缩。 模型虽小,但是训练用到的数据集却一点也不少,根据项目方给出的数据,模型用到的数据量(包括合成数据)大约在百万到千万量级。 但是也有开发者可能会问,在某些垂类场景,通用OCR模型的精度可能不能满足需求,而且算法模型在实际项目部署也会遇到各种问题,应该怎么办呢? PaddleOCR从训练到部署,提供了非常全面的一条龙指引,堪称「最全OCR开发者大礼包」。 「最全OCR开发者大礼包」 △礼包目录,堪称业界最全 支持自定义训练 OCR业务其实有特殊性,用户的需求很难通过一个通用模型来满足,之前开源的Chineseocr_Lite也是不支持用户训练的。 为了方便开发者使用自己的数据自定义超轻量模型,除了8.6M超轻量模型外,PaddleOCR同时提供了2种文本检测算法(EAST、DB)、4种文本识别算法(CRNN、Rosseta、STAR-Net、RARE),基本可以覆盖常见OCR任务的需求,并且算法还在持续丰富中。 特别是「模型训练/评估」中的「中文OCR训练预测技巧」,更是让人眼前一亮,点进去可以看到「中文长文本识别的特殊处理、如何更换不同的backbone等业务实战技巧」,相当符合开发者项目实战中的炼丹需求。 打通预测部署全流程 对开发者更友好的是,PaddleOCR提供了手机端(含iOS、Android Demo)、嵌入式端、大规模数据离线预测、在线服务化预测等多种预测工具组件的支持,能够满足多样化的工业级应用场景。 数据集汇总 项目帮开发者整理了常用的中文数据集、标注和合成工具,并在持续更新中。 目前包含的数据集包括: 5个大规模通用数据集(ICDAR2019-LSVT,ICDAR2017-RCTW-17,中文街景文字识别,中文文档文字识别,ICDAR2019-ArT) 大规模手写中文数据集(中科院自动化研究所-手写中文数据集) 垂类多语言OCR数据集(中国城市车牌数据集、银行信用卡数据集、验证码数据集-Captcha、多语言数据集) 还整理了常用数据标注工具(labelImg、roLabelImg、labelme)、常用数据合成工具(text_renderer、SynthText、SynthText_Chinese_version、TextRecognitionDataGenerator、SynthText3D、UnrealText) 并且开源以来,受到开发者的广泛关注,已经有大量开发者投入到项目的建设中并且贡献内容。 真·干货满满。 体验一下? 看到这里,你心动了吗?如果还想眼见为实,PaddleOCR已经提供了在线Demo,网页版、手机端均可尝试。 感兴趣的话收好下面的传送门,亲自体验起来吧~ 传送门: 项目地址:https://github.com/PaddlePaddle/PaddleOCR 网页版Demo:https://www.paddlepaddle.org.cn/hub/scene/ocr 移动端Demo: https://ai.baidu.com/easyedge/app/openSource?from=paddlelite

    时间:2020-08-05 关键词: 人工智能 技术 机器学习

  • 扩展人工智能规模的三个成功因素

    为了从人工智能中获得更多收益,管理者必须改变使用技术的方式。 采用人工智能的热情从未像现在这么高。首席信息官和其他高管意识到迫切需要做出转变,即从试验一次性的人工智能到能够获得强大的贯穿全组织的能力,后者是敏捷性和业务增长的来源。 埃森哲公布的一份新报告发现,84%的企业高管认为必须扩展人工智能才能实现增长目标,75%的人认为,如果无法扩展人工智能,他们五年内可能会破产。有76%的人承认,就贯穿全组织扩展人工智能而论,他们遇到了困难。 他们如何做出这种转变? 该研究指出了扩展人工智能的三个关键成功因素:企业高管带头做出了一系列承诺,例如部署意向式人工智能,建立强大的数据基础并创建遍布整个组织的多学科人工智能团队。 驾驶由意向式人工智能驱动的车辆 如果人工智能计划没有完全以业务战略为基础并且缺乏有助于监督管理的治理架构,那么这样的计划肯定进展缓慢。将最基本的事情做好才是本质所在,即具备明确的战略和运营模型,具备能衡量价值的责任明确且灵活的业务流程,并且具备明确的问责制和适当的资金水平。 关掉数据噪音 几乎所有接受调查的公司(95%)都一直认同数据作为扩展人工智能根基的重要性。然而,经过数年对海量信息进行收集、存储和分析后,大多数组织都在为庞大的数据量以及如何清除,管理,维护和使用数据而苦苦挣扎。 各大公司必须关注关键业务数据,关注如何创建和管理数据。使用更大,更准确的数据集并同时能够将内部和外部数据集作为标准实践进行整合的公司将更为成功。此外,使用合适的人工智能工具来管理应用程序的数据,这很重要。基于云端的数据湖,数据工程/数据科学工作台以及数据和分析搜索功能等在这里也都很重要。具备高度意向性,重点确保正确,高度相关的数据资产落实到位,从而为人工智能工作提供支持,这才是本质所在。这些公司不应以数据为借口放慢或限制其计划。 将人工智能视为一项团队运动 以前可能有人认为人工智能部署应该完全由IT部门领导,但研究表明,要成功扩大规模,这些公司应贯穿全组织部署多学科团队。这些团队应该有这些专家组成:数据建模师、机器学习工程师、数据工程师和人工智能工程师、可视化专家、数据质量和训练方面的专家以及其他专家。 尽管首席信息官仍可以在确保这些团队获得高层的明确支持并与最高管理层的愿景保持一致方面发挥关键作用,但更为重要的是要不要仅靠一人之力来推动人工智能方面的工作。在组织中安插人工智能专家可以加快文化和行为方面的变革。只要这些组织确保员工全面了解人工智能的本质及其在日常工作中的应用,它们在人工智能扩大规模时则更乐于采纳人工智能。 各行各业的公司都在使用人工智能来改变其工作方式。成功扩展人工智能使公司受益良多,如客户体验得到改善,工人的生产力得到提高等等。如果人工智能成了众望所归的工具,你就能确保人工智能成为业务增长的基石。

    时间:2020-08-05 关键词: 人工智能 技术 it

  • 数据战略:采用云的正确方法是什么?

    数据战略:采用云的正确方法是什么?

    了解为更好地开展业务而制定有效的数据战略的必要性。 数据和云已经成为商业世界中两个无处不在的术语。虽然数据构成了数字化授权的关键管道,为企业带来了创新和增长,但云战略提供了一个平台来交付计算,并充当了它们的存储中心。云还可以使快速响应、用户友好的应用程序具有更大的灵活性。然而,尽管知道云有多重要,但企业往往不太重视设计云驱动的数据架构。他们也不知道糟糕的云和数据管理可能带来的风险,尤其是安全挑战。 企业利用面向数据的策略可能会应对其他重大挑战。这些可以是关于数据可见性、管理、监视和维护多云环境的。管理方面的挑战可能是如何存储和经济高效地复制数据,需要采取哪些步骤来防止数据孤岛。此外,随着新的GDPR政策和其他政策的出台,监管框架也存在问题。 有权迁移到云的企业可能会发现这些问题既苛刻又混乱。但是,为多云世界制定一个清晰的数据策略可能会帮助他们获得大部分的云功能。没有它,领导者可能会发现在管理、访问、保护、管理和从数据中获得洞察力方面都很困难,这与早期云应用者的经历非常相似。因此,必须有一个由多步骤框架、精心设计的战略过程和明确的行动计划组成的数据战略。有了一个精心规划的数据战略,公司可以通过让业务部门和用户访问相关数据来支持业务目标,如增加收入、改善客户体验、降低风险和提高盈利能力,从而快速获得所需的洞察力。 企业可以在其数据战略计划中包括以下几个关键点: 开放数据:数据民主化使每个部门的员工能够访问与其工作相关的关键业务指标的定制、最新报告,从而使他们能够更多地参与业务。这也最大限度地减少了创建数据竖井的可能性。 正确的部署模型:企业数据云,如Cloudera数据平台(CDP),为组织提供了灵活性和灵活性,可以在企业数据战略的指导下以最佳方式部署数据和分析。CDP提供了在需要时部署工作负载的灵活性,同时允许随着业务需求的变化而移动数据和相关的安全和治理策略。这种弹性让组织充分利用了云的优势,因为云是灵活、灵活和可伸缩的催化剂,可以从数据中提取有价值的见解。 持续集成/持续交付:云应该能够管理和控制运行在其上的服务。除此之外,公司的数据库还应处理数据扩展和监视、添加碎片、重新平衡或在重大事件中进行故障转移。通过集成数据库和云原生解决方案,企业可以减轻自己监控数据库和平台的操作负担,并花费更多的时间开发和部署高质量的软件。 随着公司进军云环境,他们必须分析和理解其中的风险。管理不当会导致严重的经济损失和客户市场地位损失。虽然数据是一个利好,但企业领导者必须意识到它正以指数级的速度增长,因此有一个强有力的计划来处理这种情况。

    时间:2020-07-31 关键词: 云计算 技术 大数据

  • 技术没输过销量没赢过,等离子为何被液晶打败?

    技术没输过销量没赢过,等离子为何被液晶打败?

    十多年前,等离子电视算是神话一般的存在,有句话是这样讲的:“外行买液晶,内行选等离子”,足以说明它在技术和显示效果方面的领先。不过时至今日,事实已经告诉我们,液晶电视最终称霸了市场,而昔日王者等离子电视惨败退市,这其中到底发生了什么? 曾经的高端扛把子,等离子电视为何受到亲睐? 在2020年,如果让你买一台高端电视,你多半会选择OLED。如果把时间倒退10到15年,这个答案很有可能就是等离子。它俩有一个共同特点—;—;像素级自发光,每一个像素点都是一个独立的光源,可以单独开关,从而可以实现超高对比度、宽容度和无与伦比的黑场效果。 另外提一句,液晶电视也就是LCD电视,但由于背光更换为LED,所以目前普遍称它为LED电视,不够准确,只是个习惯问题。而OLED和等离子电视在背光源上和液晶电视有着本质区别。 OLED电视实拍图,黑色画面非常震撼 相比于液晶电视,这种优势更加明显,因为液晶电视多采用一整块背光源,显示黑色画面时,只是改变了液晶方向来遮蔽灯光,但背光源还是亮的,所以我们经常能看到液晶电视显示黑色时漏光、泛白。 高端液晶电视会使用分区背光来缓解这个问题,比如把55英寸的屏幕分割成近100个独立背光区域,画面中有黑色时,关闭对应部分背光,以此来提升对比度。尽管如此,发光和不发光部分的衔接处还是会有光晕存在,和像素自发光的电视没法儿比。 中高端液晶电视常采用分区背光 时间倒退十几年,OLED电视还是存在于实验室中的产品,问题很多,很难真正投入量产。即便索尼在2007年就发布了第一款OLED电视 XEL-1,但2000美元的售价加上11英寸的小屏幕让很多流口水的人止住了欲 望,这款电视在上市3年后便停产了。 在那个时候,同样采用自发光技术的等离子电视,即有好的显示效果,又可以将屏幕做得很大,自然更受到消费者喜爱。 等离子电视从技术上来讲,可以说是当时显示面板行业的金字塔。它采用气体放电原理,依靠RGB三原色荧光粉发光,每一个像素都是一个主动发光单元,在发光单元内部实现256级灰度后再进行混色,最终显示出正确的色彩。 这种显示原理让等离子在色彩准确性上相比液晶有着先天优势,数以亿计算的色彩数量与液晶大多为千万级,完全是不在一个水准之上。同时,消费级的自发光显示技术在当时也是绝无仅有,想要那种震撼的明暗对比效果,就只能买等离子。 除了显示效果好,等离子还有些别的优点。比如延迟低,一般来说,液晶电视的延迟都在10ms左右,一些好的电竞显示器最低能做到1ms,而等离子由于是气体放电,延迟属于微秒级,几乎可以看作没有延迟。 另一大优点是护眼,虽然这一点的真实性还不能完全确定,但当时有一些专家认为,等离子电视之所以能够保护视力,主要得益于其适中的亮度、纯正的色彩和稳定的动态图像。并且日本大阪市立大学冈田明教授开展过一项“视觉疲劳实验”,结果显示,长时间观看等离子电视引发的眼部疲劳症状较轻。 包括现在的OLED电视业内也一直把护眼作为其中的一个卖点,目前比较靠谱的说法指出,液晶电视所产生的蓝光波长多在450纳米左右,而OLED电视产生的蓝光波长在460-480纳米之间,根据“波长越短,能量越高”的物理原理,OLED电视所产生的蓝光能量更小,所以对人眼危害更小。 护眼到底是真的还是噱头,这里不做深究,可以确定的是,等离子电视和OLED电视一样,在色彩、对比度等显示效果上是领先于液晶电视的,特别是在十几年前。 优势明显,缺陷也非常致命 等离子电视的失败,首先就要从它的缺陷说起。前面虽然讲了这么多优点,但等离子的显示能力并不是无敌的。 静止画面易烧屏,屏幕寿命堪忧 从用户体验上来讲,等离子最致命的问题是烧屏和寿命。烧屏指的是长时间固定一个画面,可能会留下永久的残影,这点和OLED很相似。不过作为一个前松下等离子电视用户,最困扰我的不是烧屏,而是屏幕寿命。我知道一些人买的等离子用十年也没坏,但从绝大部分用户以及售后的反馈来看,等离子的寿命或者说耐用性实在堪忧。 十年前我家买过一台1万多元的松下等离子电视,用了大概1年,开始出现屏幕故障,中间有一条纯黑色竖带无法显示。之后售后免费更换了内屏,使用1年又出现相同情况,整个使用周期一共出现3次,最终导致家里放弃等离子,换成液晶。 功耗大,夏天发烫严重 等离子电视相比于现在轻薄的液晶电视,算比较厚重的了,而且功率更大,导致发热量更大。我记得我家那台等离子电视尺寸是42英寸,但最大功率高达470瓦,要知道如今的55英寸液晶电视最大功率也不过一两百瓦。 在夏天使用的时候,我偶尔会去摸摸电视背后,即便松下在背后塞入了四五把散热风扇,那感觉还是跟铁板烧一样,我想这也是它寿命低的原因之一。 以上这两点是我作为用户感受最明显的,当然还有一些小毛病,比如低端产品容易产生黄绿拖影、屏幕亮度相比液晶不够高等等。 市场策略和行业竞争是溃败的主要原因 等离子在显示效果方面有绝对的优势,也因此收获了一大票粉丝,尽管烧屏和寿命很关键,但也不至于导致完全退市,毕竟现在的OLED也存在峰值亮度不如液晶、烧屏等问题,不也逐渐解决并成功占领高端市场嘛,真正彻底“杀死”等离子其实是市场和行业层面的因素。 等离子只能做大屏,无法应用于手机平板 以前肯定很多人都没想到这个时代是手机的天下,手机快速崛起一方面让小尺寸屏幕成为香饽饽,一方面也导致电视使用率逐年降低,导致大尺寸屏幕销量减少。等离子在这种背景下,弊端暴露无遗,因为它只能做大尺寸屏幕,而不能应用于手机平板。液晶的优势就很明显了,上到100英寸,下到1英寸都可以做,应用范围十分广泛。 技术门槛高,开发进度慢 等离子技术的复杂程度远远超过液晶电视,液晶主要是面板占大头,图像处理和驱动可以相对做简单一点,而等离子恰好相反,在电路设计、图像处理芯片等方面有很高的要求,厂商们学习起来非常困难且缓慢。 当时的等离子显示技术几乎全被松下掌握,但松下拒绝向其他企业开放技术共同做大市场。不仅如此,由于产能和技术独占,松下出售的等离子面板价格高昂,让其他厂商难以保证利润。 反观液晶阵营,良性竞争的市场环境,让更多生产厂商加入,资金和技术的大力投入使得液晶面板从小尺寸延伸到大尺寸,不足也通过技术迭代逐步改善。最重要的是,液晶电视的画质上来之后,已经足够让大部分普通消费者满意,再加上价格比等离子便宜几倍,自然更愿意选择画质稍差一点,但价格便宜很多的液晶电视。 如今两三千元就能买到一台不错的液晶电视 “三星局中局”,彻底毁掉等离子 2013年,国内一档知名的财经访谈类节目《财经郎眼》专门讲了一期三星如何将等离子置之于死地。郎咸平提到,当时三星故意减产液晶面板,然后向松下抛出橄榄枝,希望能够一起大力发展等离子电视,松下听了非常满意,投入大量资金建新产线。 等到松下资金消耗得差不多的时候,三星突然增产液晶面板,以极低的价格卖给其他电视厂商,使得液晶电视的价格迅速下跌。消费者当然不是傻子,肯定都乐意购买便宜又实用的液晶电视,纷纷放弃等离子。 松下这番操作,可谓是打碎了牙只能往自己肚子里面吞,等到反应过来的时候,其他厂商都积极投身于液晶面板的生产制造,这时候即使松下愿意分享技术也已经没有人愿意再去学了。后面的时候大家也知道,长虹买了,但最终也是失败告终。 谁会是下一个等离子? 郎咸平在节目最后提出了一个设想,也许现在(指2013年)的液晶就是下一个等离子,大批厂商跟着三星一起搞液晶,说不定明天三星就突然放弃液晶,去搞OLED了。 马后炮地说,郎咸平的设想错了,液晶没有死,三星也没有搞OLED,而是搞了QLED。可以肯定的是,液晶电视发展得很好,特别是高端产品更加出色,还有价格便宜、机身超薄等诸多优点。虽然OLED电视某些方面完胜液晶,也被誉为下一代显示技术,但液晶本身也没有致命缺陷,不可能被OLED彻底打败。 索尼高端8K液晶电视Z8H 并且厂商们也具有前瞻性,比如国外的索尼,国内的创维,都在同时布局液晶电视和OLED电视,双线并进,两头的钱一起赚,避免重蹈等离子电视的覆辙。 也许谁是下一个等离子并不重要,从这件事情中厂商们能学到的是,这个时代既要有自己独特的技术,也要学会适当共享,闭门造车最后毁掉的是自己。

    时间:2020-07-31 关键词: 电视 液晶 等离子 技术

  • 人工智能:当下有为 未来可期,助力全球经济复苏

    人工智能:当下有为 未来可期,助力全球经济复苏

    近日,2020世界人工智能大会在中国上海举行。各国大咖云端论道,人工智能的当下作用与未来前景愈发清晰。 在全球协力抗疫的背景下,人工智能被赋予了更多期待和重任,在疫苗药物研发、新型基础设施建设等领域大显身手。与此同时,随着新技术新业态的不断涌现,人工智能凝聚全球智慧、助力全球经济复苏的力量更加凸显。 1.疫情防控人工智能淬炼本领 在新冠肺炎疫情防控期间,人工智能的相关应用大显身手,成为疫情防控的生力军。在疫情监测与分析、人员物资管控、药品研发等方面,人工智能得到了前所未有的淬炼。 《抗击新冠肺炎疫情的中国行动》白皮书指出,利用人工智能和大数据,中国进行疫情趋势研判,开展流行病学调查,努力找到每一个感染者、穷尽式地追踪密切接触者并进行隔离。 复旦大学上海医学院副院长吴凡说,利用人工智能和大数据的溯源,可以快速界定感染者,在人群和感染者之间竖起一道“防护墙”。“有了人工智能和大数据之后,不仅可以了解不同地方散在病例的关联性,还可以对病例发生的时间、环境等进行深入分析。” 百度董事长李彦宏说,百度发明的LinearFold算法可将新冠病毒的全基因组二级结构预测从55分钟缩短至27秒,更快地预测病毒变化趋势,以制定有效的防控措施,提高疫苗研发的效率。 在人工智能大会召开期间,腾讯首席运营官任宇昕对外发布了腾讯人工智能药物研发平台“云深智药”,这一平台将帮助研发人员提升临床前药物发现的效率。据了解,腾讯已和多家药企达成合作,将AI模型应用到实际药物研发项目中,其中就包括对抗新冠病毒药物的相关研发。 在疫情防控一线,人工智能的存在感也很强—;—;人工智能多人体温快速检测解决方案有效降低了火车站、地铁等公共场所工作人员被传染的风险;无人驾驶系统支撑的无接触送餐车和无人消杀作业车,大幅减少和避免了交叉感染…… 在肯定人工智能作用的同时,专家和业内人士也表示:人工智能虽然管用,但在现阶段仍面临着技术上的“天花板”。 “我们没能在武汉暂时关闭离汉通道的时候派遣大量无人车帮助人们解决日常生活问题,也没能通过生物计算快速找到新冠病毒疫苗。”李彦宏坦言,“我们也没能够储备足够多的基础技术和应用,来应对未来相当长一段时间的逆全球化风险”。 复旦大学附属华山医院感染科主任张文宏表示,此次疫情中,人工智能体现出了强大的物资调配能力,帮助政府实现了智能化管理。但这只是人工智能的起点,疫情的控制主要是靠传统智慧和城市管理实现的。 “疫情之后我们需要反思,未来人工智能如何改善城市管理,加快公共卫生体系的预警速度?医疗机构数据如何第一时间汇聚到大数据平台,提前发出警报?”张文宏说。 2.经济复苏人工智能注入动力 在新冠肺炎疫情的冲击下,世界经济格局或已接近从量变到质变的临界点。以人工智能为代表的新技术赋能新业态、新模式,为全球经济复苏注入强劲动力。 截至2019年底,我国人工智能核心产业的规模超过510亿元,人工智能企业超过2600家。今年,尽管受到疫情影响,中国人工智能产业仍然茁壮成长。天眼查专业版数据显示,以工商登记为准,我国今年前5个月新增人工智能相关企业近11万家,同比增长28.54%。任宇昕也表示,今年前4个月,微信生态数字岗位增加近60万个,成为高校毕业生就业的新舞台。 疫情给世界经济带来的创伤,也让更多人看到,未来产业发展将更依赖物联网、人工智能、大数据、云计算等数字“新基建”。专家指出,中国加快推进新型基础设施建设,并非仅仅是为对冲全球性经济下滑而出台的救市之策,而是推动经济转型升级的主动谋划,是一项“既应需求而建,也谋未来而建”的战略布局。 李彦宏认为,AI的发展将经历三个阶段,一是技术的智能化,二是经济的智能化,三是社会的智能化。“目前我们正处于从经济智能化的前半段向后半段过渡的时期,人工智能已经证明或者初步证明了其对所在行业的颠覆和重构潜能。” 在新基建的激励下,不少地方和企业正紧抓“人工智能+新基建”机遇,逐步走出了一条由需求导向引领商业模式创新、市场应用倒逼基础理论和关键技术创新的发展路径。 腾讯高级执行副总裁刘胜义表示,腾讯正持续加码新基建投入和布局,其中人工智能正是重点投入领域,仅腾讯长三角AI超算中心预估投资已超过450亿元。目前在制造、医疗、政务、文旅、金融、游戏、物流、教育、交通等领域,腾讯AI都有广泛的落地。 在人工智能大会期间,上海市发布了一批优秀的人工智能应用场景,包括张江科学城、华东无人机基地、申通地铁等。在此之前,上海已开放两批30个人工智能应用场景,涉及医疗、教育、文旅、城市管理、司法、金融等十大领域。 工信部部长苗圩表示,近年来我国人工智能产业实现了良性发展,一是技术创新日益活跃,语音识别等部分应用技术处于全球领先的水平;二是产业规模持续壮大;三是人工智能与行业融合应用在不断深入,各领域+人工智能的新技术新模式、新业态不断地涌现,前景可期。 3.全球布局人工智能开放合作 据德勤发布的《全球人工智能发展白皮书》预测,到2025年,世界人工智能市场规模将超过6万亿美元。面对数字经济的发展机遇,多个国家和地区已将人工智能列为优先发展的国家战略,在政策及资源上给予前所未有的关注与重视,各大科技巨头也纷纷布下大局。 面对机遇与挑战,在人工智能领域加强合作、实现共赢的呼声愈发强烈。 德国思爱普公司全球首席执行官柯睿安说,中国已成为技术创新的热土,并正在成为AI领域的全球超级大国。“我们期待着未来继续发展业务、增进合作。” “智能互联的未来需要多家公司通力协作。”高通总裁安蒙表示,高通公司一直致力于在全球生态系统内实现合作,并通过合作创造新技术。公司目前已经与全世界和中国的众多领先公司合作,利用5G和AI在多个行业推动创新和增长。据了解,围绕5G和AI,高通创投目前已经投资了60多家中国企业,其中许多已经成为行业内具备较强影响力的创新公司。 特斯拉首席执行官马斯克则透露,正在中国建立相关工程团队,预计未来会在上海工厂中运用更多智能化软件。“我们会在中国做很多原创性工程开发,而不仅仅是简单地把美国的东西搬到中国。” “人工智能是跨越国界的,是需要国际合作的。人工智能的未来,一定是大爱(AI)无疆的。”商汤科技董事长汤晓鸥说,人工智能是一个非常包容的学术领域,人工智能不仅跨越学术研究领域、跨越工业应用行业,也跨越学术和产业边界。最重要的是,人工智能发展的未来,需要各领域的学者、各产业的工程师、各国家的研究人员,紧密合作,共同努力。 苗圩表示,加快人工智能发展,是产业优化升级、提升人类福祉的重要抓手,坚持开放合作是必由之路和全球共识。要集聚全球智慧,加强人工智能相关基础理论、关键技术等研究,支撑新一代人工智能行稳致远。

    时间:2020-07-31 关键词: 人工智能 技术 疫情

  • 研究显示,后疫情时代企业将加速向云服务迁移

    LogicMonitor的新调查结果表明,COVID-19已成为企业快速实施云迁移的强大催化剂,尽管整体情况仍在发展。 LogicMonitor对500位全球IT决策者的研究考察了云工作负载的未来以及COVID-19对澳大利亚、新西兰、北美和英国的IT组织的长期影响。 LogicMonitor于2020年5月至2020年6月进行的Cloud 2025研究发现,全球87%的IT决策者都同意COVID-19大流行将促使组织加速向云的迁移。 具体而言,近四分之三(74%)的受访者认为,在未来五年内,所有工作负载的95%将在云中。 全世界许多IT决策者对此都更加乐观,亚太地区37%的受访者表示,到2022年95%的工作负载将在云中运行,而美国/加拿大的受访者和英国的受访者分别为35%和30% 。 这与2017年进行的类似LogicMonitor研究产生了截然不同的基调,当时13%的研究人员认为这种转变永远不会发生,而62%的受访者认为95%的工作负载在云中运行需要五年或更长时间。 LogicMonitor首席产品官Tej Redkar说:“向前看,今天,COVID-19大流行已经放大了大小型企业中云作为业务运营的重要资产的重要性。” “很明显,组织在危机期间正在加速其云迁移,因为云使他们现在可以远程操作,同时也为数字化转型和持续创新奠定了基础。” 远程工作加速云迁移 受访者明确表示,远程工作是云迁移背后的推动力。一位IT决策者指出:“如果远程工作最初能顺利进行,那么我希望效率会提高,云使用量也会更多。” 另一位调查受访者也表达了这种观点:“在完全远程的劳动力场景中,可以节省办公室租金的成本,但是更多的钱将花在远程IT服务上。一切都将在云中,包括更多的自动化和物联网(IoT)。” 内部部署的下降 LogicMonitor的Cloud 2025调查还显示,随着向云计算的加速迁移,全球IT决策者预计在未来五年内本地(on-prem)工作负载将下降。 根据受访者的说法,在COVID-19之前,有35%的工作负载驻留在本地。但是,他们认为,到2025年,只有22%的工作负载将驻留在本地。下降了13%。 一位IT决策者评论说:“如果每个人都处于远程工作状态,则企业将不得不从本地基础架构切换到更多基于云的基础架构。”他的组织为何加快其云迁移速度。 来自这三个地区的受访者预计,从现在到2025年,本地工作量将大大减少。 在澳大利亚和新西兰,预计到2025年,如今存放在本地的工作负载中由32%将下降到24%。 云工作负载平均分配 受访者认为,即使总体上会有更多工作负载迁移到云中,工作负载仍将在私有云和公共云之间平均分配。 在COVID-19大流行之前,全球IT决策者确定23%的工作负载驻留在公共云中,而25%的工作驻留在私有云中。 到2025年,这些相同的决策者相信28%的工作负载将驻留在公共云中,而30%将存储在私有云中。

    时间:2020-07-30 关键词: 云计算 技术 it

  • 中国人工智能城市竞赛 哪个城市跑得最快?

    中国人工智能城市竞赛 哪个城市跑得最快?

    行业发展现状分析 全球专利申请数量第一 我国为抓住新一轮科技革命和产业变革机遇,近年来大力发展新一代人工智能。在新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进下,我国人工智能技术得到了快速发展,在全球竞争力也得到了显著的提升。2018年,我国人工智能专利申请数量达到94539件,是2010年申请数量的10倍左右。2000-2019年,我国人工智能累计申请专利数超过44万件,位居全球第一。 应用场景广泛,疫情加速AI医疗领域发展 目前,我国人工智能场景应用广泛,涉及的领域包括安防、金融、零售、交通、教育、医疗、制造、健康等。其中,安防和金融是我国目前人工智能应用比较广的领域,我国已建成集数据传输和控制与一体的自动化监控平台,优必选5G智能巡检机器人安巡士在2019年已经正式“上岗”深圳市塘朗派出所,以一键报警、实时视频监控、数据采集等7项警务辅助功能助力警务工作数字化、安防监控智能化。金融行业拥有良好的数据积累,人工智能在工作流程与相关技术的运用上得到了广泛的应用。 此外,人工智能在今年的新冠肺炎防疫工作中发挥了重要作用。在2020年2月,工信部发布的《充分发挥人工智能赋能效用 协力抗击新型冠状病毒感染的肺炎疫情倡议书》中特别提到,充分发挥人工智能在医疗的应用。目前,人工智能上海市已经启动了肺炎人工智能影像辅助诊断产品测试工作,人工智能抗疫产品(肺炎CT辅助诊断产品)进入测试阶段。预计在抗击疫情的催化下,我国人工智能在医疗领域的应用将会快速发展。 全球独角兽企业数量第一 国家政策的利好,人工智能资本的火热,人工智能热门赛道应用场景的不断拓展,也让人工智能领域,成为独角兽公司的集中地。2019年,中国以206家人工智能独角兽企业位居全球人工智能独角兽企业数量TOP4国家榜单榜首。这也成为了国际上更加看好未来中国人工智能产业发展的原因之一。 市场规模增速远超全球平均水平 随着人工智能专用芯片的突破、人工智能应用范围的不断扩大,以及众多人工智能创业公司的诞生和成长,2019年我国人工智能产业规模已经突破500亿元。据中国信通院数据统计,2015年到2018年复合平均增长率高达54.6%,远超全球平均水平(约36%)。 区域对比分析 在如此大的蛋糕下,各地方政府纷纷颁布政策及发展规划推进“自家”人工智能的发展,北京、上海和深圳也是率先搭上这艘快船的三个城市,那么,经过这些年的发展,究竟谁跑得最快? 企业IP竞争力—;—;北京胜 从企业数量上看,北京是全国拥有人工智能企业比较多的城市,数量接近1200家;且企业竞争力也是有目共睹,众多的企业和企业创始人都是从国家重点科研机构和重点高校走出来的。如寒武纪,是由中科院计算所智能处理器中心孵化的人工智能芯片企业;旷视科技,也是由清华姚班的三位毕业生共同创立。 据汇桔网和胡润百富共同发布的最新《2019中国人工智能产业知识产权发展白皮书》的“2019年中国AI企业IP竞争力TOP100企业榜单”中,北京以55家独占鳌头;深圳和上海差距不大,分别有14家和13家。 人才储备—;—;北京胜 相较于国外,我国人工智能起步较晚,人工智能培养体系较落后,但是优秀人才的培养对人工智能企业的发展壮大至关重要,拥有优秀人才能够加快提升人工智能原创性技术研究的突破。因此,人才储备成为了衡量一个地方人工智能竞争力的重要指标之一。在这一方面,北京再次夺冠,2019年北京人工智能人才储备占全国比重的27.9%,遥遥领先于上海和深圳。 此外,根据教育部公布的高校人工智能专业建设资格名单中,北京拥有11所大学获得教育部批准设立人工智能专业,上海也有7所大学设立了人工智能专业,深圳没有大学获得教育部批准。造成这种现象的主要原因是我国知名高等学府主要集中在北京,深圳知名高等学府较少。 不过,被称作“创新型”的深圳,自然要积极努力补足自己的“短板”,因此政府出资创办人工智能研究院,如目前已经成立了深圳智能机器人研究院和深圳人工智能与大数据研究院。此外,腾讯、华为两大科技巨头,也在深圳创办了腾讯优图实验室、腾讯人工智能实验室和华为诺亚方舟实验室。但是,与北京企业设立的人工智能实验室数量来比,深圳仍有些差距。 资本吸引力—;—;北京胜 资本是加快人工智能基础前沿研究、实现关键性技术攻破、推动研究成果落地的重大支持,企业背后的推动力量是资本,但吸引资本的关键来自于企业的发展潜力。北京在这方面依旧遥遥领先。2015-2019年,北京市人工智能企业共获得融资事件高达345件;深圳次之,为179件;上海则发生了156件人工智能融资事件。 前瞻观点—;—;北京跑得最“快” 无论是从企业竞争力、人才储备,还是在资本吸引力上,北京均处于领先地位。因此,前瞻认为,北京被称作人工智能的先驱者与领航者的称号当之无愧,也是目前全国人工智能城市竞赛中跑得最“快”的城市。 更多数据可参考前瞻产业研究院《中国人工智能行业市场前瞻与投资战略规划分析报告》,同时前瞻产业研究院提供产业大数据、产业规划、产业申报、产业园区规划、产业招商引资等解决方案。

    时间:2020-07-30 关键词: 人工智能 技术 疫情

  • 成为数字赢家的秘诀是数据

    成为数字赢家的秘诀是数据

    组织别无选择,只能不断创新,并寻找新的方法来取悦客户。 “在当今这个不确定的时代,除了不断创新,别无选择。与其他人相比,您唯一拥有的可持续优势是灵活性,仅此而已。因为没有别的东西是可持续的,您创造的所有东西,都会被别人模仿。”—;—;Amazon.com创始人兼首席执行官杰夫·贝佐斯。 最近,我们的生活和工作方式发生了前所未有的变化。一方面,云、移动、人工智能和物联网(IoT)等技术的快速发展使组织能够以前所未有的方式更快地创新、创造新的收入来源、高效运营并增强客户体验。另一方面,用户的要求也越来越高。因此,组织别无选择,只能不断创新,并寻找新的方法来取悦客户—;—;那些没有这样做的组织,可能会失去竞争优势并很快没落。 任何数字化举措的一个重要副产品都是数据,并且生成数据的速度、种类和数量都是巨大的。通过将云提供的强大且不断增长的处理能力应用到这些海量数据上,组织可以获得关于如何释放新增长机会的关键见解。 根据Gartner的说法:“到2021年,美国1000强企业中的70%将拥有首席数据官(CDO)。75%的大型企业中的CDO部门将被视为一个关键的职能组织,与IT、业务运营、人力资源和财务部门相当。” 这一强有力的预测概括了数据将在任何数字优化或数字转型项目中发挥的关键作用。下面列出了一些关键问题,这些问题的答案将使组织能够精心制定其数据战略,这在实现其数字梦想方面起着关键作用! 您是否有与业务成果相关的数据战略? 充分了解您希望通过利用数据要实现的业务收益。如果没有将任何数据计划与可衡量的业务目标联系起来,就不要着手实施。例如,通过发现重复项来降低库存成本,很大程度地减少由于客户地址不准确而退回的货物,优化供应链运输成本。这种了解将极大地帮助规划、开辟前进道路,并始终专注于目标。此外,不要仅仅因为其他人都在做,就贸然涉足像人工智能这样的技术。 “正确的战略始于正确的目标。” —;—;著名商业策略师Michael Porter 您当前的数据成熟度是多少? 在不同的数据成熟度级别上,利用数据潜力的流程和工具是不同的。对于一家“部落”级公司来说,着手一个耗资数百万美元的、雄心勃勃的数据治理项目是幼稚的。即使实施了优秀的解决方案,用户的使用量也将是次优的。为什么会这样?因为还没准备好。业务和IT应该作为合作伙伴进行协作,选择正确的用例,并根据数据成熟程度进行明智的投资。只需专注于做正确的事情,以适合您“DNA”的速度,让成熟度不断发展。 您的数据质量如何? 糟糕的数据质量是困扰几乎每个组织的一个问题。它以多种方式对业务运营产生重大影响,如客户满意度低、运营支出增加、违规罚款、上市时间短以及决策不佳等。组织可能拥有大量的数据、比较先进的技术以及应用这些技术的技能,但如果没有高质量的数据,它们就没有任何用处。创建改善数据质量的流程和工具本身就是一项艰巨工作,一个好起点是了解您的数据质量水平。 您打算如何整合数据? 数据以各种格式从多个来源流入—;—;数字和模拟、结构化和非结构化。此外,组织中的不同部门通常使用各种工具和方法来管理其数据。这导致了数据孤岛,这是所有组织中普遍存在的现象。打破这些孤岛,以获得关键的大局观。 不同的业务应用程序之间是否无缝通信? 在大多数大中型企业中,典型的业务应用环境通常非常复杂。它由任务关键型应用程序组成,如企业资源规划、客户关系管理以及特定功能解决方案和工具—;—;制造、采购、人力资源。这些应用程序可以部署在本地(传统的内部服务器)或云(可能是多个云)中,也可以作为软件即服务(SaaS)进行访问。要问的关键问题是,这些不同的应用程序无缝交换数据的程度如何? 您是否正在培养一种数据驱动的文化? 根据IDC的说法,“到2020年,将有90%的公司策略明确将数据视为关键的企业资产,并将分析视为必不可少的能力。” 每个人都承认数据是一种资产,但是,他们很少采取行动来将数据提升为企业资产。您是否将价值与数据联系起来?决策是由数据驱动的吗?IT和业务之间是否存在可信赖的伙伴关系?一种颠覆数据的文化将不断产生颠覆性创新,进而吸引最优秀的人才,而这种良性循环是永无止境的。 您对数据计划采取什么方法? 许多组织采取了大手笔的方法,涉及大量金钱、时间和人员。很多时候,他们对追求的目标没有足够的明确性。不要试图煮沸海洋。成功的关键在于采用精益和灵活方法,并坚持不懈地专注于明确目标。从简单而有影响力的用例开始,并迅速取得成功。此外,用业务用户理解的语言交流成功案例。请记住,很多项目失败是因为缺乏沟通而不是执行! 作为西方艺术史上最具影响力的人物,文森特·梵高(Vincent van Gogh)表示:“伟大的事物是由一系列小事物组合而成的。” 您是否具备释放数据潜力的技能? 从数据中获得可操作的见解并非易事,特别是当其中很大一部分数据是非结构化或不干净时。整合、集成和清理数据需要付出巨大的努力。行业知识、数据科学专业知识、业务应用程序功能知识等技能组合对于辨别趋势和模式是不可或缺的。您内部有这些技能吗?如果没有,请考虑与擅长于此的服务提供商合作。 您是否正在为用户提供易于使用的自助工具 所有职能部门的业务用户都需要随时访问数据,以执行日常操作,如客户服务、结账、开展营销活动、向供应商付款等。然而,他们通常无法直接访问数据,令人惊讶的是,他们甚至无法访问自己拥有的数据。(来源物联之家网)因此,他们依赖于常年忙碌的技术团队。这种依赖性会严重降低组织的工作效率,因此,请为您的业务用户提供易于使用的自助工具。 总而言之,明天的赢家将是那些不遗余力地解码数据并将洞察力作为竞争武器的组织。然而,关键是要有一个经过深思熟虑的数据战略。

    时间:2020-07-29 关键词: 物联网 技术 大数据

  • 经济寒冬之后,是人工智能的春天

    经济寒冬之后,是人工智能的春天

    一家公司选择的经济发展道路往往是依照时代背景来决定的,在不同的经济时局之下选择正确的经济策略, 往往可以成为公司逆转腾飞的转折点。 一般来说,经济繁荣时,公司注重的是整体的发展速度;而在经济困难时期,公司则更加注重生产效率—;—;也就是说,在投入成本最小的条件下实现利益的最大化。 这种说法当然不是空口之谈,我们可以在历史的经验中寻找证据。 自 20 世纪 80 年代以来,几乎在每一次经济大衰退之后,企业家们往往都将公司的发展目标和数字技术紧密捆绑起来,同时也更加注重软件技术的创新。他们都企图在原先生产力不出现严重缩水的条件下,通过利用数字技术帮助减少重复性的工作,从而节省人力资源成本。 而现在,新冠疫情带来的经济衰退,又一次为数字技术和高新科技提供了发展的最佳时机。 有着多年风险投资经历的风投经验专家 Mark Gorenberg 在他之前发表的分析中提到,疫情大流行造成的经济衰退没有成为 AI 的绊脚石,反而成为其发展的加速器。可以说,疫情过后的经济复苏将由迅速发展的人工智能所驱动,也将作为更加适宜的大环境,加速人工智能的应用进一步发展。 经济复苏往往建立在新兴技术之上 美国国家经济研究局(NBER)的经济学家们发现了一个规律:随着经济大萧条的缓慢恢复,大面积的失业人口也随之出现,但同时,这种萧条加速了人们工作性质的进化,即由低端重复性工作向非常规工作的转变。 其实,现有的许多工作任务是可以用自动化完成的,但公司仍然分配给员工高重复性任务,比如说数据分析,来增强他们对数字的判断力,从而进一步提高生产效率和生产质量。这样就形成了一个良性循环,公司既通过增加生产效率获得更丰厚的利润,又提高了员工的工作能力。 但是,在经济大萧条时期中,情况便变得复杂起来。失业率达到最高水平之后,人们会寻找更多提高技能的机会。因此,即使在经济复苏后,尽管较复苏之前的自动化程度有所提高,但失业率却并没有随之上升,反而降至历史低点。 而新冠疫情的流行,将我们又一次被推入了衰退和复苏的循环。当然,相关行业也已经期待着在下一轮的经济复苏中,AI 和机器学习的迅猛发展带来的产业革新,这也将为人工智能企业家创造新的宝贵机会。 参考上世纪 80 年代初的经济低迷时期,成功实现逆流而上、蓬勃发展的公司,都在经济复苏十年的中期开始了首次公开募股(IPO):Lotus(美国汽车品牌)、Microsoft(美国微软公司)、Oracle(美国甲骨文数据公司)、Adobe(著名图形图像和排版软件的生产商)、Autodesk(美国电脑软件公司)和 Borland(美国宝蓝软件公司)。 这些软件的兴起标志着商业企业历史上一个独特的转折点—;—;从总体来看,软件公司对资本支出或人事费用的要求很低,同时,公司的毛利率高达 80% 或更多。这种得天独厚的优越条件使它们在不危及自身生存的前提条件下,具有惊人的增长能力。 也就是说,如果软件公司的企业家愿意接受较低的工资,那么就能实现公司以最少、甚至不需要外部投资的方式迅速建立起来;如果他们能够找到适合早期市场的产品,他们通常就可以自我引导,实现有机增长。 当然,聪明的企业家们会抓住经济衰退的“黄金时期”,来发展自己刚刚起步的软件公司。因为在特殊时期,高质量人才往往能接受较低的工资,这也就意味着更多节省的人力成本。同时,低廉的房租也提供了更多更舒适的空间。 最重要的是,那些同一领域的老牌竞争对手一般都把精力放在维持服务和留住现有客户上,从而暂停了新产品的开发。 大萧条往往是大数据时代发展的开路人 当次贷危机拖垮整个经济时,企业必须留住即将流失的原有客户, 因为预算有限,还要努力降低成本提高生产效率,但这两个目标往往相互矛盾。 大数据未来的想法已经根深蒂固,有远见的高管们认为,解决方案已经在他们的数据中,如果他们能找到的话。但与此同时,老牌软件公司削减了研发支出,这为更新更敏捷的分析公司开辟了沃土。 大多数软件公司在 2009 年都没有增长,但作为网络分析领域的领导者,Omniture 在那一年增长了 80% 以上,这也使得 Adobe 以 19 亿美元的价格收购了它。 Tableau 成立于 2003 年,但一直没有什么起色,直到 2008 年的经济危机—;—; 从 2008 年到 2010 年,它的销售额从 1,300 万美元增长到 3,400 万美元。无独有偶,Splunk 从 900 万美元涨到了 3500 万美元。Ayasdi、Cloudera、Mapr 和 Datameer 都是在大萧条最严重的时候推出的。 当然,如果没有数据科学家,这些公司都不可能蓬勃发展。 正如 1990 年代早期大学加速培养了大量软件开发人员,大萧条期间再次加速了分析专家和数据科学家的出现,从而刺激经济复苏、开始了美国未来十年的经济扩张、就业增长和美国历史上最长的牛市。 现在轮到人工智能了 其实在新冠疫情大流行之前,许多经济学家和企业首席财务官就认为,2020 年经济衰退的可能性至少有 50%。 一年多前,欧盟议会出版的政策杂志也曾预测,下一次的经济衰退,将把人工智能发展推向高潮。该杂志援引伦敦经济学院的米尔科•德拉卡的话说: “我们预计在未来10到15年,基于人工智能和机器人的技术将再次出现激增。” 可以说,那些仅仅预测经济衰退的人,他们还不够悲观。许多公司以前所未有的力度削减了劳动力成本,以适应形势的突然和严峻。当复苏开始时,他们将再次依赖自动化来提高生产。 大西洋理事会就 COVID-19 对全球创新的影响,对100多名技术专家进行了调查。结果显示,即使在大流行期间,这些专家也认为,在未来两到五年内,数据和人工智能的影响将超过生物医学工程。当然,这两者并不相互排斥,他们甚至可以互相促进,比如谷歌的 Deepmind 技术最近使用 AlphaFold 工具来预测复杂的蛋白质折叠模式,这在疫苗的研究中很有用。 即使是那些没有自己生产能力的公司,比如在线零售商,也计划使用人工智能来提高复杂的全球供应链的可靠性。因此,对人工智能人才的需求激增是不可避免的。 2018年,几所主要大学宣布了开发AI人才的举措。 麻省理工学院(MIT)宣布了有史以来对人工智能最大的一项承诺:出资 10 亿美元创建一个计算学院;卡内基梅隆大学创立了第一个人工智能学士学位课程;加州大学伯克利分校宣布成立一个新的数据科学部门;斯坦福大学宣布了一项以人为中心的人工智能计划。 其他数十所学校也纷纷效仿。就像 30 年前的软件开发和 10 年前的数据科学一样,机器学习逐渐从默默无闻的小透明到处处刷着存在感的“知名人物”。 早在 2017 年,几位风投专家就人工智能风险曲线(AI risk curve)写了一篇文章,认为阻碍人工智能应用的不是技术,而是管理者对用不熟悉的软件流程取代一名员工(其表现是已知的)所涉及的风险的认识。 但现在,经济紧缩给了管理者前所未有的压力, 他们被迫降低成本,这也就增加了对采用新技术所带来的的风险的容忍度。在未来一两年,企业将更愿意承担风险,并将新技术集成到他们的基础设施中。 在粮食和农业领域,人工智能将帮助我们理解和适应变化的气候。在基础设施和安全方面,机器学习模型将提高云基础设施的效率、可靠性和性能。更好、更动态的风险模型将有助于企业和整个金融市场应对下一场危机。 为了完成所有这些,将需要大量新的应用人工智能的公司,特别是能够创造更好的开发工具和基础设施、持续优化系统和产品,以帮助规程提高数据质量、安全和隐私。

    时间:2020-07-28 关键词: 经济 人工智能 技术

  • 无线电测控、人脸识别、无人机巡考,高科技护航“史上最严”高考

    无线电测控、人脸识别、无人机巡考,高科技护航“史上最严”高考

    人脸识别验证身份、无线电测控车上街、无人机高空巡考……这些平时人们生活中的高科技,将使用到即将到来的高考中,全力保障高考的公平公正。 7月5日上午,广东省教育厅发布消息,今年广东省普通高考报名人数78.8万人,其中夏季高考考生67.4万人,全省设考点479个、考场23452个。针对高科技作弊风险,广东工信部门启动了188个固定的监测站,派出102台无线电监测监控车,加强对无线电信号监测。此外,今年广东省全部完成考点的视频监控高清改造。 山东作为近期备受关注的省份,今年高考报名已采用人脸识别,不再要求考生在签到表按手印。这个人脸识别考务通,可以对考生进行更准确的身份核验,提高考生身份检录效率。以往核验考生身份可能需要核验一个考生的身份信息需要通过“四对照”需要很长的时间,使用人脸识别考务通设备后,核对一个考生身份信息只需要几秒的时间,准确率甚至比人工核验更高。 早在2018年,教育大省江苏就将很多高科技技术被引进到高考当中。江苏的考生在进入考场前,多了一道程序,也就是刷脸。这个刷脸的设备就是考务通,考生只要将身份证贴在规定区域,正视屏幕,考务通就会将考生身份证上的照片、高考报名的照片和现场拍摄照片,这三张照片进行比对,显示验证过,考生才能够进入考场。 针对近年来,利用无线电技术进行考试作弊的方法日益增多,各地也在加强监测手段。江苏除继续使用金属探测仪进行检查,启动无线电监测车、便携式监测设备对考点周边无线电专项电磁环境进行严密监测外,江苏淮安此前已使用无人机进行场外“巡逻”。 据介绍,空中无人机监测系统可以上升到高空中,搭载监测设备,对无线电作弊信号进行快速的定位和查找,然后通过电子地图给出参考位置,地面人员就可以迅速找到信号源。 7月5日教育部发布的信息显示,根据公安部“净网2020”专项行动和国家教育统一考试工作部际联席会议机制部署,2020年以来,全国公安机关网安部门会同教育部门对利用互联网和无线考试作弊器材实施的各类“涉考”犯罪活动保持高压严打态势,持续对“涉考”违法犯罪活动开展侦查打击,破获刑事案件30余起,抓获犯罪嫌疑人200余名。 今年高考前夕,各地公安机关网安部门连续侦破多起组织考试作弊案,涉案犯罪团伙利用互联网招揽作弊考生,牟取高额经济利益。天津、江苏、广东等地公安机关持续对无线考试作弊器材生产厂商开展侦查打击,摧毁多个器材生产窝点,扣缴窃听、窃照专用器材千余套。 受疫情的影响,今年的高考无疑是特殊的一年,推迟1个月的高考前所未有,而今年高考报名人数1071万人,比去年增加40万,创出历史新高,今年高考也是新冠肺炎疫情发生以来,全国范围内规模比较大的一次有组织的集体性活动。 今年高考提出了提出了“健康高考、公平高考、平稳高考、温馨高考、诚信高考”等五大要求,而公平是大家最关注的,其实,所有高科技、黑科技的所有黑科技的运用,都是旨在保证高考的正常运转,同时也在保证高考的公平有序性,为孩子创造良好的高考环境,帮助他们走向大学的殿堂。

    时间:2020-07-28 关键词: 人脸识别 技术 高考

  • 保护大数据安全成为制造业转型升级“必答题”

    保护大数据安全成为制造业转型升级“必答题”

    中央全面深化改革委员会第十四次会议提出,“以智能制造为主攻方向,加快工业互联网创新发展,加快制造业生产方式和企业形态的根本性变革。”接受中国经济时报记者采访的专家表示,大数据是智能制造与工业互联网的基础,基于业务驱动的工业大数据成为制造业实现从要素驱动向创新驱动转型的关键要素和重要手段。推动工业大数据发展需要加快数据获取、加强数据安全保护、深度挖掘数据价值。 工业大数据是实现智能制造的驱动力 国务院发展研究中心产业经济研究部研究室主任、研究员魏际刚对本报记者表示,大数据是工业企业发展的核心要素之一,企业通过工业大数据来提高资源配置效率,促进供需匹配与创新,减少浪费、降低成本、增加透明度、提高产品质量,提供更多个性化产品与服务,提高企业生产率和竞争力。大数据是智能制造与工业互联网的基础,“无数据不智能”“无数据难互联”。数据重塑制造方式,驱动着传统制造业向智能制造和工业互联网迭代升级。 中国电子信息产业发展研究院规划所研究总监黄玉洁对本报记者表示,工业大数据是实现智能制造的重要驱动力。从企业角度看,工业大数据能为优化企业生产与管理流程以及创新产品、服务、商业模式提供有效支撑,大幅提升企业整体生产效率和产品品质,提高精准制造、高端制造和敏捷制造能力。从行业角度看,工业大数据能促进整个行业生态圈快速聚合,使产业链上下游企业进行更有效的协同。 “智能制造和工业互联网的核心都是利用数据和模型,优化制造资源的配置效率,基于业务驱动的工业大数据成为制造业实现从要素驱动向创新驱动转型的关键要素和重要手段。没有数据,智能制造、工业互联网就是无源之水、无本之木。”黄玉洁说。 做好工业大数据安全保障和开发利用 魏际刚认为,随着大数据价值凸显,大数据的可靠性、安全性问题变得重要。不可靠、不安全的大数据,其后果波及的影响范围之大之广,值得重视。大数据价值在于使用与重复使用,推动工业大数据发展,要加快数据获取、加强数据安全保护、深度挖掘数据价值。 “为推进工业大数据健康发展,要为产业发展营造良好的环境,做好数据安全保障和数据开发利用工作,加快工业大数据平台建设,着重破解企业‘数据孤岛’问题。”黄玉洁说。 虽然我国重视工业大数据保护,近年来不断出台政策,但工业领域大数据保护状况仍不乐观。数据显示,我国34%的联网工业设备存在高危漏洞,这些设备的厂商、型号、参数等信息长期遭受恶意嗅探,仅2019年上半年嗅探事件就高达5151万起。 黄玉洁建议,为确保工业大数据安全,既要鼓励和引导企业及科研院所加大访问控制、加密传输、数据脱敏等安全技术攻关,强化技术保障,还要加快构建工业数据安全管理体系。在确保数据安全的前提下,要挖掘工业大数据价值,引导工业企业加强与数据服务企业的联合攻关和协同创新,促进业务需求与数据算法的有机结合,将业务需求转化为大数据支撑的数学分析。 “2020年以来,5G全面开启,为工业大数据的传输交互提供了良好条件,但与互联网大数据相比,工业大数据全面采集仍有较长的路要走,工业大数据的汇聚、共享、深度应用和数据治理仍存在障碍,亟待加强体制机制创新和政策保障。”黄玉洁说。 魏际刚建议,为确保大数据安全,政府需要从理念、监管、技术、行业、企业等多维入手,综合施策。从理念层面,要树立大安全观,把大数据安全纳入国家总体安全战略。从中央到地方要构建起强有力的监管体系,完善大数据法律法规与政策体系。从技术层面,设计建构更加完善的大数据安全保护体系。还要加强行业自律,明确数据应用规范与数据安全边界等。“大数据开发利用会成为未来竞争的战略焦点之一。中国要制定好大数据战略,健全完善与大数据相关的法律与政策体系。”

    时间:2020-07-27 关键词: 技术 安全 大数据

  • 5G成国内云计算巨头反超国际巨头新跳板?

    云计算作为新基建底座中的重要一员备受关注,成为各大巨头从To C到To B抢占互联网下半场的关键赛道之一。 备受瞩目的云计算,在疫情期间的表现更是突出。大量用户涌入在线会议、在线办公等软件,类似于钉钉、企业微信等,甚至出现承载过量而崩溃。而阿里云在最新财报中,超过400亿元的收入,更是使其估值达到770亿美元。 云计算市场的未来可期吸引着无数玩家入场,但是和人工智能一样,在云计算方面同样倒下了一个接一个的玩家。美团云、苏宁云相继宣布停运的消息,同样是云计算战况激烈的战场上,不能忽略的情报。 5G成云计算新动力 云计算的无限潜力,正在成为互联网巨头们渴望的下一个增长点。 Gartner的数据显示,2018年全球云计算市场规模已经达到640亿美元,预计在2020年底将会增加至2461亿美元,在2019年-2023年之间的复合年均增长率达到18%。 国内云计算市场规模同样在日渐扩张,中国通信院发布的《云计算发展白皮书(2019年)》中数据显示,我国云计算市场规模在2018年时达到962.8亿元,增速达39.2%,预计在2022年将会增至1172亿元。 云计算市场规模无论是在国外还是国内都处于扩张阶段,而且随着5G技术的出现,与云计算相辅相成,上云变得更加的快速与方便。 5G技术的出现对于云计算继续前进有着很大的助力,5G技术的超大宽带、超规模连接、超低延时性的三大特性,使网络速度产生飞跃式的进步,万物互联迈向下一个新阶段。而在这背后的庞大数据则需要云计算超强的计算与储存能力支持,企业为了使用这种能力,云计算成为必不可少的一员。 在5G技术的支持之下,云计算的可靠性、效率都会得到一定的提升,在硬件技术有限的情况之下,在云上安装软件甚至会比在本地安装要更加便捷。 而在疫情黑天鹅的影响下,云计算更是成为刚需。无论是日常生活还是办公方面,云计算都是大众保持正常生活不可或缺的。 根据天眼查数据,在2月3日复工的第一日,将近有2亿人使用远程办公软件,云办公的企业达4500家。在众多用户涌入的情况下,钉钉在两天之内直接扩容了2万台云服务器,金山办公甚至启用了金山云的云主机作为支撑。 在这样的情形之下,云计算战场战火更加剧烈。众多的玩家纷纷踏入云端,想要从寻找新的可能性。 阿里云、腾讯云随后崛起 被云计算庞大的市场规模引诱入场的玩家,有的风生水起,有的黯然离场。 有人说,阿里云是马云和王坚一辈子的骄傲。 在2009年云计算还是概念的时候,阿里巴巴力排众议坚持在云计算方面的投入。时至今日,阿里云已经成为云计算中的重量级玩家。 英国调研机构Canalys发布的2019年第三季度中国公共云服务市场报告中,阿里云以45%的市场份额占比排名第一,腾讯云的市场份额为18.6%,AWS的市场份额为8.6%,百度云份额则为8.2%。 阿里云在2013年推出了驾驭5000台服务器的“飞天系统”,之后又与中科院联合成立研究量子计算机的研究室。2017年时,阿里云又向AI产业进军,推出了在城市管理、工业优化方面的ET大脑。 在阿里巴巴发布的2020财年业绩里,阿里云的收入超过400亿,如此强劲的表现,让阿里云的估值水涨船高达到770亿美元。 但是暂时领先的阿里云并不能高枕无忧,阿里云的成功让众多玩家纷纷加紧步入云端的步伐,其他云玩家的表现同样不俗。还有亏损依旧是阿里云摘不掉的标签,亏损的阿里云想要继续保持优势,要做出更多的努力。 2013年成立的腾讯云,依靠着腾讯本身在社交方面以及游戏等领域的巨大天然流量池,获得了惊人的增长,成功在多个场景实现落地。 官方信息显示,2018年财年腾讯云收入增长超过100%达到91亿元。2019年,腾讯云的全年营收突破170亿元,增速为87%,在金融科技以及企业服务业务收入中占比达到17%。 国内云计算战场上竞争激烈的同时,全球范围内云计算的战场更是硝烟四起。而且和全球第一大云市场的美国相比,国内云计算市场依然还有待挖掘。 营收差距 虽然国内云玩家打得水深火热,但不能否认的是和亚马逊、微软相比还存在着较大的差距。 根据Canalys的数据显示,中国云基础设施的吃出增长了63.7%,达到107亿元,成为全球第二大云市场,市场份额为10.8%。但是,IDC的数据同样也说明,国内公共云计算市场和比较大的美国公共云市场相比还是存在着较大差距,美国的云计算支出在2019年达到1240亿美元,是中国市场的十倍之多。 市场调研公司Gartner于4月发布了2019年云计算市场数据显示,亚马逊全球云计算市场份额达到了45.0%,排行第一,微软以17.9%的市场份额排名第二,阿里云则以9.1%的市场份额排行第三。 而在营收方面,亚马逊与微软在云计算方面的表现更是强劲。 亚马逊最新财报数据显示,其云计算平台AWS的营收达到102亿美元,同比增长达到33%;运营利润为30.8亿美元,增长达38.3%。同时亚马逊还表示,AWS的年化收入有可能会超过400亿美元,而与亚马逊合作的对象就包括3M以及Zoom等。 微软则表示在,微软智能云业务板块上收入达122.8亿美元,增长27.2%,而由于国外疫情的缘故,微软云业务Azure的销售额增长达到59%。 和这些强劲对手相比,亏损依然是主旋律的国内云玩家,还需要走更长的路。

    时间:2020-07-27 关键词: 云计算 技术 5G

  • 探索边缘计算作为云计算的补充

    5G网络和向远程运营的重大转变使边缘计算成为企业数字化转型的新领域。 处于边缘的基础正在促使人们对基础设施、远程工作以及组织如何从所取得的进步中获得最大收益的方式进行重新思考。在上周由网络智能平台Kentik主办的一次网络研讨会中,思科公司和StackPath公司的专家讨论了网络边缘的演进如何揭示物联网、远程工作和云计算的新机遇。Kentik公司首席执行官Avi Freedman主持会议。 由于冠状病毒疫情导致社交远离,许多组织正在进行的远程操作引入了意外的因素,甚至加速了边缘计算的增长周期。 思科公司物联网工程和运营高级总监Matt Price说,“我们现在处于优势,我们已经将过去所有办公室中的所有计算和网络资源移到了边缘。” 他表示,这些举措带来了新的挑战,例如处理来自远程站点的流量被路由回中心位置时的网络拥塞。Price说:“我们看到IT世界很快成为边缘,被迫重新考虑他们如何确保流动劳动力。” 组织如何使用边缘计算的加速可能带来云计算的新可能性。StackPath公司首席技术官Wen Temitim说,“边缘计算是对公共云和企业的私有数据中心的补充,它并不能取代公共云。”Temitim表示,例如,边缘可能是运行对网络敏感的应用程序的地方。这将需要确定这些应用程序如何根据流量和不同的运行方式以及需要为多少人口提供服务。他说,“最大的挑战是重新考虑该应用程序架构。第一步将是确定需要演化以在边缘运行的应用程序组件。” Temitim说,边缘计算的定义可以是相对的。例如,超大规模企业和组织可能具有以数据中心为中心的优势。其他公司则将其视为第一级运营商的集合,这些公司相互联系。 Price表示,思科公司认为优势是不同的。他的主要投资项目是一个用于1.5亿多个设备的蜂窝启用和管理的控制中心。他说:“边缘计算实际上是连接到蜂窝网络并管理这些客户流量的设备。” 他表示,思科公司已经看到了这一趋势与工业物联网领域的交汇,边缘计算适用于石油、天然气和运输领域。Price说,“将计算和网络推广到以前根本没有连接的设备上,边缘计算有很多很好的用例。这也使得网络的管理变得复杂,就像连接来自不同来源和技术的设备一样,同时保持了应用程序和功能的无缝交付。” Price表示,今年向蜂窝物联网市场过渡到5G,可以在边缘计算显著增加带宽和降低延迟的应用,而丝毫没有放缓的迹象。例如,汽车制造商正在加入5G,以促进与汽车的连接。 Price说:“来自具有新功能的新车辆的数据量是天文数字。”这包括收集遥测数据并将软件更新推送到车辆。他表示,随着越来越复杂的汽车的问世,数据流有望升级。根据价格,典型的4G网络上的内燃机每月传递约50MB的数据。他说,使用5G的电动汽车每天产生的数据将近1GB。 Temitim表示,对边缘计算更多数据和计算的期望使Stack Path与电信公司讨论了移动、5G的加速以及未来利用平台的问题。Price说,“我们如何获得更多应用程序并在边缘构建生态系统?”思科看到许多客户将更多的工作推向了边缘,他们需要管理快速增长的设备和资源管道。他说:“边缘的应用程序现在正在与真正复杂的云计算应用程序对话。这使他们能够实施四五年前难以想象的事情。”

    时间:2020-07-27 关键词: 云计算 技术 边缘计算

  • 智能汽车时代,你的安全和隐私由谁来保证

    智能汽车时代,你的安全和隐私由谁来保证

    随着电动智能汽车的发展,汽车不再是一个独立的机械硬件盒子,而是拥有感应功能和实时在线的功能。 电动智能汽车给汽车生活带来的变化,主要就是目前充斥在车企宣传文案中的自动驾驶系统和智能车载系统。车企寄望自动驾驶系统让汽车生活更加安全可靠,而智能车载系统则让我们在人、车和生活实现无缝连接。 自动驾驶系统还无法完全保证驾驶安全,智能车载系统则给用户带来隐私泄露的隐患,你在车上做的事、说的话,都将有可能实时在线。 严格意义上的自动驾驶系统,还需要一段不短的时间和技术的更新迭代才能实现。目前正在普及的仅仅是L2级自动驾驶辅助系统,而L3级已经逐渐被行业所放弃,转而将L4级作为下一阶段的努力方向。 人类在驾驶汽车的过程中,酒醉和身体不适等因素,还有车内使用手机和聊天导致的分神分心,都将导致意外事故,而自动驾驶技术致力于在这个层面减少交通意外的发生。 从一定意义上来讲,相对比容易受到情绪、心理和身体等因素影响的驾驶员,足够精细化的机械化传感器和摄像头确实会相对可靠。 就目前发展阶段来说,这仅仅是一个关于未来的发展蓝图,实现汽车自动安全驾驶,需要汽车自动驾驶系统的进化以及相关基础设施的完善。 即便是如此,在自动大灯、自动雨刮、车身稳定系统之外,汽车驾驶辅助系统已经实现车道保持、紧急制动、自适应跟车等功能,甚至特斯拉已经可以识别红绿灯和雪糕筒。 有太多过分夸大的自动驾驶系统宣传导致很多荒诞事情的发生,比如在高速行驶的汽车上睡觉、玩手机,不仅仅对汽车本身,对路上的其它车辆都带来了严重的安全隐患。我们坚信自动驾驶技术未来发展的巨大潜力,从而让人类从汽车驾驶员变成汽车的真正使用者。 在这个未来到来之前,虽然各大车企都在宣传和鼓吹自动驾驶辅助系统,但眼下还存在许多不足和缺陷的系统,汽车驾驶的安全还需要由人类来保证。 只要对当下的自动驾驶技术有足够的认知,驾驶安全还掌握在人类驾驶员手中,但整车的传感器和实时在线则带来了另一个类智能手机的隐私泄露隐患。相信你应该经历过,当你用手机搜索过一项产品,或者仅仅只是跟朋友在聊某些事情,手机中的某些软件就会神奇地给你推荐相关的内容。 在给手机安装某个软件时候,你会被告知需要开放数个权限,比如允许软件读取手机的通话、语音等相关权限。 随着对用户隐私的关注,近期很多软件和平台都会弹窗提醒要用户重新确认相关隐私协议。随着智能手机的功能越来越丰富,用户生活中的所有一切都装入了手中这块永不离身的小砖头,甚至只需要离开一秒钟都会让人焦虑发作。 当我们使用智能手机的功能越多,无缝渗入日常生活和工作各种APP,让大数据比我们更懂我们自己。甚至我们眼前所看到的、所听到的,已经经过大数据精心筛选过的内容,让人无法自拔,深陷其中。 智能汽车同样会让用户陷入同样的场景,当智能汽车系统融入手机系统,人类生活的最后一公里,汽车将会被大数据所侵占。在2019年度的蔚来日,蔚来请来了歌手邓紫棋压轴献唱,原因是蔚来车机上的统计数据显示,邓紫棋是蔚来车主们最喜欢的歌手。特斯拉的哨兵模式,利用汽车的摄像头来持续监控车辆周围环境,在汽车遭遇破坏情况下汽车会发出警报、进行录像并同时通知车主。 就像遍布全城的摄像头,每一辆智能汽车的传感器和摄像头都无不在收集,甚至记录着周边环境发生的事情,汽车实时在线的功能会否成为另类的监控,并带来隐私的问题? 也就是说,我可以开着一辆满载摄像头和网络传输功能的汽车,放在某个特定场景,就可以对这个地点进行全天候的实时在线监控。 对于隐私权的强调,最为直接的例子诚然是苹果数次拒绝美国政府解锁罪犯的手机的要求,即使是罪犯也拥有隐私权。从更高角度来看,美国禁止华为进入其通讯市场并要求同盟国家停止使用,不管华为有没有留下后台,美国作为全球科技领先国家,对这方面的技术是再清楚不过了。 近日,有消息称特斯拉计划将中国用户数据迁至中国,也就是说,眼下每一辆特斯拉汽车在中国收集到的数据,都直接保存在美国特斯拉的服务器,对此并不在中国管控范围之内。 随着越来越多的车企进入,以自动驾驶和智能座舱为代表的汽车智能技术正在快速更新迭代。智能汽车时代真正到来,选择一辆智能汽车已经成为购车的现实可能选择。汽车自动驾驶技术让汽车驾驶更加安全,远期随着汽车驾驶生态环境的完善,还将实现汽车无人驾驶,而眼下汽车驾驶的安全还需要作为驾驶员的你来保证。 整车电气化、智能化和网联化,让汽车功能更加丰富,汽车也拥有更多潜力。如同处于大数据笼罩之下的手机,智能汽车将比你更懂你,从而带来用户隐私泄漏的隐患。 对于眼前的智能汽车,出于对于自动驾驶系统安全性和隐私泄漏的担心,你是否会选择关闭这些智能功能,让汽车成为一辆简单的出行工具?

    时间:2020-07-23 关键词: 技术 安全 自动驾驶

首页  上一页  1 2 3 4 5 6 7 8 9 10 下一页 尾页
发布文章

技术子站

更多

项目外包