• 如何快速安全地为电池充电,充电指南

    任何爱好者都可以快速为电池充电,但您能否在不发生爆炸、过热或电池循环寿命大幅下降的情况下充电? 许多公司已经管理通常使用专门算法的快速充电技术。这些算法考虑了电池的化学性质和某种非标准充电率曲线。许多设备制造商和无线运营商现在为智能手机设备提供至少两年的保修,将 800 次循环设置为电池的电池循环寿命。

  • 电池应用:不要忽视不起眼的电池连接器

    我们经常谈论和担心电池:它们的寿命、安全问题、充电/放电、温度影响和许多其他问题,以至于很容易忘记电池供应链中的一个重要环节:连接器。过去一周发生的两件事,一个在当前范围的极低端,另一个在更高的范围,提醒我,如果没有牢固的连接,最好的电池也是无用的。

  • 新的可再生能源系统,波浪能应用技术

    在可再生能源系统方面,公司最近试图利用三种主要能源:太阳、风和海浪。太阳能电池板现在几乎无处不在。风力涡轮机装置在陆地和海上变得越来越普遍。然而,我们还没有看到太多的是波浪能。不过,新的能量浪潮可能是波浪能。 世界正在转向可再生能源。不够快——还没有——但它正在发生。经典的可再生能源是水电。如果到处建造巨大的水坝很容易逃脱,我们早就做到了。

  • 计算机视觉:通过压缩技术减少 AI 推理所需的内存大小

    今天,我们将讨论计算机视觉。我们将听到 Perceive 的首席执行官 Steve Teig 谈论他提出的一种压缩激活的方法,该方法可以减少 AI 推理所需的内存大小。我们还将先睹为快,了解来自 GrAI Matter Labs 的新型神经形态启发式视觉芯片。

  • 车辆到车辆的通信和车辆到基础设施的通信,使用V2X 技术来畅通交通流

    您经常听到我们谈论如何使用我们的车对车通信或 V2X 技术来畅通交通流,让汽车相互交流,让汽车与红绿灯相通。因此,我们周围的基础设施如何以最佳方式进行管理。我们在汉堡所做的是,我们还展示了如何,例如,自行车骑手、电动滑板车司机如何被周围的其他系统看到,以避免发生事故。

  • LF 能源和索尼计算机科学实验室的名为 Hyphae 的项目,对未来能源的探索

    LF 能源和索尼计算机科学实验室几个月前宣布了一个名为 Hyphae 的项目,这是一个微电网计划,旨在实现可再生能源的点对点分配自动化。这样做的目标是让微电网更高效,使整个电网更加碳中和,只是为了留在页面上,在关于能源的同一页面上。但这是你的项目之一。你能告诉我你在规划的其他项目是什么吗?未来我们最有可能看到开源微电网部署在哪里?

  • 能源在开源方面的未来,电力系统网络未来的模型

    我们现在讨论能源,特别是能源在开源方面的未来。为了减缓和阻止气候变化,我们必须将排放量减少到零。为此,我们需要彻底改变我们的能源系统,只生产可持续和可再生能源。我们还需要可持续且更可靠的电网,能够以最佳方式结合不同的可再生能源。

  • 什么是图神经网络?未来如何发展?

    图是一种数据结构,它对一组对象(节点)及其关系(边)进行建模。近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。图神经网络(GNN)是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN最近已成为一种广泛应用的图分析方法。

  • 循环神经网络 RNN发展史概述

    循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习(deep learning)算法之一,其中双向循环神经网络(Bidirectional RNN, Bi-RNN)和长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络。

  • 什么是自编码器?对机器学习有什么影响?

    AutoEncoder的基本思想是利用神经网络来做无监督学习,就是把样本的输入同时作为神经网络的输入和输出。本质上是希望学习到输入样本的表示(encoding)。早期AutoEncoder的研究主要是数据过于稀疏、数据高维导致计算复杂度高。比较早用神经网络做AutoEncoder的可以追溯到80年代的BPNN和MLP以及当时Hinton推崇的RBM。后来到了2000年以后还坚持在做的只剩下Hinton的RBM了。从2000年以后,随着神经网络的快速兴起,AutoEncoder也得到快速发展,基本上有几条线:稀疏AutoEncoder、噪音容忍AutoEncoder、卷积AutoEncoder、变分AutoEncoder。最新的进展是结合对抗思想的对抗AutoEncoder。

  • 简述卷积神经网络发展进程

    卷积神经网络的发展,最早可以追溯到1962年,Hubel和Wiesel对猫大脑中的视觉系统的研究。1980年,一个日本科学家福岛邦彦(Kunihiko Fukushima)提出了一个包含卷积层、池化层的神经网络结构。在这个基础上,Yann Lecun将BP算法应用到这个神经网络结构的训练上,就形成了当代卷积神经网络的雏形。

  • 什么是深度学习

    深度学习是近10年机器学习领域发展最快的一个分支,由于其重要性,三位教授(Geoffrey Hinton、Yann Lecun、Yoshua Bengio)因此同获图灵奖。深度学习模型的发展可以追溯到1958年的感知机(Perceptron)。1943年神经网络就已经出现雏形(源自NeuroScience),1958年研究认知的心理学家Frank发明了感知机,当时掀起一股热潮。后来Marvin Minsky(人工智能大师)和Seymour Papert发现感知机的缺陷:不能处理异或回路等非线性问题,以及当时存在计算能力不足以处理大型神经网络的问题。于是整个神经网络的研究进入停滞期。

  • 可解释性的标准是什么?

    有一些特定的标准可用于分类模型解释方法。Christoph Molnar在2018年“可解释的机器学习,制作黑箱模型可解释指南”中提到了一个很好的指南。

  • 为什么需要可解释性机器学习?

    在工业界中,数据科学或机器学习的主要焦点是更偏“应用”地解决复杂的现实世界至关重要的问题,而不是理论上有效地应用这些模型于正确的数据。机器学习模型本身由算法组成,该算法试图从数据中学习潜在模式和关系,而无需硬编码固定规则。因此,解释模型如何对业务起作用总是会带来一系列挑战。有一些领域的行业,特别是在保险或银行等金融领域,数据科学家通常最终不得不使用更传统的机器学习模型(线性或基于树的)。原因是模型可解释性对于企业解释模型所采取的每个决策非常重要。

  • 什么是可解释性机器学习

    可解释性是指人类能够理解决策原因的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入运行阶段,向业务方解释模型的内部机制,对模型结果进行解释。比如基金推荐模型,需要解释:为何为这个用户推荐某支基金。

首页  上一页  1 2 3 4 5 6 7 8 9 10 下一页 尾页
发布文章