• 品牌审批没过?小米“造车”再陷风波

    前段时间,某自媒体博主发文称“小米造车遇到坎,品牌审批未通过”引发了网友们的热议。该博主发文称,尽管小米一直想要尽快推出自己的汽车产品,但目前他们仍然未能获得品牌的审批通过,其造车之举也渐渐变了味道,成了类似于“资本无序扩张”的模式。

  • 什么是图神经网络?未来如何发展?

    图是一种数据结构,它对一组对象(节点)及其关系(边)进行建模。近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。图神经网络(GNN)是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN最近已成为一种广泛应用的图分析方法。

  • 自动驾驶效果一般,小米汽车研发进度一般

    小米旗下电动车小米汽车的开发专案传出进度不如预期,最终可能导致产品竞争力下降。

  • 小米裁员6000人,那小米的车还能出来吗?

    据多位小米员工在职场社交平台脉脉爆料称,小米近期将进行大规模裁员,裁员人数或高达6000人,补偿方案为N+2。一名小米员工透露,此次裁员规模较大。据他了解,手机部、互联网部、中国部等多部门均有涉及,但部门之间裁员力度不尽相同。其中,中国区个别部门裁员比例高达75%,互联网部也有团队裁员40%。本轮裁员整体力度暂未明确,据估算或达15%。

  • 循环神经网络 RNN发展史概述

    循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习(deep learning)算法之一,其中双向循环神经网络(Bidirectional RNN, Bi-RNN)和长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络。

  • 什么是自编码器?对机器学习有什么影响?

    AutoEncoder的基本思想是利用神经网络来做无监督学习,就是把样本的输入同时作为神经网络的输入和输出。本质上是希望学习到输入样本的表示(encoding)。早期AutoEncoder的研究主要是数据过于稀疏、数据高维导致计算复杂度高。比较早用神经网络做AutoEncoder的可以追溯到80年代的BPNN和MLP以及当时Hinton推崇的RBM。后来到了2000年以后还坚持在做的只剩下Hinton的RBM了。从2000年以后,随着神经网络的快速兴起,AutoEncoder也得到快速发展,基本上有几条线:稀疏AutoEncoder、噪音容忍AutoEncoder、卷积AutoEncoder、变分AutoEncoder。最新的进展是结合对抗思想的对抗AutoEncoder。

  • 简述卷积神经网络发展进程

    卷积神经网络的发展,最早可以追溯到1962年,Hubel和Wiesel对猫大脑中的视觉系统的研究。1980年,一个日本科学家福岛邦彦(Kunihiko Fukushima)提出了一个包含卷积层、池化层的神经网络结构。在这个基础上,Yann Lecun将BP算法应用到这个神经网络结构的训练上,就形成了当代卷积神经网络的雏形。

  • 售价26万,小米一次性研发了两台汽车?

    近期,关于小米汽车各种传闻不断,不仅疑似测试车谍照被曝光,昨晚又有媒体曝光了小米两款车型的细节和定价区间。从曝光的疑似小米测试车谍照来看,这是一款四门轿车,车头造型比较扁平,拥有宽体的身姿和双五辐式的轮圈,以及黄色的多活塞制动卡钳。据谍照拍摄者表示,测试车的车尾左侧还配有一个固态补盲激光雷达。预计小米汽车未来将提供较为高阶的自动驾驶技术。

  • 什么是深度学习

    深度学习是近10年机器学习领域发展最快的一个分支,由于其重要性,三位教授(Geoffrey Hinton、Yann Lecun、Yoshua Bengio)因此同获图灵奖。深度学习模型的发展可以追溯到1958年的感知机(Perceptron)。1943年神经网络就已经出现雏形(源自NeuroScience),1958年研究认知的心理学家Frank发明了感知机,当时掀起一股热潮。后来Marvin Minsky(人工智能大师)和Seymour Papert发现感知机的缺陷:不能处理异或回路等非线性问题,以及当时存在计算能力不足以处理大型神经网络的问题。于是整个神经网络的研究进入停滞期。

  • 可解释性的标准是什么?

    有一些特定的标准可用于分类模型解释方法。Christoph Molnar在2018年“可解释的机器学习,制作黑箱模型可解释指南”中提到了一个很好的指南。

  • 为什么需要可解释性机器学习?

    在工业界中,数据科学或机器学习的主要焦点是更偏“应用”地解决复杂的现实世界至关重要的问题,而不是理论上有效地应用这些模型于正确的数据。机器学习模型本身由算法组成,该算法试图从数据中学习潜在模式和关系,而无需硬编码固定规则。因此,解释模型如何对业务起作用总是会带来一系列挑战。有一些领域的行业,特别是在保险或银行等金融领域,数据科学家通常最终不得不使用更传统的机器学习模型(线性或基于树的)。原因是模型可解释性对于企业解释模型所采取的每个决策非常重要。

  • 小米汽车工厂一期项目厂房预计今年6月完工

    近日,据相关媒体报道称,公开信息显示,小米汽车工厂项目位于北京亦庄经开区,具体分两期建设,一二期产能皆为15万辆。一期工厂已于2021年4月开工建设,预计今年6月竣工。据悉,该工地总体呈矩形,东西宽度500余米,南北长度超过1公里。工地北边是合创产业中心的一排高楼,东边毗邻辛房路,与房辛店村隔路相望,南边和西边大多为待开发的荒地。

  • 雷军啊小米汽车啥时候来?这都2023年了

    2021年3月29日至30日,这场历时两天的发布会对于小米而言,或将是历史性的一刻。在这场发布会上最重要的一点是,小米集团董事长雷军表示将要进军智能电动汽车行业,直接投入高达100亿美元用于制造“新能源汽车”。

  • 什么是可解释性机器学习

    可解释性是指人类能够理解决策原因的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入运行阶段,向业务方解释模型的内部机制,对模型结果进行解释。比如基金推荐模型,需要解释:为何为这个用户推荐某支基金。

  • 自动机器学习(AutoML)几个重要方向汇总

    学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,后者成为超参数。比如,支持向量机里面的C,Kernal,game;朴素贝叶斯里面的alpha等。

发布文章