当前位置:首页 > 深度神经网络
  • 程序员成功研发去马赛克神器 高清无码效果感人

    程序员成功研发去马赛克神器 高清无码效果感人

    相信一提起马赛克这个东西,不少小伙伴都痛心疾首,虽然最近几年也频繁传出有在研发去除马赛克的软件,一直没有成品问世。不过最近一位程序员及经过不断努力终于完成了这款软件。据悉,这位程序员“deeppomf”用深度神经网络开发出了一个能抹去马赛克让原图重现的神奇程序:DeepCreamPy 。软件被上传分享后,在一周内被下载了500多次。不过目前该软件的局限性还很大,只能完成一些简单的修复。例如本文中将原图在任意位置画上绿色线条进行打码后,在通过DeepCreamPy软件即可进行复原。并且在跟帖中还有不少使用者跟帖晒出了图片处理的前后效果图。为了使这款软件达到更好的效果,作者在短短几个月内收集了超过10万张未打码的原图,但其中95%的图片他都没有仔细看过,只因为太过于浪费时间了。还说自己并不是第一个做这种软件件的人,却是第一个坚持下来的人。

    时间:2018-11-12 关键词: 马赛克 程序员 深度神经网络

  • 这家AI芯片公司厉害了,获微软/英特尔等6大科技公司的千万美元投资

    这家AI芯片公司厉害了,获微软/英特尔等6大科技公司的千万美元投资

    消息,位于美国加利福尼亚州的AI芯片初创企业Syntiant获得由M12(前身为微软风险投资公司)领投的2500万美元B轮融资,其它战略投资者包括亚马逊Alexa基金、应用创投(Applied Ventures)、英特尔资本、摩托罗拉解决方案风险投资、博世风投。Syntiant首席执行官Kurt Busch表示:“我们很高兴得到这些世界上最伟大的科技公司的支持。随着现有和新投资者的加入,我们也增加了董事会成员。未来我们能够将Syntiant的神经网络技术商业化,用于电池供电设备,真正实现普及的人工智能。”作为一家初创公司,Syntiant能获得多家知名科技厂商投资的一个重要的原因就是其产品的独特性。据了解,Syntiant打造的是一类全新的超低功耗、高性能深度神经网络处理器,目标是让任何设备(包括电池供电系统)都能轻松添加语音控制。更具体地说,Syntiant的神经决策处理器(Neural Decision Processor,NDP)没有传统处理器架构的限制,使用模拟神经网络,该网络可以通过极高的内存效率实现极低的功耗,并且具有大规模并行乘法累加计算的能力。Syntian声称与传统的数字存储架构相比,NPD的效率提高提高了约50倍。据悉, Syntiant的第一批产品已经成功流片,该公司在本月早些时候演示了一个原型NDP,它可以同时支持数十种应用程序定义的音频和关键字分类,使开发人员能够创建定制的始终在线的语音用户界面。同时,该处理器针对音频数据速率进行了优化,能够进行扬声器识别,音频事件检测、环境分类、传感器分析。Kurt Busch表示,Syntiant将使用新的融资实现初始产品商业化,并开始研发其第二代芯片,还将扩大Syntiant技术在视频方面的应用。该芯片是20 tera-operations/watt 的NPD,计划于明年上半年开始提供样品。Syntiant获得知名科技公司投资的另一个重要原因就是其AI处理器与投资方的业务能产生一定的联系。英特尔副总裁兼英特尔投资集团总经理Dave Flanagan表示:“边缘端机器学习是定制半导体的新前沿,领投A轮之后,我们对Syntiant取得的进步充满热情。” 博世风投总经理Luis Llovera说道:“Syntiant的技术和产品与博士的产品相关,特别是消费类传感器应用。”亚马逊Alexa基金主管Paul Bernard更是表示:“Syntiant完全符合我们推动语音技术创新的使命,他们的技术具有像Alexa一样巨大的潜力,特别是在需要长续航、低功耗、高精度语音识别的场景中,我们期待与Syntiant合作将语音技术扩展到新的设备和场景。”应用创投负责人Michael Stewart则表示:“Syntiant的神经网络技术以及其以内存为中心的架构非与应用材料(Applied Materials)在材料工程领域的专长非常吻合,因为我们能够在设备性能和新的材料驱动技术方面实现根本性的飞跃。” 摩托罗拉解决方案首席技术官Paul Steinberg说:“由于我们的许多用户的工作环境通常处于危险之中,Syntiant的深度学习能力非常适合资源受限的边缘设备,这些设备可以帮助我们的客户包括警察、石油钻井工人等安全高效地工作。”由此,认为,一家初创公司想要获得融资和巨头的认可,拥有技术的独特性很重要,当然这个独特的技术也需要有非常好的应用前景。如今,许多AI芯片公司都将目光瞄向AI视觉芯片,AI语音芯片似乎被一些人认为是技术含量没那么高的AI芯片,Syntiant似乎证明了只要产品足够好,还是能获得认可。同时,我们也可以看到全球人工智能芯片市场似乎没有降温的迹象。根据Allied Market Research最近发布的一份报告,全球人工智能芯片市场预计到2025年将从2017年的45.2亿美元达到911.9亿美元。推动AI发展的芯片巨头和初创公司都有机会。参考 techstartups、eetimes相关文章:全球最大矿机公司比特大陆开启上市之路,未来AI芯片领域的新标杆?增速惊人!AI芯片市场2025年市场规模将达378亿美元华为力推自研AI芯片,还记得大明湖畔的寒武纪吗?版权文章,未经授权禁止转载。

    时间:2018-11-06 关键词: ai芯片 深度神经网络 语音芯片 syntiant

  • AI能做的太多,还能帮助科学家寻找新粒子?

    AI能做的太多,还能帮助科学家寻找新粒子?

    据国外媒体报道,大型强子对撞机(LHC)可以在一秒钟之内撞击十亿对质子。有时,这台巨大的机器可能会给现实世界带来惊喜,因为在少数碰撞中,会产生一些前所未有的东西。但是,这样的惊喜并没有什么规律可言,物理学家并不确切知道要寻找什么。他们担心,在将数十亿次碰撞所获得的数据梳理成更易管理的数字时,可能会无意中删掉物理学新理论的证据。在搜寻新基本粒子的过程中,物理学家总是需要对粒子的行为作出假设,但新的机器学习算法却不用这么做。在欧洲核子研究中心(CERN)参与超环面仪器(ATLAS)实验的纽约大学粒子物理学家凯尔·克兰默(Kyle Cranmer)说:“我们总是担心自己会把婴儿和洗澡水一起倒掉。”面对智能数据规约的挑战,一些物理学家尝试使用“深度神经网络”的机器学习技术来挖掘相似事件组成的数据海洋,寻找新的物理学现象。在初步使用案例中,深度神经网络通过研究大量标记为“猫”的图片和标记为“狗”的图片,学习如何区分猫和狗。然而,这种方法在寻找新粒子时并不适用,因为物理学家无法为机器提供他们从未见过的东西的图片。因此,物理学家转而采用所谓的“弱监督学习”(weakly supervised learning)方法,即机器从已知粒子开始,利用细化的信息(比如总体上可能发生的频率)来寻找罕见事件。在今年5月份发表于科学预印本网站arxiv.org上的一篇论文中,三位研究人员提出应用相关策略对“撞击狩猎”(bump hunting)进行扩展。这种经典的“粒子狩猎”技术曾用于希格斯玻色子的发现。美国劳伦斯伯克利国家实验室的研究者本·纳赫曼(Ben Nachman)表示,具体的思路是训练机器在数据集中寻找罕见的变化。试想一下,我们可以在猫狗实验的原理基础上做一个游戏:在充满北美森林观察记录的数据集中寻找新的动物物种。假设任何新的动物物种都倾向于聚集在某个特定的地理区域(与新粒子围绕某个特定质量的概念相对应),那算法就应该可以通过邻近区域的系统比较,将它们挑出来。如果加拿大不列颠哥伦比亚省刚好有113只驯鹿,美国华盛顿州有19只驯鹿(即使数据集中有数百万只松鼠),那程序也能在没有直接研究驯鹿的情况下,学会将驯鹿与松鼠区分开来。弱监督学习研究者、俄勒冈大学的理论粒子物理学家说:“这不是魔术,但感觉像魔术一样。”相比之下,粒子物理学中的传统搜索方法通常要求研究人员对新现象是什么样子做出假设。他们会创建一个描述新粒子行为的模型。例如,一个新粒子可能有衰变成一大群已知粒子的趋势。只有在定义了所要寻找的东西之后,他们才能设计出自定义的搜索策略。这项工作通常需要花费一个博士研究生至少一年的时间,而纳赫曼认为,这一过程可以完成得更快、更彻底。有研究者提出了CWoLa算法,即无标签分类(Classification Without Labels),可以搜索任意未知粒子的现有数据,无论该粒子是衰变成两个同类型未知粒子,还是两个同类型或不同类型已知粒子。利用常规的搜索模型,LHC协作机构可能需要至少20年时间来寻找后一种情况的可能性,而目前对前一种情况的搜索仍没有任何结果。参与ATLAS项目的纳赫曼表示,CWoLa算法可以一次完成所有这些工作。其他实验粒子物理学家也认为,这将是一个很有价值的项目。在ATLAS项目中搜寻新粒子碰撞的物理学家凯特·帕查尔(Kate Pachal)说:“我们已经分析了许多可预测的区域,因此接下来我们要开始填补那些尚未分析的角落,这是很重要的一个方向。”去年,她和一些同事就在尝试设计一种灵活的软件,对一系列不同质量的粒子进行处理,但他们中没有人对机器学习有足够的了解。“我想现在是尝试一下的时候了,”帕查尔说道。深度神经网络有希望在不利于目前建模工作的数据中发现微妙的相关性。其他机器学习技术已经成功提高了LHC进行特定任务的效率,比如识别由底夸克粒子产生的“喷注”。在这项工作中,物理学家毫无疑问也会错过一些信号。加州大学欧文分校的粒子物理学家丹尼尔·怀特森(Daniel Whiteson)说:“他们把信息遗留在桌面上,而当你在一个机器上花了100亿美元,你不会想把信息留在桌子上。”不过,机器学习确实充满了程序将手臂混淆为哑铃的警示故事(甚至还有更糟糕的情况)。对于LHC,有人担心机器学习的“捷径”最终反映的是LHC机器本身的各种小问题,而这些问题正是实验物理学家努力想要忽视的。ATLAS项目的物理学家蒂尔·艾费特(Till Eifert)问道:“当你发现一个异常时,你觉得它是新物理学突破呢,还是探测器发生了什么有意思的情况?”

    时间:2018-10-11 关键词: 人工智能 AI 深度神经网络

  • 细看深度学习在ADAS中的应用

    细看深度学习在ADAS中的应用

    内容提纲: ADAS系统包括车辆检测、行人检测、交通标志识别、车道线检测等多种任务,同时,由于无人驾驶等应用场景的要求,车载视觉系统还应具备相应速度快、精度高、任务多等要求。对于传统的图像检测与识别框架而言,短时间内同时完成多类的图像分析任务是难以实现的。 袁雪副教授的项目组提出使用一个深度神经网络模型实现交通场景中多任务处理的方法。其中交通场景的分析主要包括以下三个方面:大目标检测(车辆、行人和非机动车),小目标分类(交通标志和红绿灯)以及可行驶区域(道路和车道线)的分割。 这三类任务可以通过一个深度神经网络的前向传播完成,这不仅可以提高系统的检测速度,减少计算参数,而且可以通过增加主干网络的层数的方式提高检测和分割精度。 以下为当天分享的内容总结。 图文分享总结 一、任务分析   WHO在2009年统计的一个数据显示,在全世界范围内每年由交通事故死亡的人数有123万人。但是我们知道,在朝鲜战争中,整个战争死亡的人数也差不多一百多万。也就是说,每年死于交通事故的人数差不多等于一次非常惨烈的战争的死亡人数了。根据WHO统计,在全世界范围内每年由交通事故造成的死亡人数有123万之多;而发生交通事故90%是由司机人为原因造成的,比如注意力不集中、超速、安全意识弱等等。所以目前减少交通事故的最主要途径通过采用高级辅助驾驶系统(ADAS)就是减少认为错误。   对于ADAS系统,基本上包括这些功能:夜视辅助、车道保持、司机提醒、防撞提醒、车道变换辅助、停车辅助、碰撞疏解、死角障碍物检测、交通标志识别、车道线偏移提醒、司机状态监测、远光灯辅助等。这些功能是ADAS所必备的。 为了实现这些功能,一般其传感器需要包括视觉传感器、超声波传感器、GPS&Map传感器、Lidar传感器、Radar传感器,还有一些别的通信设备。但是我们在市面上看到的大多数传感器其功能其实是比较少的,例如mobile I,它只有车道保持、交通标志识别、前车监测和距离监测的功能,但并不全面。从厂家或者用户的角度来说,自然我们希望能用最便宜的传感器来完成更多ADAS的功能。最便宜的传感器基本上就是视觉传感器。所以我们设计方案时就想,能不能通过算法将视觉传感器实现更多ADAS系统的功能呢?这就是我们整个研发的初衷。 此外,我们还需要考虑ADAS的一些特点。ADAS系统(包括无人驾驶)是在一个嵌入式平台下进行的,也就是说它的计算资源很少。那么我们也必须考虑如何在这样一个计算资源非常少的基础上,保证ADAS系统能够快速且高精度地响应,同时还能保证多任务的需求。这是我们第二个要考虑的问题。   为了解决以上两个问题,我们首先把ADAS的任务分解一下。如图所示,我们将ADAS的任务分解成目标检测与识别、图像分割、摄像机成像目标跟踪、图像分割。我们过去一年多的研发工作其实就是,用一个深度学习框架来同时实现上述这四个的功能。 对于一个前向传播的网络,其计算量和计算时间主要取决于它的参数数量,而80%的参数都来自全链接层,所以我们的第一个想法就是去掉全链接层。其次,网络越深,它的参数就会越多所以如果我们把目标检测与识别、图像分割、摄像机成像目标跟踪、图像分割做成四个网络的话,就会有X4倍的参数。   所以针对这两个考量,我们用一个主干的网络来做前面的运算,然后在后面再根据具体的任务分成多个小的分支加到主干网络上。这样多个图像处理的任务就可以通过一个主干网络的前向传播来完成了,其参数大大减少,计算速度也变的更快。同时我们也能实现多个任务同时进行的需求。另外,在最后我们还可以将多个结果进行融合,驾到训练过程的调整中,这样就可以提高我们结果的可信性。 但是在这个过程中我们也碰到一些难点。第一个难点就是我们在同一个网络中需要将较大的目标(例如车辆)和较小的目标(例如交通标志)同时检测出来。第二个难点是,测速测距时我们需要的目标的位置是非常精确的,目前这个问题我们还没有解决。 二、模型结构   这个是我们设计的网络的一个基本结构。它分为几个部分:主干网络(我们称为解码器)、多个分支(我们称为编码器)和基于CRF的结果融合。现在这个网络我们只设计了两个编码器,一个是检测任务编码器,还有一个是分割任务编码器,以后我们还可以增加其他的编码器。结果融合,主要是想用它来影响主干网络的一些权重选择。主干网络,我们选择了一些比较有人气的算法,例如VGG 16、GoogleNet、ResNet等。分割任务编码器我们用了FCN编码器,检测任务编码器我们用了YOLO9000编码器。 1、主干网络   下面我们来详细看一下这个网络各个部分。首先我们来看主干网络。主干网络我们使用了VGG、GoogleNet或者ResNet。这几个是可选择的。从右侧的这张图(纵轴是网络深度,圈的大小表示模型的大小)我们可以看到ResNet在深度和大小上都比较好,我们选择使用ResNet可以有比较好的实时性。[!--empirenews.page--] 2、FCN语义分割解码器   然后我们看一下FCN语义分割解码器。在神经网络中,一张图片经过主干网络后,再对其提取高维特征图。其实这个过程就是用pooling的方法给它降维。结果到了输出高维特征图时,它只有原图像的1/32大小了。随后我们采用上采样把它升维成原图像大小。上采样的过程就如左侧所示,这个示例中我们将2*2的图像上采样成4*4的图像。   上采样的结果就是解码器预测出来的,我们将它与标注好的图像进行比较运算,算出loss,然后对权重进行修改。在上采样中一个问题就是,比较小的物体是计算不出来的。我们知道一些较浅的卷积层感知阈比较小,它会包含更多比较局部的信息;而较深的卷积层具有较大的感知阈,它能够学习到更加抽象的信息。于是FCN就通过将pool3、pool4和pool5的信息叠加在一起进行上采样,这样就可以做到同时上采样多个尺度的信息了。 3、目标检测/识别解码器 YOLO   其次我们再来介绍一下用于目标检测/识别的解码器YOLO。我们使用的是YOLO V2的解码器,但这里我们先介绍一下YOLO V1。这是YOLO V1的主框架,它的主干网络是Darknet19,我们不用管它。我们重点关注编码器的过程。主干网络输出的特征图,这种特征图会用1*1 的卷积核给正规化成7*7*30的特征图。那么这个30是什么呢?   在这样一个7*7的矩形框中,每一个方形框用一个点来表示。然后我们分别用5维表示包含这个方形框的一个矩形框,其中4维表示x、y、z、w,另外一维为confidence。   在YOLO V1中30维的前10个为两个这样的矩形框。它们的(x,y,z,w)分别表示了坐标预测,而另外一维为confidence预测。另外的20维为类别预测(也就是说在模型中有20种可能出现的例如汽车、行人之类的模型 )。   YOLO V2与V1最大的不同就是采用了Anchor boxes。所谓Anchor boxes就是每个中心预测(例如9种)不同大小和比例的建议框,每一个建议框对应一个4维的坐标预测、1维confidence预测和20维的类别预测。它提出一个非常有意思的思想就是维度聚类,也即现在训练集里通过聚类的方式算出Anchor boxes的大小。这样,例如它从9个boxes选出5个boxes。于是对于VOC数据集,总共就5*(4+1+20)=125个输出维度。   YOLO V2 Anchor boxes的选择以及维度聚类的思想对于我们车载摄像的问题是更有效的,因为我们摄像机的位置是相对固定的,所以我们可以算出每一个目标的大小都是相对比较固定的。 我们在YOLO V2的基础上也做了一些改动。首先是我们做了一些细粒度特征,来检测小目标。其次我们还在浅层特征中进一步地做坐标预测,然后加到我们的整个预测当中,这样可以提高小目标的预测。 4、一些思考   在这个研究的过程中,我们做了一些思考。 首先,在计算机视觉领域里,低中层视觉问题更关注原始视觉信号,与语义信息的联系相对松散,同时也是许多高层视觉问题的预处理步骤。本届CVPR有关低中层视觉问题的论文有很多,涵盖去模糊、超分辨率、物体分割、色彩恒定性(color constancy)。 其次,在最后的层中抽象的特征对分类很有帮助,可以很好地判断出一幅图像中包含什么类别的物体,但是因为丢失了一些物体的细节,不能很好地给出物体的具体轮廓,指出每个像素具体属于哪个物体。 我们该如何将浅层特征和深层特征结合起来呢?这其实还需要进一步的研究。 三、数据库建立   在数据库这方面,我们发现国内的路况与国外路况很不一样,且中国的车的种类也多种多样。所以我们开发了一种半自动标注软件,也就是我们可以通过算法自动完成车辆标注,同时我们还可以手动修正误差较大的标注。目前我们已经标注了5万张矩形标注数据集。我们力争在年底能够开放数据集,另一方面我们也能协助企业建立数据库。   另外在数据库建立方面,我们还要拓展一下数据库类型。例如通过原来白天的图片,我们可以生成黑夜的图片,增加到我们的训练样本中去。 四、结果显示 [!--empirenews.page--]

    时间:2017-10-24 关键词: 无人驾驶 adas 深度神经网络

  • CEVA第二代神经网络软件框架增加对包括谷歌TensorFlow在内人工智能的支持

    专注于智能互联设备的全球领先信号处理IP授权许可厂商CEVA公司发布用于机器学习的第二代神经网络软件框架CDNN2(CEVA深度神经网络)。 l CDNN2 支持从预训练网络至嵌入式系统的最严苛机器学习网络,包括GoogLeNet、 VGG、SegNet、Alexnet、ResNet等等 l CDNN2成为业界首个用于嵌入式系统的软件框架,自动支持TensorFlow™生成的网络 l CDNN2结合CEVA-XM4图像和视觉处理器,为任何带有camera功能的设备提供高能效深度学习解决方案 CDNN2在相机设备上实现本地化的基于深度学习的实时视频分析,与在云端进行的同类分析相比,显著减少了数据带宽、存储需求和延迟,并加强了隐私保护。CDNN2结合CEVA-XM4智能视觉处理器,在用于智能手机、先进驾驶辅助系统(ADAS)、监控设备、无人机、机器人和其它具有相机功能的智能设备上的嵌入式系统中实施机器学习,显著缩短了上市时间并具有低功耗优势。 CDNN2在CEVA第一代神经网络软件框架(CDNN)成功的基础上构建,后者已经被多家客户和合作伙伴采用。CDNN2增添了谷歌机器学习软件库TensorFlow的支持,并且为极其复杂的最新网络拓扑和层级提供更好的功能和性能,还支持全卷积网络,从而允许任何给定的网络使用任何分辨率作为输入。 谷歌TensorFlow移动/嵌入式团队领导Pete Warden评论道:“很高兴看到CEVA支持TensorFlow应用。功耗是在嵌入式设备中成功使得深度学习发挥潜力的关键,CEVA低功耗视觉处理器和CDNN2框架能够帮助各种各样的开发人员在其设备中使用TensorFlow。” CDNN2使用一组增强API,可以提升总体系统性能,包括从CPU直接卸载各种神经网络相关任务至CEVA-XM4,这些增强功能结合“按钮”,可自动将预训练网络转化到CEVA-XM4上无缝运行,增强的CDNN2为开发嵌入式视觉系统提供了显著的上市速度和功率优势。CDNN2生成基于CEVA-XM4图像和视觉DSP的更快速网络模型,与基于CPU和GPU系统相比,显着降低了对功耗和存储带宽的需求。要观看CDNN2 的demo,点击这里。 嵌入式视觉联盟(Embedded Vision Alliance)创始人Jeff Bier评论道:“今天,从汽车至无人机和家用电器在内许多类型系统的设计人员正在其产品中加入嵌入式视觉以提升安全性、自主性和功能性。我热烈欢迎CEVA使用深度学习神经网络推动实施低成本、低功耗的智能视觉部署。” CEVA营销副总裁Eran Briman评论道:“我们在第二代深度学习神经网络框架中实现的提升,是我们与CEVA-XM4客户和合作伙伴累积丰富现场工作经验所取得的成果。他们正在使用CDNN开发和部署深度学习系统,用于包括无人机、ADAS和监控的广泛终端市场。特别地是支持TensorFlow生成网络是一项关键的增强特性,确保我们的客户能够在下一代AI设备中充分利用谷歌功能强大的深度学习系统。” CDNN2旨在用于目标识别、先进驾驶辅助系统、人工智能、视频分析、增强现实(AR)、虚拟现实(VR)和类似的计算机视觉应用。CDNN2软件库作为源代码提供,扩展了CEVA-XM4现有的应用开发套件(ADK)和计算机视觉库CEVA-CV,它具有灵活性和模块性,能够在广泛的网络应用那个支持任一完整的CNN实施方案或特定层。这些网络包括AlexNet、 GoogLeNet、ResidualNet (ResNet)、SegNet、VGG (VGG-19、VGG-16、VGG_S)和 Network-in-network (NIN)等。CDNN2支持最先进的神经网络层,包括卷积、去卷积、池化、全连接、softmax、concatenation和上采样(upsample),以及各种初始模型。它支持全部网络拓扑,包括Multiple-Input-Multiple-Output、每级多层、全卷积网络,以及线性网络(比如Alexnet)。 CDNN2框架的主要组件是离线CEVA网络生成器,只要按下按钮便可将预训练的神经网络转化为嵌入式友好的定点网络。CDNN2解决方案包含基于硬件的开发套件,可让开发人员不仅在仿真中运行网络,还可简便地在CEVA开发板上实时运行网络。

    时间:2016-06-28 关键词: ceva 人工智能 深度神经网络

发布文章

技术子站

更多

项目外包