当前位置:首页 > 芯闻号 > 厂商文章
[导读]作者:LitchllResNet模型前言我们自己训练一个ResNet模型,并在以下三个环境中进行性能的对比。AIStudio CPU: 2 Cores 8GB MemoryAIStudio GPU: V100 16GB VMemEdgeboard训练模型模型使用AIStudio 进行训练,RESNET、M

作者:Litchll

ResNet模型

前言

我们自己训练一个ResNet模型,并在以下三个环境中进行性能的对比。

AIStudio CPU: 2 Cores 8GB Memory

AIStudio GPU: V100 16GB VMem

Edgeboard

训练模型

模型使用AIStudio 进行训练,RESNET、MOBILE训练和预测代码有兴趣的同学请手动移步到百度AI社区相关帖子里查看详细内容。百度AI社区——EdgeBoard板块。

测试结果

我们执行预测,忽略掉预处理的速度,仅仅计算模型前向传播的时间。

对于AIstudio平台,我们计算以下代码的运行时间

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

对于Edgeboard上面的PaddleMobile,我们计算以下代码的运行时间

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

以下为两个模型的评测数据

ResNet

Edgeboard:

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

CPU:

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

GPU:

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

Mobile_Net

Edgeboard:

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

GPU:

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

CPU:

 

图片1.png

总结:

下表为两个模型预测速度的对比,从中来看,其速度相对于V100的GPU甚至还有一定的优势,让人难以相信。个人的分析是由于以下几个原因

Paddle-mobile较为启动预测,与AIstudio的完整版Paddlepaddle相比有启动效率上的优势,AIstudio启动预测可能较慢。

整个预测模型batch size相当于1,发挥不出GPU的优势。

部署预算按三年算的话,GPU V100价格大概是10万,CPU 1万, EdgeBoard 5千,性价比还是蛮高的。如果大家对Edgeboard感兴趣的话,可自行到百度AI市场购买体验,我在这里不做过多赘述。

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

我在进行模型预测的时候,使用钳表对功率进行了大概的估计(条件有限),钳表的读数在0.6A-8A之间变化。结合使用的12V适配器,我大概估计Edgeboard的功耗为8W.

以8W的功耗,在单张图片的预测速度上面领先了几十倍功耗的GPU与CPU。Edgeboard的表现还是令我比较惊喜。本来想继续移植一个前段时间的大尺度的分割网络Unet进行尝试,想继续试试他最大可以跑的模型大小,但似乎Edgeboard目前还不支持分割,存在了一定遗憾。

另外我在进行调试的时候,发现过有几个发布版本的固件不是很稳定,有些op有些问题。还发现了Edgeboard在我的两台笔记本电脑上网络不是很稳定,经常出现相互无法ping通的情况,更换PC后正常,暂时还没发现为什么。

Edgeboard是我第一款接触的嵌入式神经网络加速设备。Paddle-mobile也是我接触的第一个移动端神经网络框架,也是我接触的第一个基于FPGA实现的加速框架。从我了解这个框架到现在仅仅不到半年的时间,已经发布了多个模型转换工具,降低了开发难度,并且支持EasyDL这种方式。虽然目前仍然有一些不成熟的坑需要填,不过相信在软件的迭代下面,它能成为一个很好的嵌入式原型设计平台。

Mobile-SSD模型

这次我们自己训练一个Mobilenet-SSD模型,增加了不同输入维度的情况下,模型运行效率的对比

AIStudio CPU: 2 Cores 8GB Memory

AIStudio GPU: V100 16GB VMem

Edgeboard

训练模型

模型使用AIStudio提供的官方工程进行训练,Mobilenet-SSD训练和预测代码有兴趣的同学请手动移步到百度AI社区相关帖子里查看详细内容。百度AI社区——EdgeBoard板块。

运行预测

我们执行预测,忽略掉预处理的速度,仅仅计算模型前向传播的时间。

对于AIstudio平台,我们计算以下代码的运行时间

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

对于Edgeboard上面的PaddleMobile,我们计算以下代码的运行时间

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

以下图片为预测结果,由于时间有限,没有很细致去训练模型,仅仅对比了模型运行的速度。

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

下表为模型在不同维度下的预测速度的对比,从中来看,其速度相对于V100的GPU基本处于同一个数量级,远远领先与CPU

 

百度大脑EdgeBoard计算卡基于Resnet50/Mobile-SSD模型的性能评测

在之前的文章里我们提到,本来想继续移植一个前段时间的大尺度的分割网络Unet进行尝试,想继续试试他最大可以跑的模型大小,但似乎Edgeboard目前还不支持分割,所以我们更换了目标检测网络进行尝试。在mobilenet-SSD这个模型上,Edgeboard最大可以跑到700*700的输入维度,并且能保持在16fps之上(不包含输入图像的语出过程),基本上具有实时性。

之前我提到的,在我的两台笔记本电脑上网络不是很稳定,经常出现相互无法ping通的情况,目前经过试验之后,发现问题为板子的网卡在与不支持千兆的网卡进行通信时候,不能正确的协商,仍然使用千兆模式,使用以下命令固定为百兆即可正常连接

ethtool -s eth0 speed 100 duplex full

Edgeboard是我第一款接触的嵌入式神经网络加速设备。Paddle-mobile也是我接触的第一个移动端神经网络框架,也是我接触的第一个基于FPGA实现的加速框架。从我了解这个框架到现在仅仅不到半年的时间,已经发布了多个模型转换工具,降低了开发难度,并且支持EasyDL这种方式。虽然目前仍然有一些不成熟的坑需要填,不过相信在软件的迭代下面,它能成为一个很好的嵌入式原型设计平台。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

业内消息,苹果正在中国寻找本土生成式AI提供方,近日传与百度就在中国市场的苹果设备中使用百度的生成式人工智能技术进行了初步谈判,或将在中国市场的苹果设备提供本土AI大模型,因为中国法律要求大模型在被允许使用之前,必须得到...

关键字: 苹果 百度 AI

据报道,百度创始人李彦宏不止一次对外说过百度的AI很牛。去年文心一言出来后,李彦宏声称文心一言和ChatGPT的差距可能在一到两个月左右,差距不大。对此,原搜狗创始人,现百川智能创始人王小川近日在接受采访时犀利吐槽:李彦...

关键字: 王小川 百度 李彦宏 百川智能

业内消息,近日在央视播出的《对话》・开年说节目上,百度创始人、董事长兼首席执行官李彦宏表示,以后不会存在“程序员”这种职业了,因为只要会说话,所有人都能具备程序员的能力。李彦宏认为,未来的编程语言只会剩下两种,一种叫做英...

关键字: 百度 李彦宏 程序员 AI

2月29日消息,在百度2023年第四季度及全年财报电话会上,百度创始人、董事长兼首席执行官李彦宏透露,百度文心大模型推理成本已降至1%。

关键字: 李彦宏 百度

业内消息,近日有媒体报道称,百度计划将量子实验室及设备捐赠给北京量子信息科学研究院,双方正商讨具体细节。此前,阿里达摩院宣布已将量子实验室及可移交的量子实验仪器设备捐赠予浙江大学,并向其他高校和科研机构进行开放。

关键字: 百度 量子实验室 北京量子院

1月1日,港交所公告显示,百度关联方MoonSPV Limited按照此前签署的协议行使合同权利,终止此前与百度与欢聚集团联合签署对YY Live的股权收购协议。Moon表示会就终止股权收购协议后交易未来安排寻求与欢聚集...

关键字: 百度 Moon YY 直播

11月20日消息,OpenAI的内斗大戏又有了进展,根据国外媒体最新报道,OpenAI 想把刚刚被他们驱逐的前CEO山姆·奥特曼(Sam Altman)给重新请回去。

关键字: ChatGPT AI 百度 文言一心

10月9日消息,目前,国内有多家科技大厂陆续发布自家大模型,被业内看作为AI大模型百“模”大战已经打响。

关键字: 文心大模型 百度 人工智能

业内消息,近日百度发布了首个量子领域大模型,并推出了量子写作助手等一系列量子应用产品。与此同时,阿里云宣布开源通义千问 14B 模型及其对话模型 Qwen-14B-Chat,并且免费可商用。

关键字: 百度 量子大模型 阿里云 通义千问

业内消息,近日百度宣布旗下知识增强大语言模型文心一言首批获批将向全社会开放,官方表示广大用户可以在应用商店下载文心一言App 或登陆文心一言官网(https://yiyan.baidu.com)体验。

关键字: 百度 文心一言 大语言模型
关闭
关闭