FDNN可配置神经网络

来源:
浏览次数: 0



FDNN是加速云推出的基于FPGA可配置深度学习网络加速引擎,它为基于FPGA的AI产品开发搭建了一个整体灵活、高效的软硬件开发环境,能够极大地简化基于FPGA的深度学习研究、缩短深度学习网络FPGA实现的研发周期。SC-FDNN可以广泛应用于深度学习、机器视觉、边缘计算等领域。


系统架构


FDNN可配置神经网络



三层模型产品解决方案


FDNN可配置神经网络


为了满足不同客户的需求,SC-FDNN提供三个层次的深度学习加速IP:L1/L2/L3。加速云FPGA 深度学习计算加速解决方案 由L1~L3 三个层次的深度学习算法IP和接口IP以及对应的配套软件工具组成。



L1层的算法IP


该层级主要实现深度学习的基本算子:卷积、池化、全连接、非线性函数。

支持5x5,3x3,1x1的卷积(卷积核大小支持配置);

支持最大值池化(Max Pooling)和平均值池化(Average Pooling);

支持全连接,支持激活函数可配置,支持Sigmoid,Tanh,Relu,Relu6,Leakyrelu,ELU等选项。

L1层仅完成核心算子的加速,提供对应的SDK接口、用于算子的调用;用户层软件需要控制计算流程,对数据输入和计算结果数据进行处理。该层灵活性最大,客户可根据自己的需要来实现任意深度学习模型;由于存在频繁的数据交互和过程调用,因而该层加速比相对较低。

 


L2层的可配置FDNN处理器


L2实现参数可配置的CNN处理器,包括基本算子和调度器都在FPGA内部实现;这些实现对用户是透明的,用户只需先将在具体模型网络(例如Tensorflow)下得到的训练结果文件转换成FDNN的模型所定义的格式,再通过SDK 就可以将具体的算法在高性能的FPGA硬件系统上实现。本层保持较大的灵活性,同时兼顾高性能的计算加速。

 


L3层的高性能神经网络算法IP


L3层实现全定制的加速网络,性能非常高,支持网络模型参数配置。已实现的常见各种模型包括:VGG16、Lenet、YoloV2、Darknet19、Resnet、LSTM、DNN等。


FDNN可配置神经网络




聚行业优势,创领域品牌 快速开启专属您的全屋智能方案
全国热线电话 86 0755-2955 6666 快速开启
TEL:0571-81112331 (周一至周五 9:00-18:00)
E-mail:customer@speed-clouds.com
Address:杭州市西湖区文一西路830号蒋村商务中心B1-4F
  • 二维码名称
    二维码名称
    扫一扫

Share us:

Copyright ©2018 - 2020 杭州加速云信息技术有限公司  犀牛云提供企业云服务
犀牛云提供企业云服务
X
1

QQ设置

3

SKYPE 设置

4

阿里旺旺设置

5

TEL

  • 0571-81112331
6

官方公众号

返回顶部
展开