FDNN可配置神经网络

来源:
浏览次数: 0


FDNN是加速科技推出的基于FPGA可配置深度学习网络加速引擎,它为基于FPGA的AI产品开发搭建了一个整体灵活、高效的软硬件开发环境,能够极大地简化基于FPGA的深度学习研究、缩短深度学习网络FPGA实现的研发周期。SC-FDNN可以广泛应用于深度学习、机器视觉、边缘计算等领域。



系统架构

FDNN可配置神经网络












三层模型产品解决方案

FDNN可配置神经网络











为了满足不同客户的需求,SC-FDNN提供三个层次的深度学习加速IP:L1/L2/L3。加速科技FPGA 深度学习计算加速解决方案 由L1~L3 三个层次的深度学习算法IP和接口IP以及对应的配套软件工具组成。



L1层的算法IP

该层级主要实现深度学习的基本算子:卷积、池化、全连接、非线性函数。

支持5x5,3x3,1x1的卷积(卷积核大小支持配置);

支持最大值池化(Max Pooling)和平均值池化(Average Pooling);

支持全连接,支持激活函数可配置,支持Sigmoid,Tanh,Relu,Relu6,Leakyrelu,ELU等选项。

L1层仅完成核心算子的加速,提供对应的SDK接口、用于算子的调用;用户层软件需要控制计算流程,对数据输入和计算结果数据进行处理。该层灵活性最大,客户可根据自己的需要来实现任意深度学习模型;由于存在频繁的数据交互和过程调用,因而该层加速比相对较低。

 


L2层的可配置FDNN处理器

L2实现参数可配置的CNN处理器,包括基本算子和调度器都在FPGA内部实现;这些实现对用户是透明的,用户只需先将在具体模型网络(例如Tensorflow)下得到的训练结果文件转换成FDNN的模型所定义的格式,再通过SDK 就可以将具体的算法在高性能的FPGA硬件系统上实现。本层保持较大的灵活性,同时兼顾高性能的计算加速。

 


L3层的高性能神经网络算法IP

L3层实现全定制的加速网络,性能非常高,支持网络模型参数配置。已实现的常见各种模型包括:VGG16、Lenet、YoloV2、Darknet19、Resnet、LSTM、DNN等。


FDNN可配置神经网络



聚行业优势,创领域品牌 快速开启专属您的全屋智能方案
全国热线电话 86 0755-2955 6666 快速开启
杭州加速科技有限公司
地址:中国·杭州·余杭区·余杭街道文一西路1818-1号5G创新园J1层-103M
电话:0571-81112331
传真:0571-81112331
邮编:330520
0571-81112331
Copyright ©2005 - 2013 杭州加速科技有限公司
犀牛云提供云计算服务
回到顶部
X
1

QQ设置

3

SKYPE 设置

4

阿里旺旺设置

5

TEL

  • 0571-81112331
6

官方公众号

返回顶部
展开