产品名称

SC-HCCP

产品类别:

2.1硬件架构图

SC-HCCP


      系统由计算节点(GPU服务器、FPGA服务器)、存储节点和管理节点组成。其中计算节点可以完成神经网络训练(GPU服务器),神经网络推理(GPU服务器、FPGA服务器),云计算加速(FPGA服务器),大数据分析加速(FPGA服务器),存储加速(FPGA服务器);存储节点完成大数据的存储;管理节点完成系统的管理和资源动态分配;用户通过客户端登录到系统中完成各种应用的开发和部署,SC-HCCP系统可以根据部署要求动态完成业务分布式部署和调度。

SC-HCCP系统分为四层,分别为:硬件资源层、资源管理层、服务管理层、服务门户层。

2.2软件架构图

SC-HCCP


硬件资源层

包含1到多台CPU服务器、GPU服务器、FPGA服务器和存储服务器,通过以太网交换机互联,利用虚拟化/容器、SDN(软件定义网络)、分布式存储等技术,转化计算、存储、网络三种虚拟资源,提供给上层使用。

(2)资源管理层

由资源申请与部署、资源变更与回收、资源统计与监控、资源调度自动化四个服务构成,通过API接口对外提供资源管理服务,实现资源动态分配、支持水平扩展和容灾备份。

(3)服务管理层

包含大数据平台、深度学习平台、虚拟化云计算平台三部分。提供全虚拟化云服务,预装Tomcat、Apache、nginx、MySQL、Hadoop、Spark、TensorFlow、Caffe、MXNet等多种应用部署环境、深度学习框架和百种常见数据集,提供强大的运维工具,随时按需分配教学与科研的计算资源,最大化计算资源利用率;为方便教学管理提供课堂管理等功能;,为了能实现高性能低延时的系统特性,我们在服务管理层增加了算法加速服务,包括深度学习加速、大数据分析加速、存储加速,支持CPU、FPGA与GPU多种硬件加速设备,为云计算、大数据、物联网和人工智能教学和科研场景的提供综合解决方案支持。

(4)服务门户

在服务管理之上可以提供了各种应用集成和管理集成,从而给人工智能和大数据应用提供了集成开发平台。





2017年7月,国务院发布《新一代人工智能发展规划》重磅文件,将人工智能定位成国家战略,其中第四条加快培养聚集人工智能高端人才又着重提到:建设人工智能学科。完善人工智能领域学科布局,设立人工智能专业,推动人工智能领域一级学科建设,尽快在试点院校建立人工智能学院,增加人工智能相关学科方向的博士、硕士招生名额。鼓励高校在原有基础上拓宽人工智能专业教育内容,形成“人工智能+X”复合专业培养新模式,重视人工智能与数学、计算机科学、物理学、生物学、心理学、社会学、法学等学科专业教育的交叉融合。加强产学研合作,鼓励高校、科研院所与企业等机构合作开展人工智能学科建设。

为了更好的推动人工智能学科建设,加速云推出了异构计算云平台SC-HCCP(Speed-Clouds Heterogeneous Computing Cloud Platform),是针对高校人工智能教学和科研的端到端解决方案,SC-HCCP提供全虚拟化云服务,预装tensorflow、caffe、MXnet等常见深度学习框架和百种常见数据集,提供强大的运维工具,能够动态分配计算资源,随时按需分配教学与科研的计算资源,最大化计算资源利用率;支持课堂管理,支持FPGA与GPU多种硬件加速设备,支持SCALE-OUT扩展,是人工智能教学和科研场景的优质解决方案。




系统架构图

SC-HCCP

系统由计算节点(GPU服务器、FPGA服务器)、存储节点和管理节点组成。其中计算节点可以完成神经网络训练(GPU服务器),神经网络推理(GPU服务器、FPGA服务器),云计算加速(FPGA服务器),大数据分析加速(FPGA服务器),存储加速(FPGA服务器);存储节点完成大数据的存储;管理节点完成系统的管理和资源动态分配;用户通过客户端登录到系统中完成各种应用的开发和部署,SC-HCCP系统可以根据部署要求动态完成业务分布式部署和调度。

SC-HCCP系统分为四层,分别为:硬件资源层、资源管理层、服务管理层、服务门户层。如下图所示。


软件架构图

SC-HCCP


硬件资源层

包含1到多台CPU服务器、GPU服务器、FPGA服务器和存储服务器,通过以太网交换机互联,利用虚拟化/容器、SDN(软件定义网络)、分布式存储等技术,转化计算、存储、网络三种虚拟资源,提供给上层使用。

(2)资源管理层

由资源申请与部署、资源变更与回收、资源统计与监控、资源调度自动化四个服务构成,通过API接口对外提供资源管理服务,实现资源动态分配、支持水平扩展和容灾备份。

(3)服务管理层

包含大数据平台、深度学习平台、虚拟化云计算平台三部分。提供全虚拟化云服务,预装Tomcat、Apache、nginx、MySQL、Hadoop、Spark、TensorFlow、Caffe、MXNet等多种应用部署环境、深度学习框架和百种常见数据集,提供强大的运维工具,随时按需分配教学与科研的计算资源,最大化计算资源利用率;为方便教学管理提供课堂管理等功能;,为了能实现高性能低延时的系统特性,我们在服务管理层增加了算法加速服务,包括深度学习加速、大数据分析加速、

存储加速,支持CPU、FPGA与GPU多种硬件加速设备,为云计算、大数据、物联网和人工智能教学和科研场景的提供综合解决方案支持。

(4)服务门户

在服务管理之上可以提供了各种应用集成和管理集成,从而给人工智能和大数据应用提供了集成开发平台。


系统特性


  • 采用成熟的云计算技术对CPU/GPU/FPGA/存储资源虚拟化,方便资源共享和调度,实现无缝扩展

  • 采用成熟的云计算技术对系统进行管理调度,方便系统扩展和管理

  • 在虚拟化资源之上预装深度学习相关软件(Caffe/TensorFlow/MXNET),大数据相关软件(Spark),FPGA开发软件(QUARTUSII/OpenCL),方便相关资源快速部署

  • 支持常见GPU:P4/P40/1080TI/1060

  • 支持加速云各种FPGA卡:SC-OPM/SC-OPS

  • 提供分布式神经网络训练,方便大规模神经网络训练,提升科研效率

  • 提供FPGA加速库(深度学习加速库、高性能数学加速库、云计算相关加速库),方便实现高性能低延时的异构加速,实现高性能神经网络推理、大数据加速、高性能计算,提升系统性能,降低开发周期

  • 提供教学相关支撑功能(快速批量配置深度学习虚机、数据集、计费功能、角色管理、课件发布共享、学习资料发布共享等),方便老师教学,提高教学效率

  • 教学和科研共享硬件资源,提升设备利用率,避免重复建设

  • 完善的软硬件系统,快速部署,解放科研工作者工作,使其聚焦到核心算法开发,大大提高科研效率




采用成熟的云计算技术对CPU/GPU/FPGA/存储资源虚拟化,方便资源共享和调度,实现无缝扩展

采用成熟的云计算技术对系统进行管理调度,方便系统扩展和管理

在虚拟化资源之上预装深度学习相关软件(Caffe/TensorFlow/MXNET),大数据相关软件(Spark),FPGA开发软件(QUARTUSII/OpenCL),方便相关资源快速部署

支持常见GPU:P4/P40/1080TI/1060

支持加速云各种FPGA卡:SC-OPM/SC-OPS

提供分布式神经网络训练,方便大规模神经网络训练,提升科研效率

提供FPGA加速库(深度学习加速库、高性能数学加速库、云计算相关加速库),方便实现高性能低延时的异构加速,实现高性能神经网络推理、大数据加速、高性能计算,提升系统性能,降低开发周期

提供教学相关支撑功能(快速批量配置深度学习虚机、数据集、计费功能、角色管理、课件发布共享、学习资料发布共享等),方便老师教学,提高教学效率

教学和科研共享硬件资源,提升设备利用率,避免重复建设

完善的软硬件系统,快速部署,解放科研工作者工作,使其聚焦到核心算法开发,大大提高科研效率


4.1深度学习教学与实践

完整的软、硬件解决方案

独立的虚拟机账号,登录即用,内置常用深度学习框架

虚拟机硬件资源可配,CPU、内存、硬盘、GPU、FPGA全部可配

虚拟机账号具备独立的存储空间

内置常用数据集,可直接访问共享数据节点随取随用

SC-HCCP

4.2神经网络模型训练

      在大数据集上训练的现代神经网络模型在许许多多领域都取得了显著的效果,从语音和图像识别到自然语言处理,再到工业界的应用,比如欺诈检测和推荐系统。但是这些神经网络的训练过程非常耗时。尽管近些年GPU的硬件技术、网络模型结构和训练方法均取得了很大的突破,但是单机训练耗时过久的事实仍无法回避。

      SC-HCCP支持计算资源按需分配,让您教学科研两不误;支持分布式训练,支持模型并行化、数据并行化两种分布式训练方法,支持SCALE-OUT扩展,训练性能线性增长;支持TensorFlow/caffe/torch等常见的深度学习框架,能够满足各类CNN/DNN/RNN网络大数据集的分布式训练任务,为您在计算机视觉、语音识别、自然语言处理等关键领域的科研任务提供强大的算力支撑

SC-HCCP

4.3基于FPGA的神经网络推理

      FPGA在神经网络推理上的优势主要体现在高性能功耗比,低延时,支持更多应用场景以及灵活性和扩展性更高等特点。加速云推出的FPGA加速卡支持与TensorFlow/caffe框架无缝对接,支持参数可配的深度学习加速库FDNN,支持常见的各种模型如VGG16,GoogleNet,LeNet,YOLO,ResNet等,为您提供优秀的FPGA神经网络异构加速平台。

4.4高性能计算

      HPC(高性能计算)允许各行业(例如,制造业、石油和天然气、生命科学及高等教育、电网加速)中的技术计算用户通过易于使用的基于 Web 的界面来部署、管理和使用其 HPC(高性能计算) 集群。这最大限度地缩短了为最终用户设置和管理集群所需的时间,并允许这些用户专注于运行应用程序而非管理基础架构。SC-HCCP是CPU,GPU,FPGA多种计算资源的异构计算平台,可提供全面的集群管理功能 - 从集群供应、监控和管理到工作负载规划和报告。操作和使用高性能计算集群管理所需的所有功能同时安装并紧密集成。该产品旨在加快系统准备速度、提升易用性和改善应用程序吞吐量。




      深度学习教学与实践

1.完整的软、硬件解决方案
2.独立的虚拟机账号,登录即用,内置常用深度学习框架
3.虚拟机硬件资源可配,CPU、内存、硬盘、GPU、FPGA全部可配
4.虚拟机账号具备独立的存储空间

5.内置常用数据集,可直接访问共享数据节点随取随用

SC-HCCP


       神经网络模型训练

在大数据集上训练的现代神经网络模型在许许多多领域都取得了显著的效果,从语音和图像识别到自然语言处理,再到工业界的应用,比如欺诈检测和推荐系统。但是这些神经网络的训练过程非常耗时。尽管近些年GPU的硬件技术、网络模型结构和训练方法均取得了很大的突破,但是单机训练耗时过久的事实仍无法回避。
      SC-HCCP支持计算资源按需分配,让您教学科研两不误;支持分布式训练,支持模型并行化、数据并行化两种分布式训练方法,支持SCALE-OUT扩展,训练性能线性增长;支持TensorFlow/caffe/torch等常见的深度学习框架,能够满足各类CNN/DNN/RNN网络大数据集的分布式训练任务,为您在计算机视觉、语音识别、自然语言处理等关键领域的科研任务提供强大的算力支撑。

SC-HCCP


基于FPGA的神经网络推理
      FPGA在神经网络推理上的优势主要体现在高性能功耗比,低延时,支持更多应用场景以及灵活性和扩展性更高等特点。加速云推出的FPGA加速卡支持与TensorFlow/caffe框架无缝对接,支持参数可配的深度学习加速库FDNN,支持常见的各种模型如VGG16,GoogleNet,LeNet,YOLO,ResNet等,为您提供优秀的FPGA神经网络异构加速平台。

SC-HCCP

FPGA软件架构图

高性能计算
      HPC(高性能计算)允许各行业(例如,制造业、石油和天然气、生命科学及高等教育、电网加速)中的技术计算用户通过易于使用的基于 Web 的界面来部署、管理和使用其 HPC(高性能计算) 集群。这最大限度地缩短了为最终用户设置和管理集群所需的时间,并允许这些用户专注于运行应用程序而非管理基础架构。SC-HCCP是CPU,GPU,FPGA多种计算资源的异构计算平台,可提供全面的集群管理功能 - 从集群供应、监控和管理到工作负载规划和报告。操作和使用高性能计算集群管理所需的所有功能同时安装并紧密集成。该产品旨在加快系统准备速度、提升易用性和改善应用程序吞吐量。

系统规格及配置

SC-HCCP-min

专为教研室提供的最小化节点方案,支持8个虚拟机用户同时在线,计算资源按需分配,灵活管理,为较大神经网络训练提供多GPU支持

SC-HCCP

SC-HCCP-Standard

拥有独立的管理服务器,支持更多的在线用户数和计算卡资源,能够实现良好的可扩展性和容灾能力,支持全部的SC-HCCP功能

SC-HCCP

SC-HCCP-Cluster

SC-HCCP

集群版支持最大100的在线用户数和1万以内拥有独立存储空间的用户虚拟机账号,支持更多的GPU/FPGA计算卡资源,能够实现良好的可扩展性和容灾能力,支持全部的SC-HCCP功能

SC-HCCP

其他可配软件
      深度学习加速库FDNN:
提供基于FPGA的可配的深度学习IP库
高性能常见深度学习网络
(LENET/VGG16/YOLOV2/DARKNET19/RESNET/LSTM/DNN)
完善的SDK和参考调用示例
      OpenCL异构开发环境:
提供基于FPGA的OpenCL开发软件和BSP开发包
      存储加速库:
提供基于FPGARTL级压缩解压缩,纠删码(RS)的功能实现,以及API接口函数
      数学加速库:
提供基于FPGARTL级OPENBLAS功能实现,以及API接口函数
      定制IP开发:
提供基于FPGA RTL级常见神经网络的实现,以及API接口函数

典型配置

SC-HCCP

支持最大18的在线用户数和100以内拥有独立存储空间的用户虚拟机账号,支持18张GPU/FPGA计算卡资源,1台计算服务器,提供深度学习加速库、提供OpenCL异构开发换机,提供存储加速,提供数学库加速。

相关推荐 / Recommend
2013 - 11 - 29
SC-OPM是加速云专为SBB架构的高密度刀片服务器定制的加速卡,可以插入各种高密度服务器。采用Altera最新20nm工艺的A10 660/1150 FPGA,集成 660K/1150k LE和1.5T/1.3T FLOPS单精度浮点处理能力,单板支持2个40GE电口,提供2*40GE的互联能力,板载3个DDR4,支持高带宽和大容量的存储访问;可以广泛应用于深度学习、机器视觉、数字信号...
2013 - 11 - 29
SC-OPS是加速云推出新一代PCIe加速卡,采用Intel最新 14 纳米制造工艺,比上一代芯片核心性能提升了 2 倍,功耗降低多达 70%,芯片集成2753KLE和9.2T FLOPS单精度浮点处理能力;板载8个72bit 2400MHz DDR4内存控制器(ES芯片支持2133MHz),最大支持64GB内存容量,支持153.6GB/S的访问带宽;单板支持2个标准QSFP ...
2013 - 11 - 29
SC-OPF 是加速云推出新一代加速卡,采用两颗Intel Arria10 GX660/GX1150器件,单颗芯片集成660/1150K LE和1.5T/1.3T FLOPS单精度浮点处理能力;单板支持4个40G光口或者电口,支持板间通讯以及设备间级联;板载6个DDR4通道, 支持高带宽和大容量的存储访问;可以广泛应用于深度学习、机器视觉、数字信号处理、高性能计算、边缘计算、云计算等领域。为了方便...
2018 - 10 - 17
SC-FDNN是加速云推出基于FPGA可配置深度学习网络加速引擎,为基于FPGA深度学习研究搭建了一个整体灵活高效的软硬件开发环境,极大的简化了FPGA深度学习研究的开发过程并缩短了深度学习网络FPGA实现的研发周期,降低了广大科研人员使用FPGA进行深度学习神经网络开发的技术门槛,在高性能和高灵活性之间达到了较好平衡,可灵活可配的进行FPGA深度学习网络模型搭建,同时也能获得较高的处理性能。可以...
TEL:0571-81112331 (周一至周五 9:00-18:00)
E-mail:customer@speed-clouds.com
Address:杭州市西湖区文一西路830号蒋村商务中心B1-4F
  • 二维码名称
    二维码名称
    扫一扫

Share us:

Copyright ©2018 - 2020 杭州加速云信息技术有限公司  犀牛云提供企业云服务
犀牛云提供企业云服务
X
1

QQ设置

3

SKYPE 设置

4

阿里旺旺设置

5

TEL

  • 0571-81112331
6

官方公众号

返回顶部
展开