用于AI,机器学习等的GPU计算 显卡

按需计费使用GPU,用于并行处理工作负载

14-133-537-Z01

云GPU服务器 | Cloud GPU Servers

适用行业和使用场景

场景
  • 生物信息学
  • 化学计算
  • 金融计算
  • 机器学习
  • 数据科学
  • 医学影像
  • 流体动力学计算
  • 结构力学计算
  • 电气设计自动化
  • 影像与计算机视觉
  • 数据分析
  • 天气与气候

Cloud GPU 产品

专用虚拟服务器搭配RTX 6000 GPU显卡来加速完成复杂的计算工作任务

8核

适用入门级
¥ 7000
/每月
  • 8核心处理器
  • 1 x RTX 6000 GPU显卡
  • 32G内存
  • 640G SSD存储
  • 10Gbps网络端口
  • 16TB月流量
热销

16核

基础计算
¥ 14000
/每月
  • 16核心处理器
  • 2 x RTX 6000 GPU显卡
  • 64G内存
  • 1280G SSD存储
  • 10Gbps网络端口
  • 20TB月流量

20核

视觉训练
¥ 21000
/每月
  • 20核心处理器
  • 3 x RTX 6000 GPU显卡
  • 96G内存
  • 1920G SSD存储
  • 10Gbps网络端口
  • 20TB月流量

24核

密集型运算
¥ 28000
/每月
  • 24核心处理器
  • 4 x RTX 6000 GPU显卡
  • 128G内存
  • 1920G SSD存储
  • 10Gbps网络端口
  • 20TB月流量

前沿尖端技术

利用专用的NVIDIA Tesla V100和P40 GPU的原始功能,加速您的工作量,突​​破计算障碍并处理任何数据处理障碍。

架构自由扩展

借助灵活的1x到3x Tesla V100或P40 GPU PCIe系统,或4x最多8x与NVLink互连的Tesla V100 SXM2,可以跨多个节点扩展部署。

可控节省成本

部署支持GPU的基础架构无需花很多钱。节省成本并控制支出,同时保持对尖端NVIDIA GPU技术的访问。

Quadro RTX 6000规格

CUDA核心(并行处理)4,608
张量核心(机器和深度学习)576
RT内核(射线追踪)72
GPU内存24 GB GDDR6
RTX-OPS84T
射线投10千兆射线/秒
FP32性能16.3 TFLOPS

您一直在寻找的答案
加速利用数据的力量。使用GPU加速计算是其关键。

人工智能/机器学习/深度学习(AI / ML / DL)

公司依靠人工智能服务来驱动其竞争优势。利用AI进行预测,分类和分析的能力对于任何能够访问大型,复杂且不断增长的数据源的企业都将产生重大影响。深度学习培训和推理是提供此类AI服务的核心。随着神经网络变得越来越深,越来越复杂,它们需要更多的并行处理能力,更多的内存带宽和更快的网络。这些要求对于实现合理的培训时间以及快速处理以推断生产工作负载部署是必需的。

高性能计算(HPC)/大数据

在短时间内解决复杂的计算问题,以及处理大型数据集和大量不断增长的数据,是并行处理算法正在解决的挑战。高端NVIDIA Tesla GPU的数据中心部署可实现计算,存储和网络处理能力,以支持如此高要求的工作负载。通过具有大容量网络和高IOPS(每秒输入/输出操作)存储的每个GPU,可以访问数千个内核,从而为HPC和大数据应用程序部署提供理想的基础架构。

虚拟桌面基础架构(VDI)/流/渲染

利用GPU的强大功能和并行处理的用例包括繁重的渲染任务,图像处理,用于视频和推理目的的流传输,以及提供随时随地对应用程序进行安全,可扩展访问的功能,仅举几例。这些类型的利用GPU的云部署,结合可靠的网络和快速的NVMe / SSD存储,能够为希望利用最新技术实现其业务目标的公司提供经济,高性能和敏捷的解决方案。