跳到主要内容

AI Infra

AI Infra(AI 基础设施)是指为上层的 AI 算法应用提供支持的 AI 全栈底层技术,通过合理利用计算机体系结构,可以实现 AI 计算的加速和部署。

AI Infra 主要包括以下内容:

  • AI 训练框架 & 推理引擎
  • AI 编译 & 计算架构
  • AI 硬件 & 体系结构

preview

--

NVIDIA GPU 硬件

GPU 硬件架构

  • Fermi 架构:提出了首个完整的 GPU 计算架构;
  • Kepler 架构;
  • Maxwell 架构;
  • Pascal 架构:提出了 NVLink;
  • Volta 架构:将 CUDA Core 进行了拆分,分离了 FPU 和 ALU;独立线程调度:每个线程都有独立的 PC(Program Counter)和 Stack;提出了 Tensor Core:针对深度学习提供张量计算核心,专门针对卷积运算进行加速;
  • Turing 架构:提出了 RT Core(Ray Tracing Core),用于三角形与光线的求交;
  • Ampere 架构:提出 NVSwitch,单卡之间通过 NVLink 互联,多卡之间通过 NVSwitch 互联;
  • Hopper 架构。Hopper是由Nvidia开发的图形处理器微架构。