作者
Josh Schneider
Staff Writer
IBM Think
Ian Smalley
Staff Editor
IBM Think
什么是 AI 硬件?
AI 硬件是指专为人工智能 (AI) 系统设计或改造自高性能计算 (HPC) 的专用组件,用于管理训练和部署 AI 模型的密集需求。
AI 系统(如大语言模型 (LLM) 或神经网络)需要高带宽硬件来处理大型数据集(用于机器学习 (ML)、深度学习 (DL) 和其他 AI 算法),以复现人类思考、学习和解决问题的过程。
虽然通用硬件(例如通用中央处理单元 (CPU))可以执行大多数计算任务,但 AI 基础设施需要更强大的算力。对于繁重的 AI 工作负载,如与 AI 开发和 AI 训练相关的工作负载,AI 加速器和 AI 芯片等 AI 硬件可提供某些优化,更具可扩展性,方便生态系统优化。
最新的 AI 新闻 + 洞察分析
在每周的 Think 时事通讯中,发现专家精选的有关 AI、云等的洞察分析和新闻。
立即订阅
AI 硬件的优势
随着行业继续快速发展,AI 的突破性进展几乎每天都会登上头条新闻。随着我们似乎正在进入 AI 时代,AI 硬件构成了关键的基础设施组件,为这些令人印象深刻的 AI 应用提供支持。
例如,面部识别是我们几乎习以为常的 AI 应用,但它的运行很大程度上依赖于 AI 硬件。它必须在本地处理您的图像,与认证的图像进行核对,并识别和辨别任何正常变化以解锁您的手机或平板电脑。如果没有 AI 硬件,面部 ID 或智能助手等技术将不那么实用,也更昂贵。
以下是 AI 硬件的一些主要优势:
速度
AI 硬件针对高速运行复杂且资源密集型的 AI 工作负载进行了优化。虽然不同的 AI 芯片采用不同的方法来提高速度,但总的来说,它们都受益于并行计算,即将大型、多部分任务划分为更小、更简单的步骤的过程。
通用 CPU 采用顺序处理的方式,一步一步地连续完成任务;AI 芯片则借助并行处理并结合专业硬件架构,同时执行数千次甚至数十亿次计算。通过将复杂的 AI 工作量划分为可以并行执行的子任务,AI 硬件可实现处理速度的指数级提升。
专用
即使不是专为在专门的 AI 系统中运行而设计的,大多数 AI 硬件至少也是专为 AI 应用中常见的高要求运转而构建的。
某些类型的 AI 硬件可在硬件级别重新编程。此能力意味着它们可以针对高度专业化的用例轻松进行调整、测试和重新校准。其他则是专门为小众 AI 应用而设计的。尽管一些 AI 硬件最初是为其他目的构建的,但也是为了满足具有挑战性的 AI 任务的高性能基准而构建,而这是通用硬件的设计无法实现的。
高效率
从历史上看,AI 技术是出了名的能源密集型技术。许多为 AI 运营而开发或重新使用的 AI 硬件也是如此。然而,随着时间的推移,AI 硬件的能效变得越来越高,并且已经比传统硬件能效高得多,而传统硬件自然已不太适合完成要求苛刻的 AI 工作负载。
现代及下一代 AI 硬件具备低精度运算等特性,使得 AI 硬件能够以更少的晶体管完成工作负载,从而降低能耗。这些改进不仅有利于环境,而且可提升利润。
绩效
虽然在某些类型的 AI 模型模型中,偶尔出现的被称为 AI 幻觉的错误并不罕见,但在准确性至关重要的应用中,AI 硬件有助于防止不准确的输出。对于关键应用,如医学领域,现代 AI 硬件对于减少幻觉和确保结果尽可能准确至关重要。
Smart Talks with IBM
基础架构如何为 AI 时代提供动力
了解硬件能力如何实现运行大语言模型所需的矩阵数学,并探索如何将 AI 应用于银行业务和本地咖啡店运营的创意案例。
探索 IBM 播客
AI 硬件的类型
最常见的 AI 硬件类型是 AI 芯片,这是一种先进的半导体微芯片处理器,其功能类似于专用 CPU。Nvidia、Intel 和 AMD 等主要制造商以及 Cerebras Systems 等初创公司设计了具有不同类型芯片架构的集成电路。这样做更适合各种类型的 AI 解决方案,可提高能源效率并减少瓶颈。
尽管 AI 硬件还包括其他类型的下一代硬件,例如用于提供实时计算结果的低延迟互连,但 AI 硬件的两个主要类别是处理器和内存。
处理器
高性能处理器,例如图形处理单元 (GPU)、张量处理单元 (TPU)、神经处理单元 (NPU)、应用专用集成电路 (ASIC) 和现场可编程门阵列 (FPGA),是最常见的 AI 硬件类型。处理器与 AI 芯片一样,可提供处理复杂的 AI 工作负载所需的计算能力。虽然这些强大的处理器通常以高功耗为代价,但 AI 硬件的持续进步正在努力提高每个新周期的能源效率。
GPU:图形处理单元 (GPU) 最初是为渲染图形而设计,采用并行处理技术,且适用于推理和训练等 AI 任务。
ASIC:ASIC 是为特定应用设计和制造的高度专业化的处理器。这些类型的 AI 芯片不仅是为 AI 定制的,而且是为可能使用特定 AI 解决方案的任何独特应用定制的。由于这些类型的芯片是为特定应用而制造的,所以它们不如某些替代品那么灵活。然而由于同样的原因,它们也能提供最优的性能。
FPGA:现场可编程门阵列 (FPGA) 可以被视为可重编程的 ASIC。ASIC 只编程一次且无法更改,而 FPGA 必须在使用前进行编程,并且可以一次又一次地重新编程和调整。这些类型的芯片用途广泛,通常用于新 ASIC 的原型设计。
NPU:神经处理单元 (NPU) 是一种专门为改善深度学习和神经网络而构建的 ASIC。NPU 用于执行数据密集型任务,例如计算机视觉和自然语言处理 (NLP)。
TPU:TPU 是 Google 设计的一种专有 AI 加速器,用于处理 AI 应用程序中常见的张量数学运算。Google 的 TPU 专为培训大型语言模型和生成式 AI 而构建。
WSE-3:根据一些基准,Cerebras Systems 的晶圆规模引擎 3 (WSE-3) 是有史以来最快的处理器,一个单元上有 90 万 AI 内核。每个内核都可以每秒访问 21 PB 的内存带宽,用于高速的大规模数据处理。
Telum II:IBM® Telum II 处理器是在 IBM 首款 AI 芯片的基础上改进的,专为改进 AI 运营而量身定制,尤其是在与 IBM® Spyre AI Accelerator 搭配使用时。
记忆
内存在大多数计算机(包括支持 AI 的机器)的基础设施中发挥着关键作用。内存存储架构和设备可确保 AI 系统快速访问完成 AI 任务所需的数据和指令。系统的内存容量和速度会直接影响性能。内存不足会造成瓶颈,减慢或阻碍所有系统运作,而不仅仅是 AI 工作负载。
然而,并非所有内存都是一样的,虽然所有内存类型都有其用途,但有些内存比其他内存更适合特定和通用的 AI 应用。在 AI 系统中,不同类型的内存通常一起用于 AI 过程的不同部分,具体要求取决于特定的项目或操作需求。
RAM:随机存取存储器 (RAM) 是 AI 和通用计算的主要内存类型,为活动操作提供快速的临时数据存储。RAM 可以快速读取和写入数据,因此非常适合实时处理。但其容量有限且波动性较大,不太适合大规模 AI 运营。
VRAM:视频 RAM (VRAM) 是一种 GPU 专用的专门 RAM。VRAM 提供了复杂 AI 任务所需的更好的并行性;然而,与普通 RAM 相比,其价格更高,容量更小。
HBM:高带宽内存 (HBM) 最初是为高性能计算而开发的,它旨在实现处理单元之间闪电般的快速数据传输,这对于 AI 应用来说是一个宝贵的优势。尽管 HBM 的速度可能伴随着高昂的价格,但这种高速内存对于 AI 应用来说是一个理想的选择。
非易失性存储器:易失性存储器需要持续供电来保留数据,而非易失性存储器,如固态硬盘 (SSD) 和硬盘驱动器 (HDD),则无需维护或电源即可提供长期存储。非易失性内存的时钟速度远低于 RAM 或 VRAM,对于主动数据传输来说不是很好的选择,但在 AI 系统中对于长期保留数据非常有用。
AI 硬件用例
AI 硬件的用例与 AI 技术本身一样广泛。正如 AI 技术需借用高端图形处理和高性能计算硬件,此类技术目前也利用 AI 硬件来改善自身运营。从数据中心到“得来速”快餐店,AI 硬件适用于各类 AI 技术应用场景。
实际上,您可能正在使用 AI 硬件来阅读这篇文章。AI 芯片越来越多地出现在 Apple 和 Google 等制造商的笔记本电脑和移动设备中,用于提高语音识别和照片编辑等移动设备 AI 任务的性能。AI 硬件变得越来越强大和紧凑,足以在本地处理其中许多任务,从而减少了带宽并改善了用户体验。
另外,AI 硬件正在成为云计算基础设施中有价值的组件。支持 AI 的企业级 GPU 和 TPU 可能价格昂贵,但 IBM、Amazon、Oracle 和 Microsoft 等提供商通过其云服务提供这些强大处理器的可租用访问权限,以此作为一种经济高效的替代方案。
AI 硬件的一些其他应用包括以下内容。
自动驾驶汽车
AI 硬件是无人驾驶汽车和自主行驶交通工具开发中的关键组件。这些车辆使用 AI 芯片来处理和解读来自摄像头和传感器的大量数据,从而实现实时反应,有助于防止事故并确保乘客和行人的安全。
AI 硬件提供了计算机视觉等技术所需的并行性,可以帮助计算机“看”并解读信号灯的颜色或十字路口的车流。
边缘计算和边缘 AI
边缘计算 是一个快速增长的计算框架,可确保企业应用程序和多余算力更接近数据源,如物联网 (IoT) 设备和本地边缘服务器。随着我们的数字基础设施越发依赖云计算,边缘计算能够为注重隐私问题的用户提供更高的带宽速度和更强的安全性。
同样,边缘 AI 寻求移动 AI 运营更贴近用户。AI 硬件正成为边缘基础设施中的一个有用组件,它们利用机器学习和深度学习算法更好地在源头处理数据,从而减少延迟并降低能耗。
生成式 AI
尽管 AI 技术已经发展了几十年,但直到最近它才真正成为人们关注的焦点,部分原因是 ChatGPT 和 Midjourney 等突破性的生成式 AI 技术。这些工具使用大型语言模型和自然语言处理来解释自然语音并根据用户输入生成新内容。
Share
复制链接