自ChatGPT引发的AI大模型热潮持续一年,至今热度不减,行业涌现出众多颠覆性应用。2024年初,AI PC、AI手机、AI边缘等产品相继问世,而Sora在春节期间也引发了大规模讨论。
AI领域始终处于革新之中,但大模型对算力的需求激增,使得现有芯片难以满足行业要求。在AI热潮中,GPU和AISC等加速器成为主角,但任何数据中心都离不开CPU,它们的关系如同鱼和水。去年12月,英特尔推出了第五代至强可扩展处理器(代号Emerald Rapids),这款处理器具备多项令人瞩目的AI功能。
面对大模型这一新风口,全球科技公司纷纷转向AI芯片,特别是GPU。然而,GPU的产量受限,导致供需严重失衡。尽管如此,许多公司仍选择购买AI芯片,因为错过这个风口可能会失去竞争力。对于大型数据中心而言,每颗芯片都在全力运行,如果能拥有更多AI性能,是否还需要额外购置GPU呢?
事实上,跑AI并非只有GPU一个选择,CPU也具备强大的AI性能。亚信科技在OCR-AIRPA方案中采用CPU作为硬件平台,通过量化实现吞吐量增加和推理加速,同时降低人工成本并提高效率。在AI制药领域,AlphaFold2等大型模型被视为最重要的算法,而至强可扩展平台使AlphaFold2的通量提升至原来的23.11倍。
第五代至强可扩展处理器内置了一系列加速器,使其能够运行高达200亿参数的模型推理,且延迟低于100毫秒。这款处理器不仅提升了性能,还带来了42%的AI推理性能提升。其内存带宽从4800 MT/s提高至5600 MT/s,三级缓存容量提升至近3倍之多。
此外,英特尔通过一系列创新技术和功能提升效率并降低功耗。未来CPU的发展趋势将是功耗竞争的关键。工艺提升、封装优化以及针对工作负载的优化都将有助于降低功耗。通过调整应用程序架构也可以最大限度地降低功耗。
英特尔不仅关注硬件发展还重视软件生态的建设。其软件堆栈为第五代至强在AI方面的发展带来了天然优势。开发者可以通过OpenVINO实现“一次编写随处部署”的愿景。OpenVINO 2023.1版本正在加速实现“任何硬件、任何模型、任何地方”的目标。
在MWC2024上英特尔展示了具备288个核心的能效核处理器Sierra Forest和性能核处理器Granite Rapids未来在AI推理领域至强将更加强大。