2

自研AI芯片之风已起,摆脱技术依赖仅仅是开始

 8 months ago
source link: https://www.51cto.com/article/769718.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

自研AI芯片之风已起,摆脱技术依赖仅仅是开始

作者:潇冷 2023-10-13 10:15:12
AI芯片领域从来不缺强者,在面对属于蓝海市场的AI芯片领域,越来越多的企业开始走向自研之路,用长期研发投入,来换取高昂的使用成本。

在AI大模型热潮的推动下,属于AI芯片领域的百家争鸣时代终于来啦。微软于近日透露,其计划于下个月的年度开发者大会上推出首款为人工智能设计的芯片,来降低成本并减轻对英伟达的依赖。算上之前的亚马逊云科技、谷歌、OpenAI、Meta,一家独大的英伟达还是将科技巨头逼得亲自下场造AI芯片,组团拉开一场关于AI芯片领域大战的帷幕。

1576ac714bb9ec75abc0667dbf778f98bdd072.jpg

AI芯片领域,科技巨头纷纷“揭竿而起”

1.亚马逊云科技

在自研芯片领域,亚马逊云科技充分占得了先机,自2013年推出首颗Nitro1芯片至今,亚马逊云科技已经拥有网络芯片、服务器芯片、人工智能机器学习芯片等3条产品线。 

d41d641284cb02efa7843108d669f8d805348e.jpg

亚马逊云科技已于2018年开始设计定制AI芯片,推出自研AI推理芯片Inferentia,并于2023年推出Inferentia的迭代版Inferentia 2,将计算性能提高了三倍此外,2020年底,亚马逊云科技推出专用于训练机器学习模型的Trainium。

在AI芯片领域的这场竞赛中,谷歌也不甘示弱。在2013年,谷歌便秘密研发一款专注于AI机器学习算法的芯片,并将其用在内部的云计算数据中心中,这款自研芯片于2016年5月公诸于世。 

6157dba70d5d92eb28a16422ff877b11409acf.jpg

2020年,谷歌实际上已在其数据中心部署了人工智能芯片TPU v4。目前,谷歌已将负责AI芯片的工程团队转移到了谷歌云,旨在提高谷歌云出售AI芯片给租用其服务器的公司的能力。

3.)Meta

敢于在元宇宙火热之时更名的Meta,在AI大潮之下,也同样采用“激进”的态度。Meta在今年5月份披露其正在构建首款用于运行AI模型的定制芯片——MTIA(Meta Training and Inference Accelerator)芯片,使用名为RISC-V的开源芯片架构,预计于2025年问世。 

b6ef2e143ebdafa2303802f3d3d9891b076425.png

早已将目光聚焦于AI芯片领域的微软,也在步步为营,按照原定计划绘制AI芯片版图。今年5月,微软发布了一系列芯片相关招聘信息,其中一则写道,“我们正在寻找一名首席设计工程师在充满活力的微软AISoC(人工智能芯片及解决方案)团队中工作。” 

891579a1372562805dd60209e99b5b411f02f7.jpg

不久前,微软更是透露将于下个月推出其首款人工智能芯片。据悉,微软的芯片也是专为数据中心服务器设计,可用于训练和运行诸如ChatGPT这类的大语言模型。

5.OpenAI

OpenAI正在探索自研AI芯片,同时开始评估潜在收购目标。其招聘网站上,最近也出现了AI硬件共同开发、评估相关岗位。

是无奈,也是最具性价比之选

OpenAI公布的数据显示,大模型训练所需算力的增速保持在3-4个月/倍速度增长,远超摩尔定律18-24个月/倍。这也意味着对更快的数据处理速度、更强大的大模型服务能力提出了新的需求。 

a9b947b2862f6879c02188368ca6ca3d4c6c0f.jpg

然而,正在越来越多的企业入局大模型领域,越来越多的大模型出炉,导致对A100和H100等高端GPU的需求直线增加。今年8月,百度、字节跳动、腾讯和阿里巴巴向英伟达共订购了价值50亿美元的芯片。据CoreWeave联合创始人兼CTO Brian Venturo表示,最新英伟达GPU的交货时间也要等到2024年Q1甚至Q2。

尽管英伟达及其制造伙伴台积电都在努力供应,但仍难以满足市场需求。OpenAI的CEO Sam Altman也曾多次抱怨算力短缺问题,而这个市场主要由英伟达主导。调查数据显示,英伟达独立GPU市场份额达80%,在高端GPU市场份额高达90%,可以说,英伟达的GPU是全球应用最为广泛的AI芯片。

企业在苦AI芯片久矣的同时,也在苦英伟达。根据伯恩斯坦分析师斯塔西拉斯刚(StacyRasgon)的分析,如果ChatGPT的查询规模增长到谷歌搜索的十分之一,那么它最初需要大约价值480亿美元的GPU(图形处理器),每年还需要约160亿美元的芯片来维持运营。 

a726ebb7904b66e1a0b3884ea577609e28baf7.jpg

在高昂的成本与技术研发两者之间,越来越多的企业开始选择后者,自研成为科技大厂的一致选择。微软打造的“雅典娜”会使用台积电的5nm工艺打造,预计可以将每颗芯片的成本降低1/3。

随着微软继续推动在Bing、Office、GitHub和其他地方推出AI 驱动的功能,自研芯片可能会大幅削减成本。分析师认为,与英伟达的产品相比,雅典娜可以将每芯片的成本降低三分之一。

因此,在笔者看来,自研AI芯片不仅可以大幅度降低成本,减少对英伟达的依赖,还意味着可以瓜分这块巨大的“蛋糕”。

挑战依旧在,心理准备尚需做足

“晶上世界”认为,当前AI芯片主要面临以下三个技术挑战:性能功耗比控制、带宽瓶颈、软件开发。

在性能功耗比控制方面,AI芯片的大量运算会造成功耗大幅增加。很多AI应用端对于功耗都有严格的限制,如何达到优异的性能功耗比是AI芯片研发的一个重要目标。

在带宽瓶颈方面,深度学习算法中参与计算的数据和模型参数很多,数据量庞大,导致内存带宽成为了整个系统的一个瓶颈,“Memory Wall”也是需要优化和突破的主要问题。 

09d711951869c3c3b16547cb5f55ad31966965.jpg

在软件开发方面,除了芯片本身硬件的设计以外,软件对于AI芯片性能的发挥也有着十分重要的作用,编译器和工具链软件的优化能力、易用性现在也得到越来越多的重视。

在笔者看来,英伟达围绕其开发的 CUDA架构(统一计算设备架构)构建了一个强大的生态系统,包括庞大的开发者社区、第三方软件和硬件供应商以及学术机构。

可以说,英伟达拥有极其丰富的软件系统和生态,即便有其他芯片公司想要兼容英伟达的架构,但底层芯片架构不同,从底层硬件到应用层,中间有很多层,每一层的优化都会极大影响效率,所以换一个芯片,软件的运行效率还是会下降。

他强任他强,清风拂山岗。AI芯片领域从来不缺强者,在面对属于蓝海市场的AI芯片领域,越来越多的企业开始走向自研之路,用长期研发投入,来换取高昂的使用成本。当越来越多的企业意识到自研的重要性之后,AI芯片领域的百家争鸣将开启,这将为行业带来更具性价比的产品,推动AI算力的发展。

责任编辑:赵宁宁 来源: 比特网

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK