

昆仑芯×飞桨:共创智能计算“芯”生态-品玩
source link: https://www.pingwest.com/w/264235
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

昆仑芯×飞桨:共创智能计算“芯”生态-品玩
昆仑芯×飞桨:共创智能计算“芯”生态
5小时前
WAVE SUMMIT 2022深度学习开发者峰会上周圆满落幕,来自产学研界的专家学者和资深AI工程师在七大平行论坛带来了精彩的技术分享。 本次峰会专设【智能硬核 生态共创】平行论坛,昆仑芯科技生物计算研发总监郑焕鑫受邀参会,并进行“昆仑芯×飞桨:共创智能计算‘芯’生态”的主题演讲。
昆仑芯适配百度飞桨等主流框架,支持推理和训练场景,生态建设正在逐渐完备,已在丰富的业务场景落地。作为国内人工智能芯片领域的先行者,昆仑芯科技依托团队多年耕耘芯片和智能计算领域的行业影响力,致力于携手上下游合作伙伴,打造智能计算“芯”生态。
以下内容来自演讲实录:
大家好,我是来自昆仑芯科技的郑焕鑫。
昆仑芯科技是一家AI芯片公司,2021年4月完成了独立融资,首轮估值约130亿元。公司前身是百度智能芯片及架构部,在实际业务场景中深耕AI加速领域已十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。
昆仑芯科技研发实力雄厚,团队成员拥有全球顶尖学术背景,并提出了100%自研的通用AI计算处理器核心架构昆仑芯XPU,研究成果也在Hot Chips、ISSCC等国际顶级学术会议中成功发表。
在落地实现上,昆仑芯1代在百度搜索引擎、小度等业务中部署超过2万片,是国内唯一一款经历过互联网大规模核心算法考验的云端AI芯片产品。昆仑芯2代采用7nm制程,也已于2021年8月量产。更先进的昆仑芯3代、自动驾驶芯片等多个产品均已启动研发。
随着AI越来越普及,其依托的算力需求也越来越大。在这个时代背景下,昆仑芯的愿景是“成为划时代,全球领先的智能计算公司”,为AI发展提供算力赋能。
昆仑芯在AI芯片上经历了超过10年的发展历程。我们在2011年启动FPGA AI加速器项目,到2015年部署5000片,2017年部署超过12000片,是业界最大的量;2017年发布自研架构昆仑芯XPU;2018年启动昆仑芯;2020年昆仑芯1代大规模部署;2021年昆仑芯2代量产。
昆仑芯软硬件架构及两代产品
不同于GPU的发展历程,昆仑芯1代在AI发展相对成熟的时候量产,在设计阶段就更好地理解了AI场景,提供了更多的加速计算单元,并且保留了足够的通用计算单元,最终达到了更好的性价比。
这是我们的昆仑芯XPU架构:SDNN-软件定义神经网络引擎,是我们自研的核心张量计算单元,用于加速卷积和矩阵乘法;Cluster为我们的通用计算部件;我们也是国内业界率先支持GDDR6的厂商之一;我们的Shared Memory片上共享内存,有力保证了计算单元的高并发、低时延访问;提供高达200GB/s的片间互联带宽,有效提升了大规模分布式训练中的数据传输效率,减少通讯延时;支持PCIe第四代接口,双向带宽可达到64GB/s。
这是我们的软件架构图:在应用层,我们支持训练、推理以及科学计算;在框架层,除了深度合作的PaddlePaddle,还支持TensorFlow,PyTorch等;我们提供了丰富的SDK,包括编辑器、图引擎、高性能算子库、高性能通讯库,以及驱动;在环境部署上,我们支持公有云服务、智算中心、智能边缘设备等。
这是我们的产品研发路线,昆仑芯1代采用14nm工艺,昆仑芯2代采用7nm工艺,此外我们的昆仑芯3代、昆仑芯4代都在研发路径中。
昆仑芯1代产品包括两种形式,其中K100是K200的算力一半版本,主要用在边缘端。昆仑芯2代产品中,R200 AI加速卡主要用于推理,支持INT8/INT16/INT32/FP16/FP32等精度,非常值得一提的是昆仑芯R200 AI加速卡支持视频编解码能力;R480-X8 AI加速器组是我们的单机8卡训练方案,提供200GB/s的片间互联带宽。
概括起来,昆仑芯2代有如下特点:
1.通用计算能力显著增强,可灵活支持AI算法的演进,提升资源投入效用;
2.硬件虚拟化,提升AI算力资源的利用率;
3.高性能分布式AI系统,加速AI数据并行和模型并行中的高速数据交换。
介绍完硬件参数,我们看看昆仑芯的软件参数。以R200 AI加速卡为例,相比较于业界主流产品,典型AI负载性能提升1.5倍左右,其中GEMM矩阵乘法性能为1.7倍,BERT典型自然语言处理性能加速比为1.4倍。对Transformer类有同样的效果;Yolov3,Yolov5性能加速1.3倍;ResNet50视觉分类算法加速1.2倍。
昆仑芯AI算力赋能千行百业
昆仑芯科技前身为百度智能芯片及架构部,天然对互联网AI应用有深入了解。以百度搜索场景为例,我们实现了过万片的部署,与飞桨联合优化模型:DeepFM、Wide&Deep。此外,我们在包括百度在内的多家互联网公司上均有不错的落地表现
在智能城市领域,万级别摄像机收集视频流,通过芯片编解码获取图片,对图片进行人脸检索以及比对。该场景主要是以CV类算法为主,我们和飞桨联合优化模型包括:ResNet50、MobileNet-v3、Unet、Yolov3-DarkNet53、SSD-ResNet34 。
工业质检场景,高清工业相机拍摄零件照片进行质量检测。搭载国产AI算力机的质检设备替代人工质检,大大节省了人力,14个月即可收回成本。同时,“5G+AI+工业互联网”解决方案大大提高了整厂的智能化水平,帮助企业降低损耗,提升约10%的良品率。在这个方向上,我们和飞桨联合开发了Yolov3-DarkNet53、SSD-ResNet34。
在目前国内前沿的生物计算领域,我们也对基因测序算法Blast以及蛋白质折叠预测算法进行了硬件适配,并取得了不错的加速比。
综上,我们在互联网、智慧城市、智慧工业、生物计算、智慧金融、智慧政务、智算中心以及智慧交通等各行业 AI 应用落地场景中均提供了多种解决方案。
总结来看,昆仑芯科技最独特优势在于:在百度搜索引擎、小度等业务中部署超过2万片,是国内唯一一款经历了互联网大规模核心算法考验的云端AI芯片,产品的可用性、可靠性、稳定性、鲁棒性得到了验证,也证明了团队在芯片架构、软件栈、工程化系统层级的技术实力。此外,昆仑芯灵活支持多个AI场景,如视觉、语音、NLP和推荐等;不仅如此,昆仑芯也支持HPC、生物计算等算法的加速。
Recommend
-
24
产业智能化趋势下,百度飞桨开源生态繁荣成势2020-12-22 09:11:17 来源:投资家网专栏 作者:科技响铃说 文 | 曾响铃来源 | 科技向令说(xiangling0815)三年前,李彦宏撰写《智能革命》...
-
7
推动量子计算与AI融合,飞桨成为中国首个支持量子机器学习的深度学习平台... - 飞桨PaddlePaddle的个人空间 - OSCHINA - 中文开源技术交流社区 ...
-
4
飞桨助力OpenKS知识计算引擎开源项目建设 来源:浙江...
-
5
百度飞桨发布开源生态最新成果:汇聚370万开发者发布于 今天 15:52 9月26日,2021世界互联网大会乌镇峰会开幕,百度集团副总裁、深度学习技术及应用国家工程实验室...
-
4
英特尔携手百度飞桨,共创软硬一体人工智能生态-基础器件-与非网
-
6
CCTV-2《天下财经》对话昆仑芯科技CEO欧阳剑-品玩 CCTV-2《天下财经》对话昆仑芯科技CEO欧阳剑 19小时前 近日,CCTV-2《天下财经》栏目播出“算力产业观察——算力基础设施加快建设,关联产业规模超8万亿元”专...
-
5
共创ESG绿色创新发展生态-品玩 共创ESG绿色创新发展生态 5小时前 随着我国经济社会逐步进入到高质量发展阶段,坚定不移贯彻创新、协调、绿色、开放、共享的新发展理念成为新的时代要求。追求长期价值增长、...
-
9
空间智能生态圈 迎来共创共享的开发者平台未来可栖·2022-12-07 13:26睿住智能发布开发者平台及生态合作战略。
-
5
百度飞桨文心生态成果最新披露:开发者达1070万 模型数超86万 12月28日,由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT+深度学习开发者大会2023在北京召开。百度...
-
6
共创汽车智能生态营销新场域,建发汽车&红星美凯龙首发π空间 2024-01-0...
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK