2

微软被曝未来3年花1000亿美金囤芯片;杨元庆:AI不是取代人类的智能

 1 week ago
source link: https://www.aixinzhijie.com/article/6845522
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
2024-04-24 04:29

微软被曝未来3年花1000亿美金囤芯片;杨元庆:AI不是取代人类的智能

文章来源:钛媒体AGI

作者|任颖文、林志佳

编辑|林志佳

今日,通用人工智能(AGI)领域又公布了一系列重磅消息。

钛媒体App 4月19日消息,Meta公布期待已久的多模态开源大模型Llama 3系列。同时,Meta还推出了其首款基于Llama 3开源模型的 AI 聊天机器人产品——AI助手,直接对标ChatGPT-4。

与此同时,科技行业裁员消息频出。谷歌宣布从3月10日开始的新一轮裁员,预计持续到8月,包括商业服务等职能部门;英国AI初创公司Stability AI也于近日宣布裁员10%。

另外,有消息指,微软公司计划到2024年底储备180万块AI芯片,这意味着微软今年计划储备的图形处理单元(GPU)的数量增加了两倍。到2027财年,微软预计将在GPU和数据中心上投资约1000亿美元。

4月18日,联想集团董事长兼CEO杨元庆在第十届联想创新科技大会(2024 Lenovo Tech World)上表示,人工智能(AI)的下半场,一定是从技术突破进入到落地应用的阶段。而落地的途径,就是涵盖智能设备、智能基础设施、智能解决方案和服务的三大支柱。

开源大模型Llama3推出,百度智能云支持其全系列训练推理

FtU12Adap0nN9sqR767a4Rhvgo6x

北京时间4月19日凌晨,Meta公布期待已久的多模态开源大模型Llama 3系列,目前包括80亿和700亿两个参数的调优版本。与此同时,Meta还推出了其首款基于Llama 3开源模型的 AI 聊天机器人产品——AI助手,直接对标ChatGPT-4。

Llama 3具体的技术细节包括:选用了相对标准的仅解码器Transformer架构,并在两个定制的24K GPU集群上基于超过15T的词库上进行了预训练——训练数据集是 Llama 2 的七倍,包含的代码数量也是 Llama 2 的四倍。与此同时,Llama 3支持8K上下文长度,是Llama 2的两倍。

在处理多种类型的复杂任务方面,Llama 3 70B相比8B版本有显著的提高,同时多个基准得分也超过了Google Gemini Pro 1.5以及Claude 3 Sonnet。

FqIH8Dk-CTVoB2YBnASr-cvwj6hg

Meta表示,预训练和指导微调模型是目前 8B 和 70B 参数尺度上最好的模型。

Llama 3 很快将在所有主要平台上提供,包括 AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM 和 Snowflake 上提供,并得到 AMD、AWS、戴尔、英特尔、NVIDIA 和高通提供的硬件平台的支持。另外,你也可以在Meta官方助手Meta AI上体验。

Meta还表示,Llama 3 8B 和 70B 型号标志着其Llama 3发布产品的开始。接下来,Llama 最大模型有超过400B(4000亿)参数,虽然这些模型仍在训练中。

值得注意的是,4月19日中午,继18日Llama3的8B、70B大模型发布后,百度智能云千帆大模型平台19日宣布在国内首家推出针对Llama3全系列版本的训练推理方案,便于开发者进行再训练,搭建专属大模型,现已开放邀约测试。

目前,百度智能云千帆大模型平台中各种尺寸模型定制工具ModelBuilder已预置了最全面最丰富的大模型,支持国内外第三方主流模型,总数量达到79个,是国内拥有大模型数量最多的开发平台。

早前百度创始人、董事长、CEO李彦宏则表示,因为基础模型文心 4.0 可以根据需要,兼顾效果、响应速度、推理成本等各种考虑,剪裁出适合各种场景的更小尺寸模型,并且支持精调和 post pretrain。这样通过降维剪裁出来的模型,比直接用开源模型调出来的模型,同等尺寸下,效果明显更好;同等效果下,成本明显更低,“所以开源模型会越来越落后”。

微软今年将囤180万块GPU,还有千亿美元投资计划

FtU12Adap0nN9sqR767a4Rhvgo6x

据Business Insider获得的一份文件,微软公司内部计划到2024年底储备180万块AI芯片,这意味着微软今年计划储备的图形处理单元(GPU)的数量增加了两倍。

另据两位知情人士透露,从当前财年到2027财年,微软预计将在GPU和数据中心上投资约1000亿美元。

FrNfLN5skDGNjK7Ump41a-teGdrG

1000亿美元投资额让人联想到早些时候的一则报道。今年3月30日,微软和OpenAI宣布计划投资1000亿美元建造“星际之门”(Stargate)AI超级计算机。OpenAI的下一版重大AI升级预计将在明年初落地。微软高管希望最早在2028年发布“星际之门”(Stargate)AI超级计算机。此外,微软和OpenAI计划为AI开发数据中心项目。

对于以上消息,微软发言人弗兰克·肖(Frank Shaw)拒绝发表评论,称上市公司在报告收益之前必须遵守规定的静默期。该公司计划在未来几天发布业绩。

DA Davidson分析师预估,微软2023年在采购英伟达芯片上花费了45亿美元,一位微软高管对外透露,这一数字与实际支出大致相符。

其他科技巨头也正在建设庞大的GPU储备库。Meta首席执行官马克·扎克伯格今年早些时候表示,Meta将在2024年购买约35万个英伟达H100 GPU,到年底将拥有约60万个GPU。

联想杨元庆:AI不是取代人类的智能

FtU12Adap0nN9sqR767a4Rhvgo6x

4月18日消息,在第十届联想创新科技大会(2024 Lenovo Tech World)上,联想集团董事长兼CEO杨元庆发表《AI for all,让世界充满AI》主题演讲。

FnDRH5eJ3er07n2lozU-DrnW_sYd

首先,杨元庆指出,AI是增强智能而不是取代人类的智能,而混合式AI将是连接增强智能与千家万户、千行百业的桥梁,是AI普惠的必由之路。

何谓混合式AI?在杨元庆看来,它是公共大模型、个人大模型和企业大模型的混合并用。

“我们今天耳熟能详的大语言模型,其实主要是运行在公有云上的公共大模型。毋庸置疑,它是AI底层核心技术飞跃发展的成果,是AI普及的催化剂和加速器。但在实际使用中,它进一步的普及和应用受到了网络速度,云端效率以及成本考量的限制。有研究表明,公共大模型每一次的查询成本达到了传统搜索的十倍之高。这背后的高耗能更是为环保精神所不容。”杨元庆说。

“另一个阻碍公共大语言模型普及的致命原因,那就是数据安全和隐私方面的先天不足。”在杨元庆看来,如果要得到一个从云端返回的精准答案,你将不得不透露真实的个人数据和意图,并且允许这些数据成为公共信息的一部分,这无疑会触发个人隐私和企业信息安全方面的考虑,从而使得大多数人在将它变为日常使用工具的时候望而却步。因此,公共大模型虽好,但本质上是一种公共的智能。要得到更广泛的使用,还需要其他的AI技术的必要补充。

杨元庆称,未来 AI 是基于个人大模型、企业大模型以及在其基础上开发出来的个人智能体和企业智能体。
谈及个人智能体和企业智能体,杨元庆详细介绍了二者的运行方式。

其中,个人智能体通过大模型压缩技术,在个人智能终端或边缘设备上运行,以自然交互的方式接收指令,通过个人的旅行纪录、购物偏好这些存储于设备上的信息,更好地进行推理,做出行动。它甚至可以根据你的思维模式和行为频率去预测下一个任务,并主动提出建议,自主寻找解决方案,最重要的是,除非用户授权,否则用户的个人数据永远不会被共享或发送至公有云上去。

“当这样的个人智能体置身于各种各样的智能设备,未来的智能设备就会成为我们每一个人的数字化延伸。”杨元庆称,智能设备中包含智能体,而智能体中包含大模型。我们的“内存”将实现极大的扩展。我们的“算力”,也就是进行推理,并形成答案或意见、结论的速度,将会大大加快。推理能力和决策质量也将显著提升。

在杨元庆看来,企业也将受益于类似的企业智能体。它分散在企业的多个终端设备和基础设施中,将能够对大量的本企业数据进行学习推理,在保障信息安全的同时,支持企业运营决策,提升管理效率,提高生产力。

“未来,个人大模型和企业大模型将分别通过内置个人和企业智能体的形式与公共大模型共存互补,从而构成混合式AI。所以我们相信这就是AI能够普及应用的一个大方向。”杨元庆称。

此外,杨元庆还解答了如何实现混合式AI落地应用这一问题。

他指出,落地离不开涵盖智能设备、智能基础设施、智能解决方案和服务,这也是联想集团推动AI普惠的三大支柱。杨元庆认为,对于个人用户而言,要获得个人智能体的体验,最便捷的路径,就是自己拥有的电脑、手机等个人计算设备中内置了个人智能体。

“对于企业客户来说,AI的落地必须依赖于智能基础设施。每一家企业,每一天都有大量数据产生,不管是来自终端传感器或设备,还是来自边缘和云端。这些数据就像石油,是企业重要的战略资源,需要被开采、输送、提炼。因此,企业需要服务器、网络和存储设备,才能让海量数据各就其位,物尽其用,再通过AI模型和算法来实现企业的数据智能。未来,我们会看到AI将不仅在公有云上运行,还将在本地数据中心、私有云、混合云,甚至在边缘侧运行,算力将会在云、边、端之间更为均衡地分布。这就意味着,企业智能体的落地,需要的是混合式的基础设施,‘端-边-云-网-智’缺一不可,而这样的技术架构,正是联想倾力打造的新IT技术架构。”杨元庆称。

杨元庆强调,混合式AI正是‘新质生产力’的代表,它将大大加速各行各业的智能化转型。从设备到基础设施,再到解决方案与服务,是联想让混合式AI真正落地的三大支柱。

英国AI初创公司Stability AI宣布裁员10%

FtU12Adap0nN9sqR767a4Rhvgo6x

钛媒体App 4月19日消息,继备受争议的前CEO 埃马德·莫斯塔克(Emad Mostaque)离职后,英国AI初创公司Stability AI近日宣布裁员10%。

FjbnZnZqZgGbIpe6FGYB-8D7VWfv

Stability AI前CEO 埃马德·莫斯塔克(Emad Mostaque)

一份内部备忘录显示,在经历了一段不可持续的增长后,Stability AI裁减了20多名员工,以适当调整业务规模。

据悉,Stability AI拥有约200名员工,这意味着此次裁员的比例约为10%。

据一位知情人士透露,受影响的员工大多在业务运营领域,他们已被告知裁员一事。

Stability AI新任命的联席CEO Shan Shan Wong和Christian Laforte在一封电子邮件中表示,公司需要重组部分业务,这意味着将不得不与一些同事告别。“我们已经通知了受此影响的员工,我们将在裁员期间为他们提供支持。”

当地时间3月23日,Stability AI宣布CEO埃马德·莫斯塔克将离开公司,以追求去中心化的AI,其职位空缺将由Wong和Laforte接替。

目前,Stability AI仍在寻找一位合适的CEO来填补最高领导层的职位。该公司表示,将继续像往常一样运营,并仍在发布新产品。

谷歌宣布新一轮裁员,并将重组财务团队

FtU12Adap0nN9sqR767a4Rhvgo6x

钛媒体App 4月18日消息,Alphabet旗下公司谷歌周三表示,正在进行新一轮裁员和部分团队重组,并将部分职位转移到海外。而本轮裁员从3月10日开始,预计持续到8月。

据两名在职员工透露,他们本周已经收到裁员通知,受影响的团队包括谷歌的财务、商业服务和收入现金运营团队,“这次重组的规模相当大”。

谷歌CFO露丝·波拉特 (Ruth Porat) 也在周三的一份备忘录中表示,公司此举是为了将更多资源用于支持AI投资。而重组将影响谷歌在美国以及国外的财务团队,包括亚太地区以及欧洲、中东和非洲地区。

谷歌发言人称,此次重组是正常业务流程的一部分,受影响的员工可以重新申请谷歌内部的其他工作,一小部分职位将会转移到谷歌正在投资的海外中心,公司还将提供离职补偿和再就业服务。

“我们正以负责任的态度投资于公司最优先的业务以及未来的重大机遇。为了以最佳状态迎接这些机遇,在整个2023年下半年到2024年期间,我们的一些团队进行了调整,以提高效率,更好地工作,消减层级,并将资源调整到最优先的产品事项上。”谷歌发言人称。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK