AI算力需求倍增,谁能练出中国版Sora?

AI算力需求倍增,谁能练出中国版Sora?
2024年03月13日 14:59 科技边角料

Sora和Claude3无疑是2024开年最火的AI新成就。GPT4、Sora、Claude3都与微软和OpenAI有着直接或间接的关系,但这波技术突破的最大赢家,恐怕还是提供算力的英伟达。

每次大模型和应用层的突破,都让老黄的市值疯涨一波,Nvidia已超过2万亿美元,连大A的AI概念股都跟着刷两天涨停。

只能说,算力对AI的发展太不可或缺,AI时代的玩法比移动互联网又向前跨越了一大步,一切都基于算法、数据、算力三要素。

Sora这种暴涨上百倍的算力需求,倒逼国产AI算力也必须抓紧追赶。只有千卡、万卡级别的AI算力,才能训练出中国版Sora。

盘点国产AI芯片,华为昇腾,摩尔线程具备千卡集群的能力,正逐渐实现AI算力国产化替代。

3年打造千卡集群

以摩尔线程为例,经历了多次超快节奏的突破蜕变,才从第一块苏堤芯片,发展到千卡集群算力中心夸娥(KUAE)。

3年半前,摩尔线程开启了第一款GPU苏堤的研发。基于Imagination的Power VR架构,摩尔线程进行了爆改,自家的先进架构MUSA展现软件和架构实力。

2021年,第一款芯片苏堤问世,此后,第二颗芯片春晓、 S80消费级显卡、S2000和S3000计算卡先后面世,摩尔线程的全功能GPU矩阵初现雏形。

彼时,摩尔线程还在为S80显卡摸索驱动优化,但迅速支持了DX9/DX10,现在进化到DX11,游戏帧数成倍上涨。

在AI算力端,此时的摩尔线程还在完善自研的MUSA架构和Musify工具,探索可大规模应用的AI场景。

摩尔线程无需再保持低调、一口气发布了MTT S4000 AI智算卡和千卡级夸娥(KUAE)智算中心,并很快官宣落地北京亦庄。让中国大模型用上全国产化AI算力。

进入2024年,新的挑战又不期而至。英伟达升级了对CUDA兼容转译的限制,想卡住AMD、英特尔、中国GPU公司软件生态的咽喉。对此,摩尔线程回应:“开发者可放心使用MUSA和MUSIFY。MUSA是摩尔线程自主研发、拥有全部知识产权、软硬一体的全功能GPU先进计算统一系统架构,与CUDA无任何依赖关系。”

算力暴涨100倍,谁能算出中国Sora?

那什么样的国产AI算力,能跑出中国版Sora呢?

Sora无疑是今年初最耀眼的明星产品,能实现长达1分钟的高清视频,并支持复杂转场、背景特效,遥遥领先于PIKA等模型。而且Sora的特点是,视频训练量越大,推理结果提升越明显,也就是对算力高度依赖。

据华西证券分析:“Sora架构与传统大语言模型(LLM)Transformer架构的算力需求存在近百倍差距,国产算力有望大放异彩”。另据民生证券报告称,假设Sora模型参数为30亿,则对应1846万个英伟达A100的算力。

在评价Sora时,出身上海交大、现任纽约大学助理教授的CV 大神谢赛宁认为,造出“Sora 这样复杂的系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的。”也印证了算力的不可替代性。

Sora的底层依赖的是UE和Diffusion Transformer技术,对应的是3D渲染、编解码,以及AI生成和物理仿真,Sora的爆发更像是是元宇宙1.0的版本,让我们更加明确了只有全功能GPU可以完整支持多维技术对算力的需求。早在2022年底,摩尔线程就推出了基于自身计算平台的中国首个元宇宙平台MTVERSE,并宣布关于面向“场景”的物理仿真引擎AlphaCore、面向“内容”的AI内容创作平台MT马良、面向“人”的DIGITALME数字人平台的一系列升级。

可见,国产AI算力已为元宇宙爆发积蓄了一定力量。但算力大发展仅靠企业还不够,在产业、政策、地方布局,需要更高维度的力量参与进来。

北京市已布局多个 AI重点项目,其中包括门头沟的“京西一极”京西智谷,构建基于华为、摩尔线程芯片的异构 AI 算力集群,做好大规模算力基础设施的建设、管理和使用。

由北京市牵头,华为和摩尔线程首次合力,将以AI+5G+4K/8K为方向,训练和推理CCTV央视的AGI项目、内容安全大模型、数字人产业平台,深入探索“大模型+垂类模型”应用。

其实在落地京西智谷前,摩尔线程就推出了夸娥千卡集群智算中心,已具备了大规模AI算力的建设和运营管理能力。

夸娥智算中心采用MTT S4000智算卡,提供基础设施、管理平台、模型服务,一体化交付、建设周期只需30天,支持主流分布式框架。大模型公司可以拎包入驻,随时开始推理和训练。

也许,中国版Sora未来就能在夸娥(KUAE)智算中心上诞生。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部