李飞飞引爆的3D新技术,为什么这家深圳公司两年前就“玩腻”了?

来源:量子位 #其域创新# #3DGS# #LCC#
870

最近,AI教母李飞飞发帖宣布“可以在任意设备上流式传输超过1亿个高斯泼溅”。

瞬间引爆了技术圈对3DGS(3D Gaussian Splatting)的新一轮关注。

大家突然开始意识到,大规模3D高斯模型,开始可以在移动端运行了。

也正是因为这个,让大家联想到2005年,那一年MP4格式的出现,视频第一次可以被轻松压缩、分享和播放。

随之而来的是,视频从“专业内容”变成“日常语言”,进而催生了整个内容生态的爆发。

这让人不禁期待,是否3D内容也即将迎来属于它的“MP4时刻”?

但实际上,在真正熟悉3D高斯泼溅技术的圈子里,“大规模3D高斯模型在移动端打开” 的技术早已不是什么新鲜事。

两年前就有一家深圳创业公司,做出来并推出完整产品,甚至开源至GitHub。

但为什么,3DGS模型至今还未能像视频一样,成为内容创作者的主要创作手段和介质?

3D内容的爆发,究竟还缺乏哪些“关键要素”?

这,才是今天3D内容的“真问题”。

3DGS最难回答的问题,不是技术问题

其实3D世界的构建,一直都存在两条不同路径:

一条是建模/AI生成,即创造不存在的世界,服务于游戏与创意表达;

另一条是现实捕捉(Reality Capture),即记录真实世界,服务于空间记录、测量与仿真。

前面提到的李飞飞的路径更偏向于前者,结合自然语言模型和三维空间生成,是现在我们熟悉的AI生图/AI生视频的升维版本。

虽然也支持照片生模型,但效果对比专业的Reality Capture路径,其生成的模型在精度/结构和完整性上有较大差距,就不归为一类而谈了。

Reality Capture往往使用摄影重建或激光+视觉结合的方式,完整而真实地还原现实世界。

“大规模3DGS模型在移动端渲染”的故事,两年前就在现实捕捉这一路径上发生过了。

其实第一个支持大规模3D高斯模型在多端(含移动端)渲染的产品是——

其域创新XGRIDS的LCC(Lixel CyberColor),全球首个可商用的大场景3D高斯产品。

是的,他们在2024年,就推出了这样一套由SLAM空间扫描硬件和3D高斯生成软件组成的现实捕捉方案。

这套方案,可以将真实世界还原成高精度的3D高斯泼溅模型,并且可以在移动端加载无限大的3D高斯模型,这是行业里第一次有人把这件事做成产品。

而在他们这条产品发布的视频底下,当时很多评论都在问:

“这个模型可以用来做什么”“除了好看能做什么”……

技术已经不再是瓶颈,但用户的困惑恰恰揭示了另一层阻力的存在。

所以真正的问题,从那时起就已经发生了转移:

不是能不能打开,而是能不能被真正使用。

三维模型不像视频,无需任何解释,我们就知道视频可以带来什么价值。

但在我们的交互介质大多还是二维屏幕的现状下,光是“打开”一个三维模型,似乎没有比看一段视频给用户带来的价值增量有显著区别。

甚至会有很多用户询问“其域发表的‘模型漫游’是不是一段拍摄视频”,甚至感叹“可能还不如一段实拍的4K视频清晰”。

如果只能“粗略地看”,3DGS只是一个看起来更牛的技术,但却不直接解决用户的痛点,很难真正改变用户的交互方式。

无独有偶,另一个做手机重建三维模型的产品Kiri engine的创始人Jack,也曾在一次线下分享中提到,3D技术的行业从业者最经常被询问的问题是——

用户到底能用3D技术来干什么?

Jack的回答是:“我们一般只能是去描绘一些有关Vision Pro的未来愿景,或去幻想一下未来10年的工作发展。”

连行业内部人士都只能用未来愿景来回答,这说明问题的根源并不在技术本身。

回答“3D高斯能用来做什么”,才是眼下最本质的问题。

而要真正回答这个问题,就必须先面对3DGS技术本身尚未解决的几道关卡。

过去几年,虽然3DGS技术的发展速度其实非常快:

从论文到开源,从PC到移动端,从实验室到产品化,技术路径已经基本跑通。

但行业始终没有爆发,原因也很现实:

太大,难以传输(动辄几十GB)

太重,难以加载(设备性能门槛极高)

太新,缺乏生态系统支持(与各类目标场景的原有工具链之间几乎不兼容)

从“能打开”,到“能应用”的跨越

最近在社媒上出现的一些新探索,证明这些问题正在被解决:

有用户前不久发布了他使用3D高斯技术复刻其所在城市的道路,并使用Vibe coding做了一个赛车游戏,而这一切仅花费了2天时间。

三维博主扎克力,用3D高斯复刻了整个云南国家级保护村落,并使用UE做成移动端可玩的游戏体验。

以上这些是3DGS开始进入个人创作工作流的信号,更大的变化发生在专业场景里。

大热的美剧《Fire Country》(烈焰国度)的幕后,揭露了他们使用3D高斯泼溅技术扫描了一条街道,并在摄影棚中使用3D高斯模型在屏幕上完成了虚拟拍摄,完成了本不可能进行的“实景拍摄任务”。

包括山东文旅在内,他们也使用了3D高斯泼溅技术完成了济南著名景点趵突泉的数字孪生,让游客未来可以线上“云游”趵突泉。

就在不久前的GTC(英伟达GPU技术大会)上,其域创新也发布了新动作。

他们通过3D高斯泼溅模型,成功为英伟达和迪士尼机器人完成了具身智能大脑的模拟仿真训练。

数字孪生企业图扑,也放出了使用3D高斯泼溅模型为底图搭建的工厂数字孪生系统,过去这种底图通常是建模师照着现场CAD图纸和照片手工“搓出来”的。

这些零散但快速涌现的案例,其实指向了同一个变化方向——

3D高斯泼溅,正在从“展示介质”,变成“生产力工具”。

这种转变背后,是因为行业开始意识到:比起“能在手机上跑”,更重要的是有一套能让3D数据真正进入工作流的基础设施。

在深挖这些硬核应用背后的支撑技术时,我们发现了一个有趣的现象:

虽然场景各异,但它们在底层技术选型上,不约而同地指向了其域创新的3D高斯方案。

LCC做的,是3D世界的“MP4底层协议”

其域创新的创始人兼CEO赵开勇博士,是北京理工大学空天学院2001级飞行器设计与工程专业出身。

这个专业训练的,是在极端精度要求下对三维空间的测量、建模与系统集成——

某种程度上,他后来选择做3D空间数据基础设施这件事,并非偶然。

其域创新的LCC方案,以及最新升级的LCC2,本质上就是建立了一整套围绕3DGS的数据基础设施。

如果用一句话总结,它做了三件关键的事:

让3D高斯变成“可流通的数据”

LCC从一开始,就是针对超大规模场景而设计。

1、LOD渲染

LCC支持城市级、园区级的3D高斯数据组织与流式LOD加载。这是让3DGS可以在移动端跑起来的根本,LCC2提升为双轨LOD,让移动端可以秒级打开一个数亿高斯点的数据。

2、极致压缩

新版本LCC2更是将模型数据压缩做到了极致——

仅为传统PLY格式的8%大小,这不仅提升了加载速度,对于使用者来说也大大节省流量、降低成本。

3、解耦编解码格式

LCC2将解码与存储分离,独立模块管理,在不同的场景应用中,可以接入最合适的编解码格式,大大便于数据流通。

让3D高斯变成“可用的工程资产”

在LCC解决方案中,其域提供的独特优势是结合其空间扫描硬件的,提供结构化数据的能力——

不仅有“看起来真实”的视觉信息,还有空间结构、尺度、坐标体系等工程属性。

这件事的意义在于:3DGS从“视觉内容”,变成了“可以进入生产系统的数据”。

它可以被用于以下领域:

游戏与沉浸式交互

仿真与训练

数字孪生系统底图

虚拟拍摄与实时渲染

而不是仅仅用于“被观看”。

让3D高斯进入“应用生态”

LCC不是孤立存在的格式,它从设计之初就考虑了与各类引擎、工具链的对接。

这也是LCC作为一个3DGS格式,可以开启广泛应用的关键。

从发布至今,其域逐步为LCC生态搭建了UE、Unity的plugin(接口),让LCC数据可以无感进入游戏/影视等行业的应用工具链。

其域与英伟达Issac Sim的合作,也完整打通了机器人仿真训练的工作流,甚至是跟英伟达联合的具身智能训练系统。

在其域目前公开展示的应用生态中,全球几乎所有3D高斯应用生态的头部企业都接入了LCC,成为其域生态的一部分。

LCC在做一件事:把3DGS嵌入已有生产体系,而不是成为一个孤岛工具,3D高斯开始进入真实工作流。

“MP4时刻”,还差最后一步

李飞飞这次带来的,是一个非常重要的信号:

3DGS在“生成与分发”层面的能力,正在快速逼近临界点。

但历史已经证明——技术从“可行”走向“爆发”,中间一定还需要一个关键层:

标准 + 工具链 + 应用闭环。

视频如此,3D也不会例外。

其域创新在过去两年里押注的,正是这一层“看不见但决定一切”的基础能力。

所以回到那句核心判断:

不是让3DGS能在移动端打开,而是让它真正可用。

当3D内容可以像视频一样被编辑、分发、嵌入工作流、参与生产时,那一刻,才是属于3D世界真正的“MP4时刻”。

而现在,我们或许才刚刚走到它的前夜。

版权所有,未经授权不得以任何形式转载及使用,违者必究。

责编: 集小微
来源:量子位 #其域创新# #3DGS# #LCC#
THE END
关闭
加载

PDF 加载中...