大模型之家讯 CreateAI(OTC:TSPH)今日宣布,公司与中国科学院自动化所共同研发的4D世界模型NeoVerse正式发布,相关研究论文已同步在项目主页上线,供全球开发者查阅。该模型融合diffusion与4DGS核心技术,基于100万段开放场景(in-the-wild)单目视频训练,30秒即可完成通用4D世界模型构建,不仅打破传统4D建模对昂贵多视角数据的依赖,更实现“重建+生成”无限迭代闭环,相关性能在标准基准测试中达业界领先水平。

作为兼具通用性与高效性的4D建模解决方案,NeoVerse可全面覆盖影视制作、具身智能、自动驾驶等各类场景,支持4D重建、精准漫游、多视角生成、视频编辑、三维点跟踪等多元应用,推动4D技术从“专用”走向“通用”,加速其在各行业的落地普及。
VGGT高斯化:秒级完成场景重建
NeoVerse基于视觉几何基础变换器(VGGT)构建免位姿输入(pose-free)前馈式4D高斯溅射模型,摒弃传统迭代式优化路径,无需复杂离线预处理,一次预测即可在几秒内完成动态场景4D建模,大幅降低技术应用门槛。
双向运动建模:稀疏帧实现高保真渲染
模型创新性建模高斯基元前后向运动变化量,实现“稀疏帧重建,密集帧渲染”,在少量稀疏关键帧输入的条件下渲染出连续密集的视频画面。在大幅提升重建效率的同时,保障动态场景的时空一致性。
单目退化模拟:攻克复杂场景泛化难题
通过高效稀疏重建出的高斯基元进行剔除与平均几何滤波,NeoVerse能够模拟出新视角下的退化渲染模式,这将与原视角的视频构建训练数据对。整个训练管线仅需要单目视频,摆脱了以往对昂贵多视角数据的依赖。

“NeoVerse是我们与中科院自动化所产学研协同的重要成果,更是用技术解决行业痛点的又一次实践。”CreateAI首席科学家王峰表示,“大模型训练依赖于可扩展的(scalable)海量数据,而多目或4D数据过于昂贵导致世界模型的发展速度受限。我们提出的Feedforward 4D Gaussian重建加Diffusion生成的方法,通过单目视频即可高效地合成大量的4D数据,为4D世界模型的建立铺平了道路。”
此次发布的NeoVerse模型支持强大的蒸馏LoRAs(distillation LoRAs)扩展,在单张显卡上可实现低于30秒的快速推理,具备优异的产业级应用潜力。值得一提的是,公司此前在计算机视觉领域已斩获佳绩,相关研究论文成功入选顶会ICCV 2025;本次依托中科院自动化所在多模态人工智能领域的深厚学术积累,NeoVerse在技术创新性与学术领先性上获得双重保障。

如需了解此次NeoVerse相关研究论文的更多细节,请访问:https://arxiv.org/abs/2601.00393
原创文章,作者:志斌,如若转载,请注明出处:http://www.damoai.com.cn/archives/14192