今天,我们正式发布新一代3D 生成模型 Seed3D 2.0。
围绕几何精度和纹理材质,Seed3D 2.0进行了架构升级,并拓展了3D 内容的下游可用性,进一步推动3D 生成迈向“生产可用”。用户输入一张图,即可生成结构更准确、材质更真实的3D 资产。
在行业常用的 Pairwise Comparison 盲测中,60 位具有3D 建模经验的评测者基于约200个测试用例,对 Seed3D 2.0与6个主流模型进行两两偏好评估。结果显示,Seed3D 2.0 在几何生成和端到端带材质资产生成两项核心任务上,相比所有参与对比的主流模型均呈现更高的偏好率,在专业测评中被显著感知。
![[MD:Title]](http://img1.mydrivers.com/img/20260423/210c9b65-6af4-426a-b3d3-92d064d19633.jpg)
具体而言,Seed3D 2.0本次升级主要体现在几何生成质量和材质真实感两方面;与此同时,我们也围绕仿真、具身智能等下游场景持续探索3D 内容的可用性拓展。
当前,Seed3D 2.0 API 服务已上线火山方舟。
几何生成更高精度
空间结构推理能力进一步提升
在3D 生成中,白模常常被用于确定精准几何结构,为精细纹理生成和实际生产落地奠定基础。然而,3D 生成的白模往往存在几何质量不稳定的问题,如噪点、烂面、倒角模糊、结构错乱等情况,用户往往需要花数小时修模才能使用。
Seed3D 2.0生成的白模完整保留物体的结构细节,倒角边缘清晰锐利,精准还原目标物体的结构特征。
这一改进得益于几何生成架构的重新设计。Seed3D 2.0采用 Coarse-to-Fine 两阶段策略,将“整体结构”和“几何细节”解耦:阶段一先由大参数 DiT 基于输入图像生成粗粒度几何,建立整体的拓扑关系和空间布局;阶段二以阶段一的输出作为几何锚点,专注于锐利边缘和精细表面的恢复。
如下图所示,与现有主流3D 生成模型的定性对比表明,Seed3D 2.0在处理复杂结构的精细边缘、生成薄壁结构和还原输入图像方面明显优于基线方法。
几何生成维度的定性对比
此外,Seed3D 2.0在空间结构理解上也有较好表现,可以基于有限的视觉信息,推断出物体的完整三维结构。
以一张工业传送带的示意图为例,Seed3D 2.0不仅还原了传送带主体,还推断出下方支撑腿的排列方式、整体的长宽比例、以及各组件之间的连接关系,生成结果在结构逻辑上与原图保持一致。
![[MD:Title]](http://img1.mydrivers.com/img/20260423/f21e7c42-2724-4687-a081-db8cd9b33cbc.jpg)
纹理材质生成更精细
可直接进入标准渲染与生产流程
此前3D 生成模型在材质环节存在几个典型问题:文字和符号容易出现模糊、变形、乱码;金属与塑料的质感难以区分;真实物体的光学属性难以精确还原。
Seed3D 2.0对材质生成架构做了系统性调整,带来了几个关键维度上的能力提升:文字与符号的还原精度提升,可支持产品铭牌、包装、logo 等对文字清晰度要求较高的场景;支持多层级、多类型的复杂材质组合,能够准确区分金属、塑料、陶瓷、织物等不同材质的物理属性差异;输出完整的 PBR 材质贴图,使得3D 资产在不同光照条件下保持物理一致的视觉表现,产物可直接接入标准渲染管线。
![[MD:Title]](http://img1.mydrivers.com/img/20260423/1302920d-c7f3-4fb5-8b21-81e097bef155.gif)
更灵活的组件生成
面向仿真和具身场景的探索
在具身智能训练、仿真环境搭建等下游场景中,3D 资产需要支持物理交互,而不只是静态展示。
后续,Seed3D 2.0将支持把完整3D 资产按功能拆分为独立部件,并为部件添加关节信息,适配铰链结构的旋转、抽屉的推拉、机器人关节的多自由度活动等物理运动,可用于机器人抓取等动态交互仿真任务的资产构建。输出结果经处理后,将兼容 Isaac Sim 等主流物理仿真引擎,减少传统流程中物理属性绑定和结构优化的人工成本。
在场景层面,模型未来也将支持文本、多视角图片或视频等多种输入,并组合多个3D 资产生成完整场景。
高质量、可用的3D 资产,正在成为具身智能、工业制造、数字孪生等场景加速落地的重要基础。从几何生成到材质表达,再到面向仿真等下游流程的持续探索,Seed3D 2.0正在推动3D 生成更快走向生产可用。

