Meta 近期发布了其 3D 素材生成 AI 系统的最新版本,并称之为“一次意义重大的飞跃”。此次更新备受关注,预示着 3D 内容创作领域即将迎来变革。
Meta Horizon Desktop Editor 工具(用于创建 Horizon Worlds 体验)上个月已经加入了通过文本提示 AI 生成 3D 素材的功能,这似乎是利用了 Meta 2024 年发布的初代 AssetGen 模型。 这使得任何人都能在几小时内免费构建自定义虚拟世界,而无需任何 3D 建模技能。 但是,这些 AI 生成的素材存在明显的质量问题,尤其是在 VR 中近距离观察时更为明显。而 AssetGen 2.0 旨在解决的正是这个问题。
Meta 声称,与初代模型相比,AssetGen 2.0 提供了“显著改进的细节和保真度”,包括“具有非常精细细节的几何一致性”。该公司表示,AssetGen 2.0 为业界树立了新的标准,并且“突破了生成式 AI 的可能性界限”。 考虑到当前AI技术的快速发展, Meta的声明或许并不夸张。
从技术层面来看,AssetGen 2.0 采用了与初代模型完全不同的架构。 AssetGen 1.0 的工作方式是首先根据提示生成目标素材的多个 2D 图像视图,然后将这些图像馈送到另一个神经网络,以生成素材。 相比之下,AssetGen 2.0 是单阶段 3D 扩散模型,直接从文本提示生成素材,并且直接在大量的 3D 素材语料库上进行训练。这种架构上的改变,预示着生成质量和效率上的提升。


Meta 的 AssetGen 2.0 AI 模型生成的 3D 素材。
Meta 表示,它已经在“内部”使用 AssetGen 2.0 来创建 3D 世界,并将于今年晚些时候将其推广到 Horizon Desktop Editor。 这无疑是Meta在元宇宙领域持续投入的又一力证。
该公司写道:“我们期望 AssetGen 2.0 能够帮助普及 3D 体验的创建,使其与 2D 内容创建一样易于访问,并为在 Meta 的 Horizon 和 Avatar 平台上工作的艺术家、设计师和开发人员开辟新的创作可能性。” 这也意味着,未来元宇宙的内容创作门槛将进一步降低,更多的人可以参与到虚拟世界的构建中来。
Meta 还暗示,它正在研究 AI 生成“整个 3D 场景”,这将使创作者能够使用文本或图像提示在几分钟内生成整个世界,而不仅仅是单个素材。 这预示着未来元宇宙的建造方式将发生根本性的变革,想象一下,只需输入一段文字描述,就能生成一个完整的虚拟城市,这无疑将极大地加速元宇宙的建设进程。