
最近我试了不少AI生成3D模型的工具,比如Tripo AI,Meshy AI之类的,玩了一圈,发现目前最有机会用到项目里的是腾讯新出的AI工具,叫混元3D Studio。
它能做从建模开始,到拓扑低模,到拆UV,画材质,甚至连绑定和动作都能做了,最后还能导出各种常用模型格式fbx,gltf之类的,可以说是非常贴近项目所需了,不愧是做游戏的行家。要知道,现在在游戏行业,在美术资产这块基本上是项目成本最大的部分,要是能降下来的话,价值非常高。
我周末在腾讯的3D studio中,在短短1个小时内,就从生成概念图一直到最后生成了一个会动的3D模型。先看最终效果,全程大部分时间都在等AI出结果,自己操作的耗时不超过10分钟,这在以前起码要1个星期以上,太夸张了。

因为我没有太多时间去调整模型,这个模型和动作还有很多问题,但不妨碍这个工具的实用性。
听说已经有不少公司在项目中用起来了,所以大家一定要看完这篇教程,相信对你会有很多启发,说不定连找工作都有帮助。
体验地址是:https://3d.hunyuan.tencent.com
其中它的3D Studio是需要申请的,我目前已经拿到了体验资格,所以给大家先睹为快了。
更多相关测评:
它的界面也很直观,左边是3D模型制作的全流程,选了流程后可以写提示词,上传参考,然后AI出资源,右边可以看到所有过程资源。在等的时间比较久,但其实不影响你查看其他过程资源,不影响它的生成。
我们一步步来,先从概念设计开始。先看下这个AI工具的几个主要功能区,一眼就懂了,就不多解释了。

可以直接用它的文生图功能,如果要做动画的话,可以把“标准化A-pose”勾选上,这样出来的模型方便后续做绑定。可以在风格化中指定多种艺术风格,如Q版、二次元、赛博朋克等,快速探索视觉方案。

也可以上传一张原画,让它帮你生成多视图,这样后面生成的模型更准确一些。

如果是用来做项目,我推荐用后者,会更精确一些,免得抽卡,而且目前它生成的概念图效果比较一般。我通常会用midjourney来出2D概念图,然后再用它出标准的多视图。
到这一步就可以根据上一步生成的概念图,开始AI建模了。

它会在设置里自动把上一步的概念图带过来,这里默认只能选择V2.5模型,公开版里面已经可以选择V3.0的版本了,但studio中目前还选不了,估计还在测试中,不够稳定。模型面数,我们先用默认的方式即可,然后点“立即生成”就开始AI建模了。等大概3分钟左右,一个白模就建好了。
这效率,放以前完全不敢想象,之前要建一个这样的模型,得在C4D之类的建模软件里先摆好参考图,对齐好坐标,然后选一个合适的部位开始布线,不断切视图做结构,做好这样一个模型至少得1天时间,还得是手快的情况下。

在这一步的时候,通常生成的模型会有一些细节需要调整,可以把模型下载下来,在其他软件里调整。

目前支持下载fbx,stl,usdz,mp4,gif格式,前面3个是模型文件,后面2个是可以展示模型整体效果。

我们以前手动建模的时候,其实一般都会把模型分成很多个不同的层,比如手是一个层,身体是一个层,分开建模方便编辑。
这个工具就是仿照我们过往的建模流程,把上一步自动生成的单层模型拆分开。AI能自动将模型按结构(如头、手臂、腿、衣服)拆分成可独立编辑的组件。
这是拆完之后的结构,会用不同的颜色把拆完的部件做好区分,并且还能自动生成模型边界。

如果觉得某个部件拆的不够细,还可以选择那个层继续拆分。如果觉得拆错了,也可以点“合并”,把mesh层进行合并。包括模型的边界框也是可以调整的,跟在3D软件里的操作差不多。

拆完部件后,基本上一个模型就算是成型了。接下来,由于高模不能直接用到游戏里,按我们以前项目中的流程应该是要开始做低模拓扑了,为后续的拆UV做准备。
这一步过去是极其耗时和考验技术的。等布线的好,后面的步骤都会方便很多,尤其是对于拆UV和动作绑定,没想到现在AI就能快速搞定。
我测试了下,当我选择“低”面数时,模型从45万面减少到不到1万面,此时会发现模型结构发现了很多丢失,要调整的地方会变得很多。

如果觉得到这一步减的太过了,可以重新选择右边上一步的模型资产,重新做一次减面。

我重新做了一次高面数的拓扑,这一次细节会保留的完好一些。

根据我的测试结果,推荐一般选高面数+四边面的组合,这个时候的生成结果,下载下来调优是比较方便的。
等模型做好了减面,检查也没问题了,到这一步就可以开始拆UV了。这同样是一项繁琐的技术活,但现在AI也能自动给你搞好了。
一般是把你在其他3D软件里调好布线结构后,重新在UV展开这一步上传模型。

我这里为了给大家演示,就不调优了,直接用上一步生成的高模拆UV。

界面左边可查看UV的分布情况,右边模型上同步显示对应的区域。从拆的结果来看,UV分布,对齐都做的还不错。
这一步你也可以把UV下载下来,自己去给模型画贴图了。
拆好了UV,就可以开始画贴图了。这里有3种模式,可以是上传一张参考图生成,也可以用前面的概念图直接画,也可以用文生纹理,其实就跟我们正常的AI出图差不多的逻辑。

为了方便演示,我就直接用概念设计的图作为参考来画贴图了。如果你发现生成的效果不满意,是可以继续抽卡的,但目前的输出效果基本上还是需要人工介入来画完善贴图细节。

AI会根据UV和模型结构,一键生成PBR基础纹理贴图。你也可以继续你想要的材质效果,重新生成对应的材质。
根据我测试的结果,目前的纹理生成质量还比较差,需要把模型整个下载下来(会把贴图带出来),然后在本地3D软件中重新画。
我这里为了方便演示,就不修图了,大家将就看,理解意思就行。
画完了贴图,把模型静态效果都确认了,接下来就可以做绑定了。
以前手动绑定、刷权重的工作,现在也可以一键完成。

这一步目前我测试下来,骨骼只能对一个大概,最好也是建议把模型先下载到本地重新调整。
这里为了方便演示,我就不调了。
最后一步,让绑定好的模型直接动起来。这一步可以点选左边动作库里的动作,直接生成对应的动作。
比如就选第2个,让女生来一个左勾拳。
目前动作库里的动作还不是很多,有点像以前我们常用的Mixamo一样。但目前从生成的动作看,还不是太稳定,动作也不够丝滑,必须得下载下来重新调整。
周末完整的体验下来,我想客观的总结下它的优劣,优势看的见,但目前不足的地方也很明显。
先说我觉得好的地方。
从最初的创意构思,用AI来生成画面提示词,世界观脚本,然后再用AI出图,再出模型,把模型下载下来优化后再上传到AI,然后再通过AI做基础绑定,然后再下载下来精修。
你基本上可以拿AI当成一个实习生来用,它帮你做好繁琐的基础工作,然后你再像一个美术指导一样做好精修微调,直到跟进落地。
再吐槽下我觉得很烂的地方。
它目前文生模型非常难用,用图参考稍微好点。AI生成模型的过程相比于出图和文字来说,实在是太久,抽卡的成本很高。文生模型主要是受提示词影响太多了,目前比较好的方式还是设计师先文生图,找灵感,然后出三视图,再用AI去生成模型。
细节可控性弱。AI在纹理细节、骨骼精准度、动画流畅度等方面仍存在“幻觉”和错误率,无法做到100%完美,关键步骤基本上都要人工介入精修。
对非标准结构处理能力有限。虽然支持非人形生物,但对于结构特别复杂或天马行空的幻想生物,AI的识别和处理能力还不行。
另外软件还不稳定,经常卡死。有时候就是生成到了99%,然后就不动了。这个时候,可以选择刷新下网页,实测是可以解决问题的。
总结起来,以前这块的技术门槛非常高,建模,绑定,动画,在游戏行业的每一个生产环节都要花费非常多的精力,所以做游戏行业的工资也确实高。但现在有了AI后,感觉这块也快被平权了。听说在实际工作中,已经有不少公司在用AI去生成模型了。
看到这里,有些朋友可能又要问了,这类AI工具会取代3D设计师吗?
短期来看,我觉得不会。目前还没有任何一款AI工具能“一竿子捅到底”,它更像一个实习生的水平。
在实际工作流中,先用AI快速生成大量概念设计图和3D草模,用于初期方案的验证和筛选。把繁琐的拓扑、展UV、基础绑定等工作交给AI,设计师作为“艺术指导”,在AI完成的基础工作上进行二次优化和精修。
不过长期来看,趋势也很明确,AI必定会重塑过去的工作流。一些标准化的、重复性的基础岗位可能会被逐渐替代。
但我不觉得咱们人就没价值了,反而对我们的“创意能力”和“审美判断力”提出了更高的要求。
所以,技术虽然是平权了,但同时也会拉大普通人和牛人之间的鸿沟,要知道这个世界上,想学的人你不说他也会主动去学,而不想学的人,你怎么推他也不会去学。
AI行业发展的速度可真快啊,以前还只能用blender生成一些非常简单的模型,那时候就足以让我觉得神奇了。
结果这才过去多久,就已经可以把一整套复杂的3D流程给做了,再往后的发展,真的很期待。
应了我之前的预测,执行类的活迟早都会被AI所替代,我们人能做的,只能是拼想法,拼判断力了。
欢迎关注作者的微信公众号:「彩云译设计」

复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。




发评论!每天赢奖品
点击 登录 后,在评论区留言,系统会随机派送奖品
2012年成立至今,是国内备受欢迎的设计师平台,提供奖品赞助 联系我们
用户体验设计核心问答
已累计诞生 759 位幸运星
发表评论 为下方 3 条评论点赞,解锁好运彩蛋
↓ 下方为您推荐了一些精彩有趣的文章热评 ↓