第一阶段:门外汉 (Non-Players) L1 无感者 (Unaware):完全不用。坚持传统手工方式,与 AI 绝缘。 L2 怀疑者 (Skeptic):拒绝使用。认为是炒作或玩具,心态抵触。
🏃 第二阶段:使用者 (Users) L3 消费者 (Consumer):会聊天。像用搜索一样用 ChatGPT,仅进行基础问答。 L4 捣鼓者 (Tinkerer):凭直觉。尝试辅助编程或创作(Vibe Coding),但缺乏系统性。
🚀 第三阶段:构建者 (Builders) —— 职业分水岭 L5 构建者 (Builder):造流程 (Workflow)。 核心:可靠性 & 迭代。 能力:不再是“抽卡”碰运气,而是通过上下文工程和评估体系,把 AI 变成稳定产出的工具。 L6 架构师 (Architect):筑系统 (System)。 核心:编排 & 集成。 能力:指挥多个模型协作,深度集成个人数据,构建市面上买不到的专属系统壁垒。
博主TechHalla分享了一套用GPT-4o做动画的教程,流程简单清晰,跟着操作即可做出这样的动画【视频1】。
话不多说,我们直接来看操作步骤:
1、生成角色形象:首先,把你的自拍丢给GPT-4o,要求生成「2.5D风格卡通形象」,需满足以下条件:T-pose姿势(双手水平张开、身体站直)、细线条画风、服装保持统一、背景为绿幕。
转换好自己的卡通形象后【图2】,接着让GPT-4o参照相同风格制作三位配角,确保整体风格一致【图2 图3 图4】。
2、画场景:接下来是搭建动画舞台。向GPT-4o描述你想要的场景,比如“咖啡馆”、“末日街道”、“魔法森林”等,补充关键词(如“白天/夜晚”、“科技感/童话风”等),让它按照之前的风格输出16:9比例的场景画面。
GPT-4o生成的场景后,再搭配Magnific AI,将图片高清放大,并加深纹理细节后,就形成了这样的画面:一个坐落在荒废沙漠的西部城镇,效果堪比绘图软件【图6 图7 图8】。
3、场景融合:现在来到了最神奇的部分,上传角色和环境,让GPT-4o帮你放在一个场景中,你可以说主角站哪、配角站哪,画面比例是多少,镜头怎么摆放等等。【图9】
就是这么模糊的描述,GPT-4o竟然完美理解并做到了!画面中,作者自己和卡皮巴拉坐在酒馆吧台,酒保在他们面前擦拭酒杯。【图10】
4、生成分镜:继续告诉GPT-4o,让它根据剧情生成多种角度的画面(俯拍、侧拍、对话视角),还可以详细描述想要的画面,比如“男人和卡皮巴拉走向旅馆”、“登上台阶”、“伸手开门”等一系列分镜。
GPT-4o准确“理解”了他的需求,并给出了这样的画面【图11 图12 图13】。
5、生成动画:动画这步,作者用到了可灵AI的v1.6模型,让可灵把上面那些静帧变成动图,生成“人物动起来”的效果,并加上环境音等音效,就生成了这样的动画片段【视频14 15 16 17】。
以上就是整套流程,无需手动画图或剪辑,只需要简单的提示词和几张参考图,用户就可以借助GPT-4o+Magnific AI+可灵AI三件套,生成动画效果。
by:微博@量子位 建议收藏转发,随时翻阅!
176,363+张插画验证:输入一句话,产出100%统一风格的商业级素材库
Ilus AI 拥有强大的预制风格模型库,无论是复古的墨线风、灵动的涂鸦风,还是简约的扁平化设计,只需一键调用,就能瞬间生成风格一致的插画作品。再也不用在复杂的参数调整中迷失方向,即使是设计新手,也能轻松上手,快速产出令人惊艳的视觉作品。
- 官网地址:https://ilus.ai/
核心功能 - 预制风格模型:基于检索增强(RAG)技术,内置墨线、涂鸦、扁平化设计等多种风格库,用户可直接调用生成插画,无需调参。 - 个性化模型训练:用户可上传 5-15 幅样本,通过扩散模型(Diffusion Model)微调生成专属风格,支持图标、角色等细分类型。 - 多模态生成能力:支持文本描述+图像参考联合输入,模型通过跨模态对齐技术实现精准风格迁移。 - 矢量/SVG 导出:生成结果兼容.png 和.svg 格式,可直接导入 Figma、Adobe 系列工具进行二次编辑。
适用人群 - 设计师:为品牌视觉、网页设计提供素材。 - 内容创作者:快速生成博客配图、社交媒体视觉。 - 教育从业者:制作课件插图、培训材料。 - 营销团队:高效产出广告海报、活动物料。