给大家推荐一个 Stable Diffusion ComfyUI 工作流管理插件 Comfyspace,现在新增了模型管理功能。能力更强大了。
点击右上角的模型按钮,即可查看已安装的模型文件,同时它会同步Civitai的模型封面图,无需依靠文字猜测模型。模型分类也非常全面,不再局限于CKPT模型和Lora模型。
点击安装即可轻松查看Civitai的所有模型,并进行搜索,随时下载到对应文件夹。这个插件已成为我使用Comfyui时不可或缺的插件,而且他们的本地插件管理和历史生成结果查看功能也非常实用。
下载安装:https://github.com/11cafe/comfyui-workspace-manager
华为诺亚方舟实验室、清华大学信息科技学院、大连理工、香港大学和Hugging Face的研究人员,共同发布了一款名为PIXART-δ的超高清文生图模型。
这一模型集成了潜在一致性模型(LCM)和创新控制架构ControlNet-Transformer,实现了在文生图像方面的重大技术突破。仅需0.5秒2-4个推理步骤,PIXART-δ就能完成图像生成,速度比之前的PIXART-α模型快了7倍。
在ControlNet-Transformer的帮助下,PIXART-δ可以对生成模型的输出进行精确控制,包括图像的边缘、深度、分割和对象姿势等,类似于OpenAI的DALL·E 3。
字节跳动的研究人员开发了一种超高清文生视频模型MagicVideo-V2。
这是一个集成了文本到图像模型、视频运动生成器、参考图像嵌入模块和帧插值模块的端到端视频生成pipeline。MagicVideo-V2能够从文本描述中生成具有高美感、高分辨率、高保真度和流畅性的视频。通过大规模用户评估,它在人类视觉感知方面表现出优秀的性能。
MagicVideo-V2的设计包括以下关键模块: - 文本到图像模型:从给定的文本提示生成一个1024×1024的图像作为视频生成的参考图像。 - 图像到视频模型:使用文本提示和生成的图像作为条件生成关键帧。 - 视频到视频模型:对关键帧进行细化和超分辨率处理,生成高分辨率视频。 - 视频帧插值模型:在关键帧之间插值生成平滑的视频运动,并最终生成高分辨率、流畅、高美感的视频。
论文地址:https://arxiv.org/abs/2401.04468 项目地址:https://magicvideov2.github.io/
Midjourney 官方宣布,正在测试一种风格调整算法「风格参照」,帮助用户生成风格一致性图像。这项功能与图像提示类似,在图片提示中,你可以提供一个或多个图像的链接,用以描述你想要的统一风格。该功能支持 V6 和 Niji V6 版本(不支持 V5 等旧版本),该功能可能会在未来几周进行更新。
划重点: 1. 使用 —sref url(image)这个指令可以添加最多三张风格参考图,现在不用写promt,想要什么风格直接扔图给MJ,他会懂你😎 2. 进行时:在接下来很短的日子里,MJ即将推出另外一个新指令 —cref, 让你能更好的控制人物形象一致性。