Github 上的一个名为 OpenVoice 的 AI 语音克隆项目爆火,该项目由 myshell-ai 开源,仅开源了不到三周,就有了 6.1k 的 star。
OpenVoice能对声音风格的精细控制,包括情感、口音、节奏、停顿和语调,同时能够复制参考发言者的音色。
主要功能: - 准确的音色克隆:OpenVoice能够精确地克隆参考音色,并在多种语言和口音中生成语音。 - 灵活的声音风格控制:用户可以控制生成语音的情感和口音,以及其他风格参数,如节奏、停顿和语调。 - 零样本跨语言声音克隆:OpenVoice可以在未包含在大规模多语言训练集中的任何语言之间进行声音克隆。
试玩地址: https://github.com/myshell-ai/OpenVoice
熟悉 Midjourney、Stable Difusion 等 AI 绘画工具的朋友可能遇到这样一个问题:在图像中生成或嵌入精确的文本可能会比较困难。
现在不必太担心了,阿里巴巴集团的研究人员已经开源了一款名为 AnyText 的多语言视觉文字生成与编辑模型。
AnyText在生成文字方面的控制能力可以媲美专业的PS,用户可以自定义文字出现的位置,以及图片的强度、力度、种子数等参数。
目前,它在Github上已经获得了超过2,400颗星的好评。并且 AnyText 可以作为插件无缝集成到其他开源扩散模型中,从而全面增强了图像嵌入精准文本的能力。
今年接触了太多 AI 工具了,AI 绘画的先不说,光是视频生成就已经让我震惊不已。今天刷到了一个 VideoPoet 作者的专访,分享的一些关于视频生成领域的观点非常有意思,其中关于视频生成领域的 “ChatGPT 时刻”的解读前瞻性十足,大家感兴趣的可以了解一下!
以下是引用: “ 视频生成的“ChatGPT 时刻”,我觉得大概是,哪怕模型生成的还是比较短的片段,比如 2-5s,但这个生成是可控的,人类也很难分辨是 AI 生成还是人类制作。从用户角度,只需要几美分的代价,就能获得一个可以被送到好莱坞专业 studio 的样片。如果类比的话,可以类比到图像领域 stable diffusion 1.x 或 2.x 版本,肯定还有再提升的空间,但已经到了能使用的程度,而且能激发很多应用。
我的预测是,到 2024 年底或 2025 年初,我们可能会到这个时刻。并且我认为,实现这个时刻肯定也需要 diffusion 参与,并且 diffusion 在未来一段时间,比如 1 到 2 年内,可能仍然是主流,扮演很重要的角色。这里说的 diffusion 已经包含了 transformer。
“ChatGPT 时刻”意味着模型到了一个相对稳定的阶段,但后面还会再改,只不过是在这个基础上做小的改动,可能一开始版本只能做到逼近好莱坞,有一些缺点,但可以商业化运用了,但要达到真正稳定需要更长时间。随后还可能仍会迭代升级。
现在市场上所有的视频生成都达不到这个标准,所以我认为视频生成的方法可能还需要进一步迭代,有可能要达到“ChatGPT 时刻”需要新的模型和方法,它不一定是全新的模型或者架构,可能是现在市场上的某个技术路线或者方案再往前走一步。”