Adobe Acrobat 迎来了重大 AI 升级,支持多文档分析和图像生成,此次升级主要包括以下两个方面:
1、多文档分析:Acrobat 的 AI 助手现在能够同时分析和查询多个文档,包括非 PDF 文件。这意味着用户可以将多个 PDF 或其他格式的文件拖拽至应用程序中,AI 助手会自动处理这些文件并提供相关信息。
2、图像生成和编辑:Adobe Acrobat 引入了全新的“Generate Image”功能,用户可以选择 PDF 文件中的某段内容,调用 AI 来生成图片,并调整图片的样式和大小。还有“Edit Image”功能,允许用户通过 Firefly AI 模型对现有图像进行编辑,例如删除背景、擦除和裁剪等。
这次升级显著增强了 Acrobat 的功能,使其在处理复杂文档和图像方面更加高效和智能。
各位设计师们,这个工具太牛了啊,只需在源图像中指定需要编辑的区域,并提供一张参考图,MimicBrush 就能智能捕捉两者间的联系,自动完成局部编辑或替换。该工具的主要功能包括局部区域编辑、纹理转移和后期处理优化等。分享给大家!!
MimicBrush 是由中国香港大学、阿里巴巴集团和蚂蚁集团联合开发的一种零样本图像编辑工具,通过参考图像进行模仿编辑,帮助用户更方便地进行创作。
MimicBrush 的主要特点包括: 参考图像模拟:分析并复制参考图像中指定的视觉特征到源图像中的标记区域,确保风格或内容的一致性。 零样本图像编辑:允许用户在没有原始目标图像的情况下进行图像编辑,通过参考仿制的方式实现编辑效果。 文本到图像对齐:利用 CLIP 编码器和 VAE 实现文本到图像的对齐功能,用户可以通过输入文本描述来指导编辑过程。 多样化的编辑结果:展示了一系列多样化的编辑结果,包括局部区域编辑、纹理转移和后期处理优化等功能。
MimicBrush 还简化了复杂的编辑流程,提高了效率和灵活性,特别适用于产品定制、角色设计和特效制作等领域。其底层框架基于 SD1.5 的扩散模型和 MimicBrush 模型结合,极大地简化了 AI 图像编辑的流程。
项目地址:https://github.com/ali-vilab/MimicBrush
大家还记得 Sora 是什么时候发布的吗?2 月份,当时 OpenAI 发布之后,一夜之间就把 AI 视频生成界搅得天翻地覆啊,但是现在一点消息都没有了,反倒是其他平台遍地开花,特别是这个月,简直太爆炸了~
昨天深夜,Runway 放出酝酿了半年的全新版本 Gen-3 Alpha,也让我们再次见证了这些巨头的底蕴。
Runway Gen-3 Alpha 特点如下: 高保真视频生成:能够生成接近真实世界质量的视频内容,具有高度的细节和清晰度。 精细动作控制:模型能够精确控制视频中对象的动作和过渡,实现复杂场景的流畅动画。 逼真人物生成:特别擅长生成具有自然动作、表情和情感的逼真人类角色。 多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。 先进工具:支持运动画笔、相机控制和导演模式等专业创作工具。 增强的安全措施:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。 高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
现在还在内测中,后期可以体验的时候再给大家分享地址!
暑期档看什么?小编强烈安利博纳影业抖音联合出品的 AIGC 科幻短剧集《三星堆:未来启示录》
在博纳 25 周年向新而生新闻发布会上,博纳影业出品制作、抖音联合出品的 AIGC 科幻短剧集《三星堆:未来启示录》正式亮相。该剧第一季共 12 集,作为抖音推出的首部 AIGC 科幻短剧集,预计上线今年的短剧暑期档,在即梦 AI、博纳影业 AIGMS、剪映的抖音官方账号同步更新。即梦 AI 作为首席 AI 技术支持方,基于豆包大模型技术,为《三星堆:未来启示录》提供AI剧本创作、概念及分镜设计、镜头画面生成、图像到视频转换、视频编辑和媒体内容增强等十种 AI 技术。
喜欢 AI 视频的小伙伴一定不要错过啊!
斯坦福大学的研究团队与 Apparate Labs 前几天发布一款名为 Proteus 的创新 AI 视频生成模型,可以从单一图像生成笑、说唱、唱歌、眨眼、微笑、说话高度逼真和具有表现力的虚拟人物。 PROTEUS兼容多种大模型的多模态输入,可以处理语音、文本和图像等多种形式的数据。
Proteus模型亮点: - 高度逼真:利用先进的AI技术,Proteus能够从单张图片生成具有高度逼真表情和流畅动作的虚拟人物形象。 - 低延迟生成:Proteus模型具备低延迟特性,能够实时响应语音输入,生成每秒超过100帧的视频流。 - 多模态交互:模型支持语音、文本和图像等多种输入形式,实现与用户的自然直观交互。
应用领域: Proteus模型在个性化虚拟助理、虚拟宠物、情感支持、客户服务、教育和培训、游戏定制、影视娱乐、市场营销和社交媒体等领域具有广泛的应用潜力。
申请体验地址: https://apparate.ai/early-access.html
我们都知道 Stable Diffusion 3 是一款强大的文生图模型,拥有20亿参数,因其高效的推理速度和卓越的生成效果而备受瞩目。
近日,Stability AI在推特上宣布正式开源了 Stable Diffusion 3 Medium(SD3-M) 权重,为广大用户带来了免费试用的机会。而且官方还宣称 SD3-M 是他们 Stable Diffusion 3 系列中最新、最先进的文本转图像 AI 模型!
Stable Diffusion 3 Medium(SD3-M)关键要点: 1. Stable Diffusion 3 Medium,由 Stability AI 推出,代表了我们迄今为止在文本到图像领域最前沿的开放模型技术。 2. 这款模型设计紧凑,便于在常见的个人电脑、笔记本电脑,以及企业级图形处理单元(GPU)上高效运行。其优化的大小使其成为文本转图像应用的新一代标准。 3. 现在,这些精心调整的模型权重可以在非商业性的开放许可证和面向创作者的低成本许可证下供您使用。如果您有大规模商业应用的需求,欢迎联系我们以获取更详细的许可信息。 4. 想要体验 Stable Diffusion 3 模型的魅力,您可以通过 Stability AI 的平台 API 来尝试。我们还提供在 Stable Assistant 上注册即可享受的三天免费试用。此外,您还可以通过 Discord 加入 Stable Artisan,进一步探索模型的潜力。
Stability AI官方公告 地址:http://stability.ai/news/stable-diffusion-3-medium
设计师新宠来啦!初创公司 Luma 全新发布 Dream Machine,能从文本/图像直接生成视频。感觉比 Sora 也差不了多少。
Dream Machine 120秒就能给你做出一个120帧的视频!这速度,想改点啥,马上就能再做一个新的,太高效了!而且镜头效果超自然,Dream Machine还超级懂镜头语言!它能模拟出各种电影级的摄像机运动,让你的视频看起来就像大片一样流畅、自然。
大家可以看看下面的演示视频,它还能理解人和物是怎么在现实中互动的,所以做出来的视频里,角色和场景都超级真实,一点都不会觉得假。
最最最主要的是,现在人人都可以免费体验!服务器都快被大家挤爆了,你还在等啥呢?赶紧来试试吧!
体验地址:https://lumalabs.ai/dream-machine
近日,快手发布了国内首个效果对标 Sora 的视频生成大模型「可灵」,并已在其旗下的快影App中开放邀测体验。
可灵大模型是由快手 AI 团队自研,采用了类似 Sora 的技术路线,并结合了多项自研创新技术。该模型具备强大的概念组合能力和想象力,能够生成具有大幅度合理运动的视频,并模拟物理世界特性。其生成的视频分辨率高达1080p,时长最高可达2分钟(帧率30fps),且支持自由的宽高比。
可灵大模型不仅限于文生视频功能,还将推出其他应用,如“AI舞王”和“AI唱跳”,这些应用可以驱动表情和肢体动作,仅需一张照片就能生成相应的视频。
目前,可灵大模型已在快影App中正式开启邀测,支持720p视频生成,竖版视频生成能力也即将开放,大家可以来试一试,看看生产的效果怎么样!
官网地址:https://kling.kuaishou.com/
给大家分享一个超好用的短视频制作 AI 神器:GlatoAI。特别适合那些想快速给产品做介绍的自媒体小伙伴们,还有想第一时间get新产品信息的商务大哥大姐们。
你只需把链接往上一贴,不管是文章、产品页还是啥网页链接,GlatoAI 都能秒速分析,然后给你做个配套的短视频广告。视频里啥都有,包含讲话的人物+语音+字幕。
就这么简单,不需要你费太多脑筋。赶紧试试吧,真的超好用哦!
如果对效果不满意,还可以在以下方面进行更多的调整: 1. 修改名称、上传标志、产品描述、期望持续的时间、额外的介绍信息 2. 除了自动收集链接中的图文视频之外,也可以选择自行上传更多信息 3. 从多个备选的视频脚本中进行筛选 4. 更改不同的数字人形象(性别、年龄、拍摄背景等等)
官网地址:GlatoAI
腾讯发布了 ToonCrafter,是一种新型的卡通动画生成技术,可以通过生成插值方法生成自然、连贯的卡通动画中间帧。该技术超越了传统基于对应关系的卡通视频插值方法,能够处理复杂的非线性运动和遮挡问题,使动画过渡更加平滑自然。
从演示来看效果很好,过渡很顺滑,而且没有明显问题。ToonCrafter 利用预训练的图像到视频模型,可以插值两幅卡通图像,并根据参考图像对动画草图自动上色。它支持生成最多16帧的视频,每帧分辨率为512x320。通过减少DDIM步骤,可以降低推理时间。
还设计了一个灵活的草图编码器,使用户能够对插值结果进行互动控制。
项目地址:ToonCrafter
就在刚刚,著名生成式 AI 音乐平台 Elevenlabs 在官网发布了全新功能,文本可直接生成各种逼真音乐特效。
这项技术对于电影、游戏、短视频等行业非常有帮助,因为它可以简化寻找音效的过程,并且多数音效已经获得了 Shutterstock 的商业授权。
Elevenlabs 的这个新功能允许用户通过描述来生成音效,例如汽车呼啸而过的声音、刀剑碰撞的低沉声音或小提琴划过空气的尖锐声音。用户可以登录 Elevenlabs 的官网,选择 “Sound Effects” 并使用该功能。在生成音效之前,用户可以设置音效的时长和文本提示的还原程度。Elevenlabs 还提供了一些示例音效,如雷雨天气的声音和模仿兽人声音的摇滚音乐。
Elevenlabs还提供了语音克隆和文本转语音的功能,但目前对中文的支持较差,生成英文的效果则非常棒。
现在所有用户都可以免费试用 Elevenlabs 的这个新功能。大家可以访问 Elevenlabs 官网了解更多详情。
今天我要推荐的网站,能为你提供未来感十足的AI网站生成体验!
Framer 由Koen Bok和Jorn van Dijk于2014年创立。他们曾在Facebook和Hype进行产品设计和开发,看到现有设计工具无法满足创建复杂互动原型的需求,于是创立了Framer。当下,Framer已经成为设计和开发领域的重要工具。
虽然在实时协作和矢量设计方面,Figma等竞争对手更具优势,但Framer凭借其在互动原型和动画方面的强大功能,保持了在设计工具市场中的重要地位。
✨ Framer亮点 ✨ ① 无代码设计:你无需编程基础,通过拖放组件即可创建复杂的交互效果。 ② 实时协作:多人同时编辑和评论,团队合作更加高效流畅。 ③ 自动化设计:智能布局和响应式设计功能,让你的作品在任何设备上都完美呈现。这也是最打动我的一点。现在大大小小的设备太多了,能做到多端适配,简直感动到哭。 ④ 丰富的模板和组件:海量模板和UI组件库,助你快速启动项目,节省时间。 ⑤ 高保真原型:从静态设计到动态原型,一气呵成,完美展示用户体验。
官网地址:Framer
昨天(5月30日)凌晨,OpenAI 在 x 平台宣布,GPT-4o 多模态能力向所有用户免费开放。不过,在使用次数上官方没有更新公告,预计还是会是有一定次数限制。
北京时间 5 月 14 日凌晨,OpenAI 举办发布会,带来了 GPT-4o 。该模型打通了文本、图片、视频和语音输入,无需中间转换,互相之间就可以直接生成。此次发布会还带来了更智能的实时语音助手,以及适用于 macOS 的 ChatGPT 桌面应用程序。
当时,OpenAI 宣布向 ChatGPT Plus 和 Team 用户推出 GPT-4o,很快就会向企业用户推出。同时,也向所有人开放 GPT-4o 多模态能力,但有使用次数限制。