最近,Anthropic 发布了全新大模型 Claude 3.5 Sonnet,号称是迄今为止最智能的模型。
Claude 3.5 Sonnet 是 Anthropic 即将推出的 Claude 3.5 系列的首个版本。该模型提高了整个领域的智能水平,在绝大多数基准评估中都超越了竞品大模型和自家前代最强 Claude 3 Opus。而且,运行速度、成本与自家前代 Claude 3 Sonnet 相当。最重要的是可以免费使用!
以下是关于Claude 3.5 Sonnet的几个关键点: 1. 模型性能:Claude 3.5 Sonnet在多个基准测试中,包括研究生水平推理(GPQA)、本科生水平知识(MMLU)和编码能力(HumanEval),设定了新的行业标准,展现出对细微差别、幽默和复杂指令的出色理解能力,以及以自然、友好的方式生成高质量内容的能力。 2. 速度与成本:它的运行速度是其前代Claude 3 Opus的两倍,同时保持了与Claude 3 Sonnet相似的成本效益,这意味着对于用户来说,它能更高效地处理复杂任务,且价格合理。 3. 免费与付费访问:Claude 3.5 Sonnet在Claude.ai网站和iOS应用上免费提供给用户,而订阅了Claude Pro和Team计划的用户可以享受更快的访问速率。此外,它也通过Anthropic API和亚马逊云科技Bedrock等平台提供,定价为每百万个输入token 3美元,每百万个输出token 15美元。 4. 视觉能力:该模型在视觉识别和处理方面也表现出色,成为Anthropic至今为止最强的视觉模型,特别是在处理视觉推理任务,如解释图表、图形转录文本等方面,这对零售、物流和金融服务等行业尤为重要。 5. Artifacts功能:Anthropic引入了一项名为Artifacts的新功能,允许用户在与Claude交互时,于对话旁边专用窗口中实时查看、编辑和构建由Claude生成的内容,比如代码片段、文本文档和网站设计,进一步促进了人工智能与人类工作的无缝集成。 6. 安全性考量:Claude 3.5 Sonnet经过严格的安全测试,并被分类为AI安全等级2(ASL-2),意味着它在化学、生物、放射性、核风险、网络安全和自主能力等领域使用相对安全,不会造成灾难性损害。Anthropic还与外部专家合作,不断测试和完善模型的安全机制,以减少滥用风险。
地址:https://claude.ai/
Adobe Acrobat 迎来了重大 AI 升级,支持多文档分析和图像生成,此次升级主要包括以下两个方面:
1、多文档分析:Acrobat 的 AI 助手现在能够同时分析和查询多个文档,包括非 PDF 文件。这意味着用户可以将多个 PDF 或其他格式的文件拖拽至应用程序中,AI 助手会自动处理这些文件并提供相关信息。
2、图像生成和编辑:Adobe Acrobat 引入了全新的“Generate Image”功能,用户可以选择 PDF 文件中的某段内容,调用 AI 来生成图片,并调整图片的样式和大小。还有“Edit Image”功能,允许用户通过 Firefly AI 模型对现有图像进行编辑,例如删除背景、擦除和裁剪等。
这次升级显著增强了 Acrobat 的功能,使其在处理复杂文档和图像方面更加高效和智能。
各位设计师们,这个工具太牛了啊,只需在源图像中指定需要编辑的区域,并提供一张参考图,MimicBrush 就能智能捕捉两者间的联系,自动完成局部编辑或替换。该工具的主要功能包括局部区域编辑、纹理转移和后期处理优化等。分享给大家!!
MimicBrush 是由中国香港大学、阿里巴巴集团和蚂蚁集团联合开发的一种零样本图像编辑工具,通过参考图像进行模仿编辑,帮助用户更方便地进行创作。
MimicBrush 的主要特点包括: 参考图像模拟:分析并复制参考图像中指定的视觉特征到源图像中的标记区域,确保风格或内容的一致性。 零样本图像编辑:允许用户在没有原始目标图像的情况下进行图像编辑,通过参考仿制的方式实现编辑效果。 文本到图像对齐:利用 CLIP 编码器和 VAE 实现文本到图像的对齐功能,用户可以通过输入文本描述来指导编辑过程。 多样化的编辑结果:展示了一系列多样化的编辑结果,包括局部区域编辑、纹理转移和后期处理优化等功能。
MimicBrush 还简化了复杂的编辑流程,提高了效率和灵活性,特别适用于产品定制、角色设计和特效制作等领域。其底层框架基于 SD1.5 的扩散模型和 MimicBrush 模型结合,极大地简化了 AI 图像编辑的流程。
项目地址:https://github.com/ali-vilab/MimicBrush
大家还记得 Sora 是什么时候发布的吗?2 月份,当时 OpenAI 发布之后,一夜之间就把 AI 视频生成界搅得天翻地覆啊,但是现在一点消息都没有了,反倒是其他平台遍地开花,特别是这个月,简直太爆炸了~
昨天深夜,Runway 放出酝酿了半年的全新版本 Gen-3 Alpha,也让我们再次见证了这些巨头的底蕴。
Runway Gen-3 Alpha 特点如下: 高保真视频生成:能够生成接近真实世界质量的视频内容,具有高度的细节和清晰度。 精细动作控制:模型能够精确控制视频中对象的动作和过渡,实现复杂场景的流畅动画。 逼真人物生成:特别擅长生成具有自然动作、表情和情感的逼真人类角色。 多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。 先进工具:支持运动画笔、相机控制和导演模式等专业创作工具。 增强的安全措施:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。 高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
现在还在内测中,后期可以体验的时候再给大家分享地址!
暑期档看什么?小编强烈安利博纳影业抖音联合出品的 AIGC 科幻短剧集《三星堆:未来启示录》
在博纳 25 周年向新而生新闻发布会上,博纳影业出品制作、抖音联合出品的 AIGC 科幻短剧集《三星堆:未来启示录》正式亮相。该剧第一季共 12 集,作为抖音推出的首部 AIGC 科幻短剧集,预计上线今年的短剧暑期档,在即梦 AI、博纳影业 AIGMS、剪映的抖音官方账号同步更新。即梦 AI 作为首席 AI 技术支持方,基于豆包大模型技术,为《三星堆:未来启示录》提供AI剧本创作、概念及分镜设计、镜头画面生成、图像到视频转换、视频编辑和媒体内容增强等十种 AI 技术。
喜欢 AI 视频的小伙伴一定不要错过啊!
还有几天就到高考填报志愿的时候了,各位设计师宝宝们有什么忠告要给后来的学弟学妹们吗?趁着他们还有救,说出你的故事!
比如我就觉得:没有耐心就不要学工业设计了,建模渲图都太消磨人的意志力了。我就是在那个渲染到一半寝室突然停电的晚上,哭着下决心要转行 UI 设计的。
另外,教育部阳光高考平台首次推出“阳光志愿”信息服务系统,今天正式上线!平台集成海量数据,详尽的专业库、院校库、就业前景等,免费向千万考生开放使用。同时提供有针对性的专业、职业心理测评,帮助考生更好了解自己的专业和职业倾向。
直达链接: https://gaokao.chsi.com.cn/zyck/
苹果前段时间刚宣布 Vision Pro 国行版月底正式发售,近日腾讯视频的 VisionOS 端就已经上线了,并且提供了沉浸式追剧的体验。用户可以在 App Store 下载该应用程序,腾讯视频现在是国内首批支持VisionOS 的长视频平台之一。
腾讯视频为 VisionOS 端用户提供了超过 600 部资源,包括《庆余年第二季》、《三体》和《斗罗大陆》等热门影视作品。这些内容不仅涵盖了剧集、动漫、电竞、电影、综艺和纪录片等多元内容类型,还总时长超过1000小时。
为了增强用户的沉浸式体验,腾讯视频还推出了“IP空间体验”、“王者沙盘”和“客厅巨幕影院”等多项功能。这些功能利用了Apple Vision Pro的空间计算特性,基于RealityKit与空间音频技术,为用户提供了更加真实和互动的观看模式。 腾讯视频的VisionOS端不仅提供了丰富的视频资源,还通过先进的技术手段,为用户带来了前所未有的沉浸式追剧体验。
腾讯视频各种SVIP已经开好了,现在就差个 Vision Pro 了~~
斯坦福大学的研究团队与 Apparate Labs 前几天发布一款名为 Proteus 的创新 AI 视频生成模型,可以从单一图像生成笑、说唱、唱歌、眨眼、微笑、说话高度逼真和具有表现力的虚拟人物。 PROTEUS兼容多种大模型的多模态输入,可以处理语音、文本和图像等多种形式的数据。
Proteus模型亮点: - 高度逼真:利用先进的AI技术,Proteus能够从单张图片生成具有高度逼真表情和流畅动作的虚拟人物形象。 - 低延迟生成:Proteus模型具备低延迟特性,能够实时响应语音输入,生成每秒超过100帧的视频流。 - 多模态交互:模型支持语音、文本和图像等多种输入形式,实现与用户的自然直观交互。
应用领域: Proteus模型在个性化虚拟助理、虚拟宠物、情感支持、客户服务、教育和培训、游戏定制、影视娱乐、市场营销和社交媒体等领域具有广泛的应用潜力。
申请体验地址: https://apparate.ai/early-access.html