随着今年WWDC的临近,记者 Gurman 在其最新一期《Power On》专栏中,为我们揭秘了苹果在人工智能领域的最新进展。苹果将对其智能助手Siri进行升级,新版本的Siri将依托于苹果自主研发的LLM技术,为用户提供更为智能的服务。
除此之外,苹果还将在多个方面引入AI技术以增强用户体验,例如通过AI技术实现语音备忘录的自动转录、照片的智能修饰,以及Spotlight和Safari搜索功能的优化。而且,AI还将能够根据用户的短信内容,动态生成个性化的表情符号。
在个性化界面方面,苹果也做出了创新。用户将能够摆脱网格的限制,自由地在屏幕上摆放图标,并可以自定义图标的颜色,这一改进虽与AI无直接关系,但无疑将极大地提升用户体验。
同时,有消息称苹果将在即将到来的 iOS 18 和 macOS 15 系统中,为 Safari 浏览器加入一系列人工智能支持的新功能。
1、智能搜索。 苹果可能在搜索中引入 Ajax 语言模型来提供文本摘要。
2、Web橡皮擦:这一功能强调用户界面的简化和隐私保护的增强,允许用户自定义网页内容,删除不需要的元素,如广告和图片。
3、用户界面更新:苹果正在将 Safari 的关键工具集中到一个位置,以提高用户的访问效率。
4、 AI增强的视觉查找:苹果可能在2025年推出高级视觉搜索功能,允许用户通过图像获取信息,类似于 Siri 目前识别照片中的植物、宠物和地标的功能。
这些新功能的加入,将使Safari浏览器的使用体验更上一层楼,你觉得哪项最实用呢?
现在,你可以像和 ChatGPT 聊天一样使用谷歌地图了。
谷歌地图最新升级包括以下 5 点: 1. 对话式地图搜索 直接与 Google Maps 聊天搜索信息,AI 将使用 Google Maps 上的商户信息、照片、评分和评论等信息来提供可信的结果。
2. 实时查看地图 只需点击相机图标即可使用实时视图进行搜索。谷歌地图会显示附近的 ATM、餐厅、公园和公交站,并显示其开放时间和评级,且跟随 AR 箭头,准确引导您到达目的地。
3. 全新沉浸式视图 在正式访问地点之前先确定其范围,查看逼真的视图,并获取天气预报、高峰时段等有用信息,而且还能查看室内景观。比如在订餐时可以展现餐厅氛围,帮助您选择。
4. 新增多重搜索 现在,您可以结合文字和图像, 在 Google 地图上访问数百万本地企业的信息。
5. 获取人工智能建议 随时随地获取人工智能支持的建议。如果开始下雨,可以向地图询问“雨天活动”并获取附近的喜剧表演或电影院等建议。
今年接触了太多 AI 工具了,AI 绘画的先不说,光是视频生成就已经让我震惊不已。今天刷到了一个 VideoPoet 作者的专访,分享的一些关于视频生成领域的观点非常有意思,其中关于视频生成领域的 “ChatGPT 时刻”的解读前瞻性十足,大家感兴趣的可以了解一下!
以下是引用: “ 视频生成的“ChatGPT 时刻”,我觉得大概是,哪怕模型生成的还是比较短的片段,比如 2-5s,但这个生成是可控的,人类也很难分辨是 AI 生成还是人类制作。从用户角度,只需要几美分的代价,就能获得一个可以被送到好莱坞专业 studio 的样片。如果类比的话,可以类比到图像领域 stable diffusion 1.x 或 2.x 版本,肯定还有再提升的空间,但已经到了能使用的程度,而且能激发很多应用。
我的预测是,到 2024 年底或 2025 年初,我们可能会到这个时刻。并且我认为,实现这个时刻肯定也需要 diffusion 参与,并且 diffusion 在未来一段时间,比如 1 到 2 年内,可能仍然是主流,扮演很重要的角色。这里说的 diffusion 已经包含了 transformer。
“ChatGPT 时刻”意味着模型到了一个相对稳定的阶段,但后面还会再改,只不过是在这个基础上做小的改动,可能一开始版本只能做到逼近好莱坞,有一些缺点,但可以商业化运用了,但要达到真正稳定需要更长时间。随后还可能仍会迭代升级。
现在市场上所有的视频生成都达不到这个标准,所以我认为视频生成的方法可能还需要进一步迭代,有可能要达到“ChatGPT 时刻”需要新的模型和方法,它不一定是全新的模型或者架构,可能是现在市场上的某个技术路线或者方案再往前走一步。”
大家还记得 Sora 是什么时候发布的吗?2 月份,当时 OpenAI 发布之后,一夜之间就把 AI 视频生成界搅得天翻地覆啊,但是现在一点消息都没有了,反倒是其他平台遍地开花,特别是这个月,简直太爆炸了~
昨天深夜,Runway 放出酝酿了半年的全新版本 Gen-3 Alpha,也让我们再次见证了这些巨头的底蕴。
Runway Gen-3 Alpha 特点如下: 高保真视频生成:能够生成接近真实世界质量的视频内容,具有高度的细节和清晰度。 精细动作控制:模型能够精确控制视频中对象的动作和过渡,实现复杂场景的流畅动画。 逼真人物生成:特别擅长生成具有自然动作、表情和情感的逼真人类角色。 多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。 先进工具:支持运动画笔、相机控制和导演模式等专业创作工具。 增强的安全措施:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。 高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
现在还在内测中,后期可以体验的时候再给大家分享地址!
微软 GitHub 于今年 7 月份面向企业用户推出了 Copilot Chat 工具,这是一个 AI 代码助手。现在 GitHub 宣布将 Copilot Chat 公测版扩展至个人用户,提供实时编程帮助。用户可通过订阅每月或每年的个人用户费用来体验该功能,提高编码效率和质量。
以下是GitHub Copilot Chat的主要功能: 1、实时指导:它可以为开发者提供实时的最佳实践、技巧和解决方案建议。 2、代码分析:开发者可以使用它来分解复杂的编程概念,并获取代码片段的详细解释。 3、修复安全问题:它能够识别代码中的安全漏洞,并为其提供修复建议。 4、简单的故障排除:除了识别代码中的问题,它还可以为开发者提供解决方案、解释和替代方法。 5、学习新的语言或框架:它可以帮助开发者快速学习新的编程语言或框架,并为他们提供相关的代码示例和建议。
华为诺亚方舟实验室、清华大学信息科技学院、大连理工、香港大学和Hugging Face的研究人员,共同发布了一款名为PIXART-δ的超高清文生图模型。
这一模型集成了潜在一致性模型(LCM)和创新控制架构ControlNet-Transformer,实现了在文生图像方面的重大技术突破。仅需0.5秒2-4个推理步骤,PIXART-δ就能完成图像生成,速度比之前的PIXART-α模型快了7倍。
在ControlNet-Transformer的帮助下,PIXART-δ可以对生成模型的输出进行精确控制,包括图像的边缘、深度、分割和对象姿势等,类似于OpenAI的DALL·E 3。
最新消息:OpenAI 宣布,GPT-4 API 现已对所有付费 API 客户开放!现在所有已经付款的 API 开发者都可以使用 GPT-4 API,该 API 允许使用高达8K tokens的上下文。
对于新的开发者,OpenAI 计划在本月底向他们开放访问权限,并根据计算资源的可用性逐步提高速率限制。
GPT-4 模型的发布将极大地提升基于 GPT 模型的产品性能。OpenAI目前已经向开发者们开放了GPT-3.5 Turbo、DALL·E和Whisper的APIs。而且OpenAI还在进行GPT-4和GPT-3.5 Turbo的微调功能的测试,并计划在今年晚些时候开放。
现在OpenAI还在开发新的模型,用于Chat Completions API,该API具有结构化界面和多轮对话能力,可以帮助开发者构建对话体验和完成广泛的任务,并降低了提示注入攻击的风险。