日本著名漫画家鸟山明先生,最近因为急性硬膜下血肿去世了,享年68岁。鸟山明先生可是创作了那个超级经典的《龙珠》啊!
大家还记得那句台词吗?“集齐7颗龙珠就能召唤神龙...”每次听到这,都仿佛回到了小时候,感觉心头一暖但又有些酸楚。
这突如其来的消息真的让人难过。好像一下子,我们那代人的童年记忆也跟着碎了。每当耳边响起那句熟悉的台词,大家都会忍不住想起那位伟大的漫画家鸟山明。但遗憾的是,现在我们再提起这句经典的召唤语,鸟山明老师却已经离开了我们,去了遥远的天堂。
鸟山明离世后,许多网友因为担心《龙珠》漫画后续会绝版,甚至还把《龙珠》漫画买到断货。
那些年我们追过的《龙珠》你还记得吗?
日前,苹果公司的特别定制版 Apple Pencil(第二代)在第三方厂商 ColorWare 推出。
这款产品名为Apple Number 2 Pencil,其外观设计模仿了传统的铅笔,具有黄色笔杆、HB铅芯标号、金属光泽箍和橡皮擦配色的尾部。ColorWare强调,尽管产品看起来像是可以削的铅笔,但用户不应该尝试去削它。
这款特别版的Apple Pencil可以与iPad快速连接,并且充电顺畅。它是限量产品,在ColorWare官网的定价为215美元(约合人民币1548元),预计在3月中旬发货,并提供1年的第三方保修。
你喜欢这样的设计吗?
今天英伟达(NVIDIA)在官网推出了,生成式AI(AIGC)专业认证,通过考试可获得行业认可的权威证书。
该认证支持远程报名和考试,适合软件工程师、数据工程师、云解决方案架构师、AI DevOps 工程师等,可增加就业竞争力成为大模型领域的专家。
认证考试将于太平洋时间3月18日开始,这是英伟达5年来首次举办的线下技术交流大会。考试内容包括机器学习、神经网络、提示工程、对齐、数据分析、实验设计、数据预处理、特征工程以及大语言模型的Python库和集成部署等。考试时间为1小时,包含50道题,费用为135美元。
认证详情地址:https://www.nvidia.com/en-us/learn/certification/generative-ai-llm-associate/
前几天,马斯克一纸诉状将 OpenAI 告上法庭,这场 OpenAI 与马斯克之间的大战,显然硝烟愈浓。
3月6日,OpenAI在官网正式回应了马斯克的起诉,并公布了多封他在OpenAI时与Sam Altman、Greg Brockman、Ilya Sutskever等联合创始人的重要邮件。
以下为 OpenAI 这篇亮点满满的回应文章的部分重点: - 马斯克曾答应为 OpenAI 提供 10 亿美元,实际上只给了不到 4500 万美元; - 想构建真正 AGI 所需的资金远超预期,而 OpenAI 作为一个非盈利组织很难筹集到每年数十亿美元的投资。 - 马斯克早已了解 OpenAI 转为营利公司的计划,只是在 OpenAI 拒绝由他完全控制后,才愤而离开; - OpenAI 中的 Open 不等于开源。如今要求 OpenAI 恢复开源的马斯克,当初是理解并认同 OpenAI 的使命并不意味着开源 AGI 的。 - 自 Altman 回归 OpenAI 后似乎就杳无音信的 Ilya Sutskever,也赫然出现在了这篇回应的作者栏中。
官方原文:https://openai.com/blog/openai-elon-musk#email-4
近日,在布鲁克林举行的Hot Pod峰会上,Adobe发布了名为“Project Music GenAI Control”的全新AI音乐创作工具原型。该工具利用生成式人工智能技术,帮助用户无需专业音频制作经验即可创作和编辑音乐。
用户只需输入文本描述,例如“欢快的舞蹈”或“忧伤的爵士乐”,Project Music GenAI Control就能生成对应风格的音乐。更重要的是,用户还可以使用集成的编辑控件自定义生成的音乐,调整重复模式、速度、强度和结构。该工具可以重新混音音乐片段,并生成循环音频,非常适合内容创作者制作背景音乐和配乐。
Adobe 表示,Project Music GenAI Control还能够“基于参考旋律”调整生成的音频,并且可以延长音频片段的长度,以满足固定动画或播客片段等所需时长。目前,用于编辑生成音频的实际用户界面尚未公布。
“这些新工具最激动人心的功能之一不仅仅是生成音频” Adobe研究院高级研究科学家Nicholas Bryan在新闻稿中表示,“它们就像Photoshop一样,赋予创作者深度控制权,让他们可以塑造、调整和编辑音频,就像像素级控制图像一样。”
Project Music GenAI Control由Adobe与加州大学和卡内基梅隆大学计算机科学学院合作开发,目前该项目仍处于“早期实验”阶段,未来可能会被整合到Adobe旗下的现有编辑工具Audition和Premiere Pro中。目前该工具尚未向公众开放,也未公布发布时间。
近日,谷歌DeepMind的研究人员推出了,首个无需数据标记、无监督训练的生成交互模型——Generative Interactive Environments,简称“Genie”。
Genie是一个具有110亿参数的模型,它能够根据图像、真实照片甚至草图生成可控制动作的视频游戏。这个模型的特点是无需数据标记和无监督训练,它通过3万小时、6800万段游戏视频进行了大规模训练,而且训练过程中没有使用任何真实动作标签或其他特定提示。
Genie的核心架构使用了ST-Transformer(时空变换器),这是一种结合了Transformer模型的自注意力机制与时空数据的特性,有效处理视频、多传感器时间序列、交通流量等时空数据的方法。ST-Transformer通过捕捉数据在时间和空间上的复杂依赖关系,提高了对时空序列的理解和预测能力。
Genie的架构主要由三大模块组成: 1. 视频分词器:基于VQ-VAE的模块,将原始视频帧压缩成离散的记号表示,以降低维度并提高视频生成质量。 2. 潜在动作模型:无监督学习模块,从原始视频中推断出状态变化对应的潜在动作,并实现对每一帧的控制。 3. 动力学模型:基于潜在动作模型学习到的动作关系,预测下一帧的视频。
除了视频游戏,你觉得 Genie 模型还能在哪些其他领域发挥作用?