3月17日,特斯拉首席执行官(CEO)马斯克的AI创企xAI正式发布3140亿参数的混合专家模型Grok-1。xAI官方网站称,其遵照Apache 2.0协议开放模型权重和架构。
我给大家整理一下重点:
- 开源声明:xAI宣布其大模型Grok-1开源,并遵循Apache 2.0协议,模型权重和架构已在GitHub上公开。 - 模型规模:Grok-1是一个拥有3140亿参数的混合专家模型,成为目前参数量最大的开源大语言模型,超过了OpenAI GPT-3.5的1750亿参数。 - Grok-1的特点:Grok-1被描述为一个能够回答任何问题的AI,具有机智和叛逆的特点。它将用于自然语言处理任务,包括问答、信息检索、创意写作和编码辅助。 - 性能评估:Grok-1在HumanEval编码任务和MMLU中显示出强劲的性能,超过了包括ChatGPT-3.5和Inflection-1在内的所有其它模型。 - 社区反响:开源后,Grok-1在GitHub上迅速获得了9600星标,显示出社区的高度关注和支持。
另外,我个人觉得马斯克这项壮举对行业的影响也是巨大的,以下是一些个人见解:
1. 技术创新的加速:Grok-1的开源可能会加速AI技术的创新。由于模型权重和架构的开放,研究人员和开发者可以自由地访问、修改和扩展这个模型,从而推动新的研究和应用的开发。 2. 知识共享与协作:开源模型鼓励全球范围内的开发者和研究者共同参与到模型的改进和优化中来,促进知识共享和技术交流,有助于提升整个行业的技术水平。 3. 商业竞争格局变化:Grok-1的开源可能会改变现有的商业竞争格局,尤其是对OpenAI等其他AI研究机构和企业构成挑战。这可能会促使其他公司也采取更加开放的策略,以保持竞争力。 4. 安全性和伦理问题:开源AI模型也引发了关于安全性和伦理的讨论。一方面,开源可以增加技术的透明度,有助于发现和解决潜在的安全问题;另一方面,也可能增加模型被滥用的风险。 5. 教育和培训机会:Grok-1的开源为教育和培训提供了新的资源。学生和自学者可以直接访问和学习最先进的AI模型,这对于培养下一代AI人才具有重要意义。 6. 应用开发的多样性:开源模型使得个人和小型企业也能够利用先进的AI技术,这可能会导致更多创新的应用和服务的出现,增加市场的多样性。 7. 对开源与闭源的辩论:Grok-1的开源可能会加剧关于开源与闭源哪种模式更有利于AI发展的辩论。这将影响未来AI研究和商业化的路径选择。
大家对此有些什么看法,也可以评论区讨论哦~ 更多详细内容,可以看看 xAI官网!
下面这张图,最近挺火的,在不少社群就刷到过了。我也很想吐槽一下,现在找工作本来就难了,还遇到奇葩的HR,真的是心累,特别焦虑。为什么大家不能都专业点呢?
分享一下我最讨厌的面试经历:
去年10月份,我接到了一家公司的面试邀请,满怀期待地去了。没想到,从下午1点等到3点,整整3个小时的等待,简直像是被时间抛弃了一样。好不容易等到面试,结果进去没聊几句,不到五分钟就结束了。
真是让人无语,你是OPPO手机啊,面试5分钟,等待3小时!
这完全就是在浪费双方的时间啊!作为设计师,我们的时间都是很宝贵的,如果公司不能提前筛选好简历,确定好工种,那就别轻易叫我们过来面试。这种不尊重人的行为,真是让人火冒三丈!
都说说大家遇到的奇葩面试官,找工作不要急,一定要擦亮眼睛哦!
英伟达(NVIDIA)在2024年GTC大会上宣布的下一代人工智能超级计算机以及发布的最强AI加速卡——Blackwell GB200。
这款加速卡采用了新一代AI图形处理器架构Blackwell,由两个B200 Blackwell GPU和一个基于Arm的Grace CPU组成。黄仁勋在GTC大会上提到,尽管Hopper架构已经非常出色,但市场需要更强大的GPU。
以下是大会纪要: - 产品发布:英伟达发布了Blackwell GB200,这是一款新一代的AI加速卡,旨在大幅提升人工智能相关的计算性能。 - 性能提升:Blackwell GPU的AI性能可达20petaflops,而前代H100的性能为4petaflops。这意味着Blackwell GPU在AI性能上有显著提升。 - 技术规格:Blackwell GPU采用台积电的4纳米工艺制造,包含2080亿个晶体管,通过NVLink 5.0技术连接两个独立制造的裸晶(Die)。 - 性能对比:英伟达表示,GB200包含两个B200 Blackwell GPU和一个基于Arm的Grace CPU,其推理大语言模型性能比H100提升30倍,成本和能耗降至25分之一。 - 企业应用:英伟达提供成品服务,包括GB200NVL72服务器,该服务器配备了36个CPU和72个Blackwell GPU,以及一体化水冷散热方案,能够提供总计720petaflops的AI训练性能或1,440petaflops的推理性能。 - 市场合作:亚马逊、谷歌、微软和甲骨文等公司计划在其云服务产品中提供NVL72机架。亚马逊AWS已计划采购由2万片GB200芯片组建的服务器集群。
重磅发布!2024 第十届 东方设计奖·全国高校创新设计大赛,非命题赛道开始征稿啦~冲鸭!!!
这项赛事由全国知名行业协会及高校于2014年联合发起,旨在通过竞赛促进教育和创新,探索人才培养的新途径,并推进高校人才培养模式的发展。大赛涉及多个交叉创新领域,包括工业、农科、医学、互联网等,强调“设计+”多元学科和交叉融合的创新设计。
本届大赛由国家工业设计研究院(生态设计领域)、中国国际贸易促进委员会商业行业委员会联合主办,并有多个高校和协会承办。赛事得到了行业支持单位的背书,教师获奖可以作为职称晋升的重要指标,学生获奖者可获得研究生推免加分认定。
大赛面向国内外设计师和高校师生征集作品,参赛类别包括数字造型、艺术设计、数字动效、科技探究、智能制造、工业工程、数字文创、AI生成、数字音乐和交互设计等。评审标准侧重于创新价值、商业价值和社会价值三个维度。
截止日期:2024 年 6 月 30 日
欢迎国内外广大设计师、高校师生前往官网积极参赛!
官网:https://www.oda.org.cn/
Devin是首个AI程序员,它能够通过借用其创造者的账号与客户公司的CTO进行交流,并根据回复调整代码方案。
事情发生在办公软件Slack,截图中的akshat是AI基础设施创业公司Modal Labs的CTO Akshat Bubna。
Devin的开发商是Cognition,而Modal Labs是它的首批客户之一。在一次交流中,Devin询问了关于密钥生命周期的问题,特别是密钥更新后传播到正在运行的应用程序所需的时间。尽管Devin已经查阅了大量文档,但仍然没有找到关于密钥传播时间的明确信息。通过与Modal Labs的CTO交流,Devin了解到更新的密钥不会使已经运行的容器失效,但新启动的容器将会读取更新后的值。
Devin能够自主把任务拆解成一系列子步骤,并一步步执行,甚至在遇到障碍时能够查阅文档并修改后续计划。
大家觉得这波修复BUG属于什么水平,优秀的程序员也不过如此了吧?感兴趣的小伙伴可以看看详细的过程→ 原文链接