申请 ChatGPT 和新 Bing 们的账号,为什么都要等这么久?
2023-3-29 21:8:5
Author: 爱范儿(查看原文)
阅读量:12
收藏
上周,AIGC 的变化让世界变得疯狂,每天醒来都可能是一个「新世界」。但从另一个角度上来说,无论 AIGC 如何智能和颠覆,我们仍然处于「旧世界」,或者准确的说,应该是「候补」世界。不止是新 Bing,Github Copilot X,ChatGPT 的插件,Midjourney V5,以及 Adobe 的 Firefly,甚至是百度的文心一言,在你体验之前,都需要加入 Waitlist 名单进行排队等待名额。这个过程,像极了计划经济的配给制。随着 AIGC 的服务越多,也包括原有的像是 GPT-4、Midjourney V5 的升级,Waitlist 的时间仿佛被延长。直到如今,仍然有相当多人还存在于新 Bing 的 Waitlist 之内,更别说其他更新的生成式 AI 体验。或许是对 Waitlist 这个潜规则的无声反抗,有人做了一个「一键进行所有排队」的网站。不过讽刺的是,「一键加入」的功能还未做好,需要先加入 Waitlist 等待,且网站域名后缀是 wtf,怨气拉满。当我把这个问题丢给 Bing,Bing 从 OpenAI 官方网站的三个页面里找到了四个原因。- 筛选出符合目标人群的用户,提高服务转化率和留存率。
而这也更像是 OpenAI、微软、Google 等大公司针对无限期 Wait 的一些官方话术。相对来说,最先走入大众的 ChatGPT,随着模型的升级,以及大幅度降价,ChatGPT 的服务也出现过不少的波动。而基于 OpenAI 的新 Bing 同样也出现过过激的言辞,一直到现在,微软也在限制新 Bing 的对话次数与长度。你可以说,限制使用 ChatGPT 和新 Bing 的人数,能够提供更稳定和快速的响应和内容生成。但要知道这些功能和服务,已经消耗了相当的资源,几乎占用了微软 Azure 一半的算力。目前,AIGC 还尚未迎来超级 App,仍然处于一个快速迭代的过程,甚至也可以说仍然是一个 Beta 测试版本。通过传统的对话框与 AI 进行交互,其实是与 2023 年人手一部智能手机的状况不太相匹配。AIGC 现在只能算是一个功能,而即将推出的 Copilot、Firefly 等才更像是个产品。但它们仍然还未向外开放,躺在一个个 Waitlist 里。从某方面来说,微软、Google、Adobe 还在「打磨」自己的产品,而从另一个方向来看,想要对所有人敞开大门,或者说 AI 成为每个人的 Copilot,还需要突破一些「瓶颈」。这里的「瓶颈」,并非是外在表现的,生成式 AI 所遇到的伦理、法律法规或者说其响应的准确度。反而是 AI 背后提供算力的硬件,以及各种用于训练的云算力。微软正持续在 OpenAI 上大手笔的投入,先后投入几十亿美元,也逐步出现了基于 GPT-4 的新 bing,和后续还在 Waitlist 上的新 Office。同时,为了保证新 bing,以及后续具有 Copilot 功能的新 Office 能够稳定快速地响应。微软也提供和预留了其 Azure 云服务的一半算力和运算容量。如此也导致了微软内部 Azure 算力资源的紧张。The Information 就采访了微软内部员工,针对于有限的硬件运算资源,微软正在实行内部硬件 Waitlist 制度。微软内部其他开发机器学习模型的团队和部门,想要调用 Azure 的 AI 云服务,需要逐级审批报备,并最终由一位副总裁来定夺。就如同我们在排队体验新的生成式 AI 服务,除了新 bing 和新 Office 和 OpenAI 服务外,微软其他部门也在等待多余的 Azure 云算力。只是,随着微软 All in OpenAI 的策略,Azure 云相关算力和容量也显得十分紧张。除了内部调用外,Azure 也提供了各种产品和服务,包括 AI、计算、容器、混合云、物联网等。作为云服务供应商 Azure 目前扩展到全球 60 多个区域,其对外服务器产品和云服务收入占到微软总营收的 36%。但与微软内部团队类似,购买 Azure 的客户也受到了算力受限的影响,尤其是想要调用 Azure OpenAI 依旧需要加入 Waitlist。大概从 2022 年底,微软就打算增加更多的硬件(GPU 或者 TPU)来扩充更多的算力。并且也与英伟达达成协议,为 Azure 增加数万个 H100 GPU 计算卡,为后续 OpenAI 提供更高的 AI 训练和推理效率。不过,目前微软与英伟达并未透露在 Azure 当中 H100 的部署情况,微软内部也只有一小部分团队拥有 H100 的调用权限(大概率是新 bing 和 Office),大部分的部门仍然被排除在外。一块 H100 大概的售价可能在 24 万元上下,以此为参考的话,微软为 Azure 扩容则需要投入数亿资金。不止是微软,Google、甲骨文这些云服务商,也在大力投入 GPU 等硬件为自己的云服务扩容,准备在 AIGC 彻底爆发之前,做好算力上的准备。英伟达 CEO 黄仁勋与 OpenAI 联合创始人兼首席科学家 Ilya Sutskever但从 GTC 2022 发布到现在,英伟达并没有对外公布 H100 的供应和销售情况,微软对于 Azure 的扩容计划是否成效也不得而知。而在今年的 GTC 2023 中,英伟达并没有带来关于 H100、A100 硬件上的进展,而是一直在强调英伟达在云计算硬件上的优势。并且其首席技术官也开始强调,「加密货币对于社会没有任何有益的贡献」,也从侧面开始强调 AIGC 领域将会是英伟达接下来 30 多年所专注的领域。随着 AIGC 领域的持续迭代,大概从 2022 年 10 月份,英伟达的股价也随之增长,一扫此前因为加密货币衰退而导致的业务下滑颓势。目前,英伟达的市值又达到了一个高点,几乎等同于 Intel、AMD、ARM 这三家市值之和。但如此的高市值,似乎并没有改善硬件的供应状况,反而随着 Google、微软等大企业不计成本资源地对云计算硬件投入,按照此前英伟达的供应状况,很可能再次出现工业显卡慌的一个局面。不止是硬件供应状况,这些高性能 GPU 组成的计算矩阵也有着很高的功率,单张 SXM 接口的 H100 计算卡功率就达到了 700W。用于 AI 模型训练和大数据处理的计算中心的耗电量实际上也十分惊人。在 2021 年,加州大学的 David Patterson、Joseph Gonzalez 通过研究表明,训练 GPT-3 大概需要耗费 1.287 千兆瓦时的电力,它相当于 120 个美国家庭一年的用电量。同时,这篇论文还发现,训练 GPT-3 会产生 502 吨的碳排放,等同于 110 辆汽车的一年排放量。他们也强调这只是一个模型的训练成本,随着它涌入市场,也会产生更多的资源消耗,可能要比训练成本还高。OpenAI 的 GPT-3 使用了 1750 亿个参数或者变量,而 GPT-4 的参数预计在 1750 亿到 2800 亿之间。对于能耗,云计算的需求只增不减。为此,OpenAI CEO Sam Altman 在接受 The Verge 采访时表示,OpenAI 正在寻找有效的方法来提升模型的性能和安全性。换句话说,OpenAI 也在试图通过更高效的算法来寻找节省训练运行模型的硬件、电力资源。Waitlist 的机制,从浅层次来看,它确保了当前 AIGC 的使用体验,以及相关服务的响应速度。但从深层次来看,它也是一场资源角力,是 GPU、TPU 为核心的云计算中心算力和容量的互相角力,也是宏观上高投入高能耗的一场竞争。而到目前为止,AIGC 其实仍处于一个「盲盒」阶段,对于资源的需求和占用也尚不明朗。不过,站在各种 AI 服务的 Waitlist 队列里,确实很像在科幻电影里人们正不断排队进入 AI 控制的工厂,为其运行提供所需的资源。Waitlist,既是虚拟世界里的候补名单,也可能是将来现实世界当中的一则为 AI 服务的队列。微信发布重磅功能!刷掌支付来了,视频号将支持付费订阅
「时尚教皇」刷屏,载入史册的 AI 假图事件,我们如何在狂飙的 AI 中幸存
文章来源: http://mp.weixin.qq.com/s?__biz=MjgzMTAwODI0MA==&mid=2652247393&idx=1&sn=ca22a5ec11f763e43ec16bb43cb7b855&chksm=9b6083feac170ae8059556067f380597d07e9ca6685683bb97a6e93fa32fd5ec95c44362b28a#rd
如有侵权请联系:admin#unsafe.sh