ChatGPT 终于要崩不住了,服务器直接被挤爆,两天宕机五次怎么办?OpenAI 免费 ChatGPT 一个月 300 万美元还能撑几天?
自 2022 年 11 月 30 日开放注册以来,ChatGPT 已收获了超过 100 万用户,日峰值请求数也已达到数亿级别。
终于,在庞大用户群涌入的情况下,ChatGPT 还是崩不住:宕机了。
虽然宕机了,ChatGPT 还是给我们留下了一首藏头诗,深藏功与名。
更有网友发现,它还给我们唱了一首 rap!
宕机了还在坚持唱跳和 Rap 的 ChatGPT,实在是感人 hhhhh。
美国科技网站 Gizmodo 作者 Lucas Ropek 则表示,从上周三开始 ChatGPT 就开始出现响应迟钝的问题:
我上周三第一次注意到 chatGPT 的问题,使用过程中程序响应不是很好,因此我退出了 OpenAI 帐户并尝试重新登录,结果却收到以下消息:「目前请求量太高,我们正努力扩展系统,请稍等片刻。」
根据数据监测网站 Down for Everyone or Just Me 的消息,本周一在网友投诉问题后八小时发生了宕机。
网站还整理了近期 ChatGPT 宕机的时间段,从 1 月 9 号到 10 号的这两天就有 5 次,停机时间最短几十分钟,最长 14 个小时。
其实,ChatGPT 的计算成本太高的问题,很早就凸显出来了。
12 月初,刚还沉浸在突破百万用户喜悦之中的 OpenAI,就被网友一句「是不是永久免费」的询问泼了冷水。
首席执行官 Sam Altman 无奈地表示:「我们不得不在将来的某个时刻开启 ChatGPT 的收费模式」。
去年 12 月 5 日,从近期针对每日用量的限制也不难看出,OpenAI 可能早就烧不起了。
恢复了,还发了新版本
好消息是,ChatGPT 已经恢复运行,此外还在 1 月 9 号发布了更新版本。
这次更新内容包括对 ChatGPT 模型的优化,提升了更广泛主题下回答的真实性,还添加了停止生成 ChatGPT 响应的功能。
但由于需求量依然很大,历史对话暂时还不能访问。
下面是 OpenAI 的官网公告。
虽然是恢复了,但网友一直担心的收费问题却一直没有确切的答复。
网友:完了,要交钱了?
之前就有学者表示,ChatGPT 的这种 AI 训练和产出结果的成本不是个小数目。
如果面向真实搜索引擎的以亿记的用户请求,假设继续采取免费策略,OpenAI 无法承受。
但是如果采取收费策略,又会极大减少用户基数,是否收费是个两难的决策。
而如今随着 ChatGPT 激增的用户量,OpenAI 自己也表示免费服务是不可持续的,收费已是必然趋势。
那来算笔账,OpenAI 到底要花多少钱呢?
据 AI 行业数据分析师 Tom Goldstein 说,OpenAI 每月至少花费 300 万美元用于运行成本。
ChatGPT 托管在微软的 Azure 云上,因此,OpenAI 无需购买设置物理机房。
按照目前的费率,微软对单个 A100 GPU 每小时收费 3 美元,在 ChatGPT 上生成的每个单词收费 0.0003 美元。
ChatGPT 的回复通常至少有 30 个单词,因此 ChatGPT 的单个回复至少要花费公司 1 美分。
算下来一个月至少得花 300 万美刀。
网友 Yusuke 说,当你注册 ChatGPT 账号后,根据选择的套餐每月有固定的请求数量。
如果超过固定份额则会产生额外费用或者知道下个周期才能继续使用了。
网友纷纷表示,珍惜有免费 ChatGPT 的时候吧,真想回到 ChatGPT 免费无阻的 2022 年。
殊不知,推特上甚至有懂王教大家怎么用 ChatGPT 赚钱(手动狗头),一正一负抵消就不用担心收费问题了。
阅读量还真不低,白嫖党的福音来了!
地址也放上面了,有兴趣的小伙伴学起来。
参考资料:
-
https://downforeveryoneorjustme.com/chatgpt
-
https://gizmodo.com/chatgpt-down-ai-chatbot-1-million-users-1849866029
本文来自微信公众号:新智元 (ID:AI_era)