风君子博客2月23日消息,据外媒报道,本月谷歌都宣布计划推出人工智能聊天机器人Bard。现在在谷歌搜索中整合生成式人工智能的计划又要面临成本挑战。
早在ChatGPT刚推出时,OpenAI首席执行官Sam Altman在Twitter上表示,这项服务的成本高得离谱——每次对话的计算成本达到2美分甚至更多。
而Alphabet董事长约翰·汉尼斯(John Hennessy)近日也表示,与大语言模型这样的人工智能对话,其成本是传统搜索的10倍。
摩根士丹利估计,谷歌去年总计3.3万亿次的搜索量单次平均成本约为0.2美分。据推算,如果类ChatGPT人工智能能用50字的答案处理其收到的半数请求,谷歌的费用到2024年可能会增加60亿美元。
据了解,AIGC的成本之所以高,主要由于通过人工智能语言模型进行搜索比一般的搜索需要更多的算力(尤其是芯片)和电力。分析师表示,这种人工智能技术需要依靠数十亿美元的芯片,即使将这项成本平摊到几年的使用周期中,仍会显著增加单次使用成本。电力消耗也会增加成本,同时对企业的碳足迹目标构成压力。
在规模和成本的不断膨胀之下,一位资深技术高管表示,这些模型的成本很高,所以下一阶段的目标是降低模型的训练和推理成本,以便将其应用到每一个应用中。知情人士透露,OpenAI的计算机科学家已经找到了通过复杂的代码来优化成本的方法,从而提高芯片的效率。
目前有分析人士指出,降低成本的方法还有,一是可以在聊天机器人的回答中植入广告链接;二是提供订阅服务,比如OpenAI就为每月支付20美元费用的用户提供更好的使用体验。技术专家还表示,可以使用规模较小的人工智能模型来执行较为简单的任务,谷歌目前就在探索这种变通模式。