2 月 1 日消息,虽然 AI 研究公司 OpenAI 通过 AI 聊天机器人 ChatGPT 激发了公众的想象力,但归根结底,这项技术可能不会改变科技巨头之间的力量平衡。谷歌等科技巨头将从所谓的生成式 AI(AIGC)中获益更多,而不是 OpenAI 这样的创企。
以下是翻译内容:
在斥资数十亿美元进行 AI 研发和收购之后,谷歌将风头拱手让给了 OpenAI。这家 AI 领域的后起之秀发布了令人惊讶的 AI 聊天机器人 ChatGPT,其公开测试激发了公众无穷的想象力。谷歌现在担心 ChatGPT AI 可能会重塑被其视为基石的搜索业务。
但早在 2017 年,谷歌就宣称自己是一家“AI 优先”公司,可能继续在 AI 领域占据重要地位。谷歌对 AI 的投资可以追溯到 21 世纪初,此举可能会为其带来丰厚回报,甚至可能推动该公司下一个 25 年高速增长。谷歌今年已经成立 25 年。
OpenAI 通过让自然语言处理(NLP)模型变得更强大,并向它们提供大量的训练数据,从而增强了自然语言处理模型的能力。这些数据是从互联网上的免费电子书、维基页面、讨论板和同人小说中挑选出来的。不过,OpenAI 并没有发明支持 ChatGPT 的 NLP 模型。GPT 是“生成性预先训练转换器”(generative pretrained transformer)的缩写,谷歌在 2018 年以 BERT(双向编码器)为基础开发了转换器语言模型,现在使用它来增强其搜索和翻译能力。
但在 BERT 之后,谷歌并没有停止对 NLP 的研究。事实上,谷歌声称其已经开发出名为 LaMDA 的 NLP 聊天机器人,它比 ChatGPT 更强大,谷歌工程师甚至称其拥有感知能力。谷歌姊妹公司 DeepMind 也在考虑在今年晚些时候发布名为 Sparrow 的 AI 聊天机器人,谷歌的 AI 图像生成器 Imagen 据说将与 OpenAI 的 Dall-E 2 竞争。
到目前为止,谷歌在向公众提供这些 AI 工具方面始终较为谨慎。这并不令人感到特别惊讶。毕竟,谷歌的规模比 OpenAI 大得多,任何 AI 失误都会给谷歌带来更大的损失。谷歌认为,生成式 AI 依然是一项不成熟的技术,其风险仍有待评估。该公司担心,如果其 AI 工具侵犯某人的隐私或版权,抑或是造成某种形式的垄断,可能会引发反垄断诉讼,并需要承担法律责任。
但谷歌也从 AI 研究中获益良多,并已着手提供新的、基于 AI 技术支持的功能。该公司的做法始终是使用其基础型 AI 模型在后台运行,以更好地支持其应用程序和服务。
重塑搜索功能
搜索就是个很好的例子。谷歌已经在使用 BERT 语言模型来解释用户在搜索栏中键入关键字和短语背后的意图。BERT 被设计从文本中推断含义,但更高级的语言模型(如生成式 AI 模型)可以用 ChatGPT 生成用户问题文本答案的方式构建搜索结果。谷歌搜索可能不再仅仅提供一长串相关性较低的链接(伴随着广告),而是生成一段完整的叙述直接回答搜索者的问题,辅之以图片、视频、统计数据和链接等。
事实上,谷歌很久之前就致力于研究这种生成式搜索方法了,其多任务统一模型(MUM)旨在帮助用户处理复杂或多方面的搜索请求。例如,用户可能会说或输入“去西藏旅行需要做哪些准备?”MUM 将推断查询中包含的所有问题,然后生成多媒体信息包,里面包括解决所有问题和更多问题的方案。
谷歌还有一个优势,它拥有对网络及其海量内容进行长期抓取和编目的经验。该公司或许能够让其模型访问更多、更高质量的培训数据,这可能有助于开发令人印象深刻的 AI 应用程序和服务,而不会产生错误或有毒的内容。
Google Brain 团队前负责人、AI 创企 Landing AI 创始人兼首席执行官吴恩达说:“我确实认为像 ChatGPT 这样的大型语言模型可能会颠覆网络搜索业务。”但他随后立即补充说,让搜索变成与 AI 模型自由对话模式并非易事:如何利用网上海量的内容培训真正有用的 NLP 模型?如何开发用于培训模型的数据?还有如何货币化的问题。
吴恩达继续称:“谷歌商业模式的核心动力是提供链接,并在结果旁边安置广告链接。那么,如果谷歌现在只是直接通过 AI 模型提供答案,这对广告商业模式会有什么影响?我认为这些都是非常复杂的问题。”
对于谷歌来说,将生成式 AI 模型整合到其生产力应用中可能更为简单。例如,这项技术可以用来帮助 Gmail 用户起草消息,或帮助 Docs 用户撰写文档或演示文稿,抑或为 Meet 用户提供视频聊天摘要。
OpenAI 与微软合作
直到最近,OpenAI 和谷歌之间的竞争看起来还像是大卫与巨人歌利亚的战斗:一个灵活的小公司用新颖的颠覆性技术威胁着长期存在的科技巨头。OpenAI 可能已经决定向公众开放 ChatGPT,希望保持这种印象,并提高公众形象,或许还能吸引更多的投资资金。
这一策略似乎奏效了。OpenAI 已经与微软建立了分销合作伙伴关系,后者最近宣布扩大合作关系,额外追加 100 亿美元投资。微软现在拥有 OpenAI 的大量股份,并打算将这项技术内置到其必应搜索引擎以及生产力应用程序中。
正因为如此,Index Ventures 合伙人迈克・沃尔皮(Mike Volpi)指出,我们现在讨论的不再是大卫和歌利亚的战斗。他说:“OpenAI 不再是个小公司,它基本上成为了微软的子公司,大部分资金来自微软,因此我认为将其视为微软的延伸更合适。在这种背景下,许多其他事情变得非常清楚。必应在搜索广告市场的份额与谷歌相比很小,因此微软肯定想要颠覆这一市场。”
云计算至关重要
微软将 OpenAI 视为通过其 Azure 云平台提供高级生成性 AI 服务的一种方式,Azure 的规模在云计算市场上仅次于亚马逊 AWS。微软还可能利用其与 OpenAI 的合作来增强其说法的可信度,即在托管高级 AI 模型方面,Azure 比其他云服务更合适。
Azure AI 平台副总裁埃里克・博伊德(Eric Boyd)本月在一篇博客文章中写道:“Azure 为计算密集型 AI 培训和推理工作负载提供了一流的性能和扩展性。这就是世界领先的 AI 公司(包括 OpenAI、Meta、Hugging Face 等)继续选择 Azure 来推进他们 AI 创新的原因。”
谷歌正在努力推广自己的云计算服务,而且该项业务正在走向盈利,但其仍远远落后于 Azure 和亚马逊 AWS。增加了 OpenAI 服务,Azure 可能会让谷歌追赶的努力变得更加困难。
AI 领域竞争更激烈
要了解谷歌管理层对 OpenAI 的看法可能很困难。去年 12 月中旬,谷歌 AI 业务首席执行官杰夫・迪恩(Jeff Dean)表示,如果仓促之间推出一款容易犯错或发布有毒内容的生产式 AI 工具,谷歌将蒙受更大损失。但该公司正在认真对待 OpenAI 在该领域有关主导地位的竞标。据报道,谷歌甚至请来了已经退休的创始人拉里・佩奇(Larry Page)和谢尔盖・布林(Sergey Brin),讨论如何对抗 OpenAI。
在去年 12 月份的一次战略会议上,谷歌曾表示,在发布新的面向公众的创新型 AI 工具时,将“重新调整”其愿意承担的风险水平。
换句话说,ChatGPT 可能已经掀起了新的 AI 竞赛。现在看来,谷歌今年很可能会推出多款新的 AI 功能和产品。其中有些工具将面向开发者:谷歌可能会开发像 GitHub Copilot 这样的工具,它针对数百万或数十亿行代码进行培训,可以直观地判断开发者的需求,并就新的代码提供建议。
Index Ventures 的沃尔皮认为,谷歌很可能会发布看起来和行为都很像 ChatGPT 的自然语言聊天机器人,DeepMind 也可能发布其 Sparrow 聊天机器人,谷歌搜索可能会为某些类型的搜索提供聊天式体验。
明年,OpenAI 可能看起来更像是生成式 AI 领域的先行者,但其模型可能不像现在看起来那么新奇。归根结底,OpenAI 可能不会显著改变大型科技公司之间的力量平衡。沃尔皮说:“我不确定它是否会改变现有格局。谷歌将推出自己的 NLP 聊天产品,亚马逊也将推出类似工具。我敢肯定,苹果会继续改进 Siri 以做同样的事情。最终,我的猜测是,你会看到这个领域的竞争更加激烈。”
普通人可以安静地坐在旁边,看着这些公司一决雌雄,并享受它们的研究成果。但这里也存在风险因素。在 ChatGPT 之后,AI 的发展步伐可能会加快。随着竞争的加剧,保密性也可能会增强。而随着大型科技公司在 AI 研发上投入更多资金,它们可能不太愿意在发表的研究论文中透露其模型的细节以及它们的工作原理。
斯坦福大学以人为本 AI 基础模型研究中心主任珀西・梁(Percy Liang)表示,过去一年,AI 研究领域的正常合作和科学开放性已经有所下降。重要的是,科技公司公开他们的模型、培训方法和政策细节,这样其他研究人员就可以重新创建模型和他们的输出,从而验证这项研究。OpenAI 确实发表了关于其开发新模型的论文,但梁教授称,该公司并不总是提供足够的细节来说明其方法。
梁教授解释称:“对于最新的 OpenAI 模型,我们完全不知道它们背后是什么。直到最近,我们甚至不知道它们的大小,它们接受过哪些数据培训,是否与我们使用 API 访问和测试的模型相同。自那以后,他们只发布了简短博客文章对此进行了解释,虽然这是朝着正确方向迈出的一小步,但仍然缺乏透明度。”
在梁教授看来,AI 模型的最终输出很大程度上受到人类施加的下游微调和过滤的影响。开发者必须这样做,以防止模型输出不正确、有毒或偏向某些用户的文本或图像。例如,如果你让 OpenAI 的 GPT-3 模型的早期版本写一篇关于医生的简短故事,会发现医生的角色永远是男性。到 ChatGPT 发布时,这种偏见已经消失,可能通过额外培训进行了修复。但这只是一个例子,很可能还有数百个这样的问题需要解决。
梁教授表示:“OpenAI 喜欢谈论价值匹配,所以这些模型将与人类的价值观保持一致,因此它们也不会做坏事。但我们谈论的是谁的价值观?这些价值观到底是什么?OpenAI 没有公布有关这些价值观的细节,这也是某种决策过程不透明的体现。”
在 ChatGPT 测试版向公众开放的同时,OpenAI 自愿修复了许多漏洞。该公司甚至推出了“偏见奖励”计划,用户可以报告不正确或有偏见的输出,以换取赢得价值 500 美元 API 积分的奖励。与之相比,谷歌始终不愿曝光存在此类漏洞的 AI 产品和功能。但 AI 发展步伐的加快可能会给谷歌和所有大型科技公司带来压力,要求他们在所有问题解决之前推出新模型。
而在这方面,普通公众可能成为输家,人们可能会看到生成式 AI 工具在我们的网络生活中添加更多虚假、有毒和有偏见的内容。