在大型语言模型(LLMs)领域,科技巨头之间的竞争愈发激烈,这些模型是像 OpenAI 的 ChatGPT 这样的工具的 AI 技术基础。
根据路透社内部消息人士的消息,亚马逊正计划推出自己的产品,投入巨资训练其自己的名为「Olympus(奥林匹斯)」的模型,以对抗 ChatGPT 和谷歌的 Bard。
据悉,这个秘密项目的训练数据量是巨大的。该模型将拥有高达 2 万亿个参数,参数是决定给定模型输出的变量,这将使它成为目前在开发中最大的模型之一。作为对比,OpenAI 的 GPT-4 LLM 据称「仅」有一万亿个参数。
这也将使亚马逊现有的在亚马逊 AWS 上托管的生成式 AI 模型相形见绌。
尽管我们对这个项目仍有许多未知之处——但鉴于亚马逊已经可以访问的巨大计算和服务器基础设施,它很有可能在 AI 世界中掀起巨大波澜。毕竟,LLMs 以其对硬件和能源的巨大需求而闻名。
如本周早些时候 The Information报道的,目前还不清楚亚马逊何时会公布奥林匹斯,更不用说向公众发布的时间表。
但鉴于这家电子商务巨头在网络托管领域的巨大资源和主导地位,亚马逊是快速发展的 AI 产业中下一个值得关注的公司。它还有大量资金可以使用;该公司今年早些时候宣布已经在 AI 初创企业 Anthropic 投资了 40 亿美元。
值得注意的是:即使拥有 GPT-4 两倍的参数,亚马逊的奥林匹斯是否能够超越 OpenAI 的畅销 AI 模型,仍有待观察。
「一个拥有更多参数的模型并不一定更好,」被誉为「AI 教父」的 Meta 首席 AI 科学家 Yann LeCun 在九月份的推特上说。