当前位置:AIGC资讯 > AIGC > 正文

微软如何看待其“模型即服务”功能使AI普及化

如今的工具使构建AI驱动的应用程序变得容易,但一个复杂的领域是,几乎所有开发人员都希望避免处理如何托管所使用的模型,这不仅是选择OpenAI的GPT-4o、Meta的Llama 3、Google的Gemini或市场上众多开源模型的问题,更是部署它们的问题。

这种必要但令人头疼的工作可能会让开发人员感到沮丧,消弱他们的动力,然而,微软有一个解决方案,可以让他们更专注于创意过程,而不是模型的维护,这个叫做“模型即服务”(Models-as-a-Service,简称MaaS)的解决方案,相当于云服务的AI版本,按访问收费而不是基础设施费用,并通过公司的AI Azure Studio产品提供。

保持简单

“如果你曾经尝试部署模型,你会发现有一系列的组合,包括化身、Pytorch版本、CPU和GPU等等,”微软AI平台的首席项目经理Seth Juarez告诉记者。“模型即服务可以抽象掉所有这些,如果你有一个想要使用的模型,无论是开源的还是OpenAI构建的,我们都会在目录中提供。你按下一个按钮,就可以使用它的端点了。”

开发人员可以通过按需付费计划租用推理API并托管微调——所有这些都不需要使用虚拟机。Juarez解释说,虽然微软有超过1600个模型可以执行各种功能,但它也希望让开发人员更容易地将AI功能融入他们的软件中,MaaS就是实现这一目标的方式。

从2023年起,微软通过这个项目提供了一些精选的模型。最初,Mistral-7B和Meta的Llama 2是可用的。本周,它添加了Nixtla的TimeGen-1和Core42 JAIS,并表示AI21、Bria AI、Gretel Labs、NTT Data、Stability AI和Cohere的模型即将推出,这只是AI Azure Studio上可用内容的一小部分,那么如何成为一个MaaS模型呢?

一些模型是公司合作的结果,Juarez承认他不知道这些是如何发生的。其他模型被支持是因为一些API工作使这些模型的功能签名足够统一,可以成为模型即服务的一部分。有一种统一访问这些模型的方法。不幸的是,更专业的模型不符合条件,必须以其他方式部署。“这就是为什么你会看到一些模型启用为模型即服务,而其他你可以推送到自己的容器中运行,我们称之为托管推理,”他说。

“租”或“拥有”你的模型

他相信未来我们会看到一种分化模式,开发人员将选择模型的方式类似于房主或租房者。“基本上,你拥有容器、模型和Azure ML,你支付租金并进行维护,”Juarez表示,“在模型即服务中,我们进行维护。我们点亮的模型越多,如果你想租用,那很好,但还有其他人特别喜欢虚拟网络,需要在其上运行东西。”

MaaS并不是一个独特的模式,但是什么使AI成为最突出的技术,以复制云计算业务?Juarez认为现状已经颠倒——科技公司不再推出他们认为我们需要的技术。现在,我们正在向科技公司需求功能和服务,这要归功于AI研究和商业化几乎同步进行。“至少在我看来,这就是为什么你会看到这种奇怪的倒置,消费者通过使用ChatGPT的数量在要求这种体验。现在,企业正试图赶上……用户今天想要研究的体验。”

更新时间 2024-05-24