当前位置:AIGC资讯 > AIGC > 正文

详解苹果和微软的AI集成策略

当OpenAI在其春季更新会议上宣布推出macOS的ChatGPT桌面应用时,人们不禁疑惑为什么它没有先从Windows开始,毕竟,微软是OpenAI的主要投资者,理应最早获得新ChatGPT功能的访问权限。

现在我们知道原因了,在Build会议上宣布的微软新Copilot+ PC展示了一套深度集成到操作系统中的丰富功能,能够无缝地使用设备和云端的AI模型,相比之下,目前仅适用于Mac的OpenAI ChatGPT桌面应用显得微不足道。

苹果和微软都在尝试将AI功能集成到它们的应用程序中,但策略各不相同,目前尚难断言哪条路线图会胜出,但目前来看,微软似乎遥遥领先。

设备上的AI

苹果的策略一直是打造具有前沿技术的非常精致的产品,并为未来的应用和软件功能预留大量空间。

你可以在Vision Pro、新的iPad Pro M4,甚至是每年发布的MacBook和iPhone中看到这一点。新设备通常拥有比大多数人日常使用所需更多的内存和计算能力。

苹果逐步发布操作系统更新和新功能以及软件,以利用这些加速器和专用硬件。

例如,当M1芯片发布时,没人想到要在Mac上运行大语言模型,但现在,已经有一整套库和工具可以优化模型以在苹果硅上运行,苹果研究团队也定期发布能够在其设备上运行的模型。

然而,苹果的方法问题在于设备上的GenAI还不够成熟,尽管过去一年在这一领域取得了令人印象深刻的进展,但仍未达到设备上的模型足够可靠以独立执行多项任务的程度,这就是macOS的ChatGPT应用在苹果找到运行云端模型的方法或设备上的AI达到无需云端模型的水平之前要填补的空白。

结果是各种AI工具的拼凑,这些工具无法无缝集成到操作系统中。

无缝的AI

另一方面,微软专注于提供最前沿的AI技术,然后想办法尽可能接近用户。

首先,与OpenAI的投资和合作使微软处于一个独特的位置,可以将前沿模型集成到其产品中。

但微软也通过支持开放模型如Llama和Mistral来扩大范围,同时,微软开始发布小语言模型(SLM)如Phi和Orca。

在世界经济论坛上,微软CEO Satya Nadella被问及他的公司是否过于依赖OpenAI,他的回答如下:

“我认为我们非常有能力控制自己的命运……我们的产品不是关于一个模型,我们关心拥有最好的前沿模型,今天是GPT-4,但我们也在Azure上有Mixtral作为服务模型,我们在某些地方使用Llama,我们有Phi,这是微软最好的SLM,所以我们将拥有多样化的能力和模型,我们将投资于这些模型,但我们将与OpenAI进行非常深入的合作。”

最后,微软通过其Copilot品牌创建了一个抽象层,减少了对OpenAI的依赖。微软用户将在整个Windows中与Copilot互动。在幕后,AI助手将使用最适合任务的模型。

这些功能在Microsoft Build大会上得到了充分展示,新款Copilot+ PC展示了一系列AI功能,包括图像创建、实时字幕、生产力工具以及让人感到毛骨悚然的Recall功能。其中一些功能在设备上运行,一些在云端运行,还有一些在两者之间分布。

这个领域将继续发展,特别是微软加倍努力将先进的ARM芯片带入其笔记本电脑。硬件将变得更强大,设备上的大语言模型将变得更高效,而Copilot的后端模型将会更换而不影响用户体验。

这个演示给人留下了深刻的印象,以至于Stratechery的Ben Thompson将其形容为“类似MacBook Air”的产品,并表示“与苹果的产品不同,实际上与AI有意义地集成,不仅今天看起来很有用,而且随着开发者利用微软的AI能力,这种基础将变得更有用。”

微软的特洛伊木马?

在macOS版ChatGPT应用程序宣布后,一些用户在社交媒体上嘲笑微软花费100亿美元在OpenAI上却推出了一个macOS应用。

但鉴于Microsoft Build的公告,似乎ChatGPT已经成为微软在苹果生态系统中的特洛伊木马。ChatGPT运行在Azure云上,ChatGPT与macOS和iOS的更深度集成将使微软在苹果用户体验中获得更强的立足点。看起来Satya在这一回合赢了,但比赛还没有结束,我们还要看看苹果在6月的WWDC上会发布什么。

更新时间 2024-05-24