当前位置:AIGC资讯 > AIGC > 正文

谷歌AI Core迎来首个更新,要为端侧大模型赋能

继全面屏和5G之后,智能手机行业缺乏新故事已经是不争的事实。好在,2023年AI大模型的浪潮似乎解了手机厂商的燃眉之急,端侧大模型近来俨然成为了诸多手机厂商挂在嘴边的词,例如OPPO端出了安第斯大模型(AndesGPT)、vivo发布了蓝心大模型、小米方面有大模型MiLM以及大模型赋能的小爱同学、三星也推出Galaxy AI、并宣布Galaxy S24系列将会是AI手机。

既然手机厂商纷纷上线端侧大模型,上游的联发科和高通自然也不会置身事外。此前在今年年初,高通方面就率先展示了全球首个运行在Android手机上的Stable Diffusion,紧接着还与Meta合作优化了Meta Llama2大模型在终端侧的执行,联发科也在刚刚发布天玑9300和天玑8300上将端侧AI能力作为了重点。

眼看手机行业以极大的热情参与到端侧大模型上,作为Android阵营领导者的谷歌也选择了顺势而为。日前谷歌方面为一款名为AI Core的应用推出了首个更新,根据Google Play Store的描述显示,AI Core将为Pixel8Pro的Android系统和应用程序提供最新的AI大模型支持,以及其他一系列AI驱动功能,预计未来将会向其他Pixel系列机型和OEM厂商开放。

AI Core最大的亮相在于其将负责管理部署在Android手机上的大模型,同时为其他应用提供AI功能。此外AI Core还提供了AICore Persistent开关,打开状态下可以“允许AI Core划分内存、并持久运行”。对于手机厂商推出的端侧大模型而言,AI Core无疑是一个很有意义的功能,因为它的出现也让端侧大模型真正有了价值。

所谓的端侧大模型,实际上指的是部署在终端设备上本地运行的大语言模型,其特质是在设备上进行数据处理和计算,而不需要依赖云端。事实上,它的出现从某种意义上来说也是必然,因为此前智能手机上的“智能”特性大多被限定在了影像、语音助手、游戏优化,以及应用预启动等极少数场景,相较之下端侧大模型无疑才是真正意义上的“AI应用”。

但问题在于,目前手机厂商公开的6-7B的AI大模型其实是现阶段GPU和NPU硬件能力下的妥协产物,与ChatGPT、Bard这类千亿级大模型在性能上有着显著的差异。可是如今即便ChatGPT等产品都还面临着叫好不叫座的情况,大众对于它们的态度还停留在尝鲜上。虽然现阶段用ChatGPT、New Bing来聊天和讲笑话毫无门槛,但想要用它们在生产力场景辅助人类,则需要不低的门槛、而且甚至还有一定的法律风险。

同样的问题在端侧大模型上只会更加严重,即用户会发现端侧大模型与当年的智能语音助手一样,虽然宣传得高大上、但实际上能实现的新功能寥寥无几,诸如识别有内容的照片、帮用户接听电话并记录关键内容等,早就已经在智能手机上出现了。实际上,目前手机厂商对于端侧大模型的宣传基本还都是在讲参数、性能,以往在新品发布会上大谈特谈的体验、功能,却都被一笔带过了。

之所以会出现这样的情况,关键在于经过Android漫长的系统更新,手机厂商对于手机的掌控是在不断下降的,大家现在每天使用的App更基本都是来自第三方。例如微软的Copilot AI为何敢于号称是“您的日常AI伴侣”,这是因为微软旗下的软件极为丰富,Copilot AI和Microsoft365等产品的融合能够为用户提供具有唯一性的体验。

所以这时候谷歌AI Core的魅力就体现出来了,在设备本地运行后可以为其它应用提供AI功能,也就意味着借AI Core可以连接端侧大模型与第三方应用。端侧大模型为应用赋能这个故事背后的想象空间,可就大了不少。比如快手的“AI玩评”就是典型的AI大模型为应用赋能,后续如果AI Core能够普及,类似的功能则可以出现在任意一款Android App上。

当然,AI Core并非是一个好兆头,因为它的出现同时也意味着大内存未来将会成为标配,并且Android系统对于小内存机型将会越来越不友好。据公开信息显示,目前一众7B规模的端侧大模型在手机上运行时会占据大量的内存,即便精度下降最大的int4级别量化也会消耗至少3.5G内存,更高的int8级别所需的内存自然也就更多了。如果抛开系统占用,实际上8GB内存的手机基本运行端侧大模型后就什么都干不了,当下主流的12GB内存也就只够再开个微信、抖音。

所以从某种意义上来说,端侧大模型以及AI Core的出现,势必将会带来Android机型新一轮的内存容量升级。未来12GB内存大概率会成为入门级别,不然这样一个被大量宣传、却不能用的功能,显然就毫无意义了。

更新时间 2023-12-02