据VB报道,苹果公司最近公布了两篇论文,展示了该公司在人工智能研究方面取得的重大进展。其中一项新技术有望让复杂的AI系统在iPhone、iPad等小内存设备上流畅运行。
在论文中,苹果研究人员解决了一个关键挑战:如何在内存有限的设备上部署大语言模型(LLM)。
苹果的技术人员通过一系列方法最大限度地减少了从闪存到内存的数据传输,将推理延迟提高了4-5倍,在GPU上加速达到20-25倍。这一突破对于在资源有限的环境中部署先进的LLM尤为重要,极大提高了适用性和可及性。
对于苹果用户来说,这些优化可能很快允许复杂的人工智能助手和聊天机器人在iPhone、iPad和其他移动设备上流畅运行。
此前,天风国际证券分析师郭明錤最新发文称,iPhone16将会推出AI相关的创新功能。据悉,苹果在今年第三季度改组了Siri团队,目标在于整合AIGC功能和LLM (大语言模型)。