-
从小数据到大模型,“AI+”何以落地?
南京师范大学附属中学宿迁分校成立智慧教学小组,并以周为单位,对教师的智慧课堂应用数据进行复盘;中国人民大学附属中学丰台学校的教师们,已经习惯于课后通过课堂智能反馈系统总结自己的上课情况;而通过集体备课平台,北京师范大学广州实验学校的教师们可以随时随地进行线...
-
大型语言模型如何教会自己遵循人类指令?
译者 | 李睿 审校 | 重楼 如今,人们对能够使大型语言模型(LLM 在很少或没有人为干预的情况下改进功能的技术越来越感兴趣。大型语言模型(LLM 自我改进的领域之一是指令微调(IFT ,也就是让大型语言模型教会自己遵循人类指令。 指令微调(IFT ...
-
苹果试点类ChatGPT工具Ask 帮助客服回答用户问题
苹果正在试点推进一款名为Ask的类ChatGPT工具,旨在帮助其AppleCare客服团队更有效地回答用户的技术问题。 据悉,这款Ask工具具备强大的功能,能够自动生成相关的操作步骤、疑难解答等内容。当用户向客服团队提出技术疑问时,客服人员可以直接参考As...
-
Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局
Llama 2-70B一夜之间打败GPT-4,让整个AI社区为之震惊! 甚至,在AlpacaEval 2.0排行榜中,微调后的模型胜率完全碾压Claude 2、Gemini Pro等模型。 Meta和NYU研究团队究竟提出了什么秘制配方,才能让Llam...
-
大模型自我奖励:Meta让Llama2自己给自己微调,性能超越了GPT-4
大模型领域中,微调是改进模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效果。 最近,来自 Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,给人带来了一点新的震撼。 在新方法中,作者...
-
专用于手机、笔记本,Stability.ai开源ChatGPT基因的大模型
12月8日,著名开源生成式AI平台stability.ai在官网开源了,30亿参数的大语言模型StableLM Zephyr3B。 Zephyr3B专用于手机、笔记本等移动设备,主打参数小、性能强、算力消耗低的特点,可自动生成文本、总结摘要等,可与70亿、...