近期,李开复的Yi-34B-Chat模型在多个评测中大放异彩。其94.08%的胜率超越了LLaMA2和ChatGPT等主流大模型,尤其在加州大学伯克利分校主导的LMSYS ORG排行榜中,以1102的Elo评分追平了GPT-3.5。此外,在中文SuperCLUE排行榜上,Yi-34B-Chat以31.82%的胜率仅次于GPT4-Turbo。
通过对话场景实测,Yi-34B-Chat在不同对话场景中展现出优越的实力。从对Transformer模型结构的发展方向到生成小红书文案,Yi-34B-Chat的回答均显示其有理有据,符合当前主流风格。在中文理解方面,Yi-34B-Chat在复杂的中文理解问题上也展现了出色的精准性。
项目地址:https://huggingface.co/01-ai
Yi-34B-Chat模型的卓越表现不仅仅源于其强基座系列,还得益于人工智能对齐团队的创新对齐策略。采用轻量化指令微调方案,单项能力提升和多项能力融合两个阶段的创新训练方式,以及关注数据质量和指令多样性等方面的独特设计,使Yi-34B-Chat在各方面均有出色表现。
Yi-34B模型开源首月表现亮眼,在Hugging Face社区下载量高达16.8万,魔搭社区下载量也达到1.2万,GitHub上获得超过4900个Stars。多家知名公司和机构基于Yi模型基座推出的微调模型,如猎户星空公司的OrionStar-Yi-34B-Chat模型、IDEA研究院的SUS-Chat-34B等,性能表现优异。在GPU加速大模型的实验中,Yi-6B成为范例项目。
开发者Eric Hartford提出Yi模型使用了与LLaMA模型相同的架构,引发了一场关于“抄袭”的质疑。零一万物团队意识到问题,及时在各开源平台重新提交模型及代码,完成了版本更新。然而,这一小问题在国内被曲解,引发了一场舆论风暴。团队强调,他们是从零开始打造Yi系列模型,重新命名仅为对比实验需求。
这一系列的成绩和问题共同勾勒出Yi-34B-Chat模型的成功轨迹,尽管受到一些质疑,但其在技术创新和用户体验方面的表现仍然备受瞩目。