【新智元导读】o1模型发布1周,lmsys的6k+投票就将o1-preview送上了排行榜榜首。同时,为了满足大家对模型「IOI金牌水平」的好奇心,OpenAI放出了o1测评时提交的所有代码。
万众瞩目的最新模型OpenAI o1,终于迎来了lmsys竞技场的测评结果。
不出意外,o1-preview在各种领域绝对登顶,超过了最新版的GPT-4o,在数学、困难提示和编码领域表现出色;
而o1-mini虽然名字中自带「mini」,但也和最新版的GPT-4o并列综合排名第二,困难提示、编码、数学等领域和o1-preview同样登顶第一。
果然,o1模型不愧是通用推理领域的新王。
lmsys社区官方发推表示,这项测试结果收集了6k+社区投票,并将OpenAI这次取得的进展描述为「令人难以置信的里程碑」。
单纯看排行榜的排名可能不够具有说服力,于是lmsys特意统计了总榜上前25名模型的1v1胜率。
可以看到,o1-preview对所有模型的胜率都超过了50%,对比04-09版GPT-4-Turbo的胜率最高,达到了88%。
o1-mini如果对战o1-preview,胜率为46%,对09-03版GPT-4o的胜率为48%,可以说是大体平手、稍逊一筹的状态。
值得注意的是,虽然Grok-2-mini和Claude3.5Sonnet都排在比较靠后的位置,但o1-preview对这两个模型的胜率并不高,分别是58%和57%,大大小于排名第四的Gemini1.5Pro的69%。
如果看到细分领域的排行榜,尤其是数学/推理领域,效果则更加惊艳。
o1-preview和o1-mini不仅是登顶数学排行榜,而且是体现出了绝对的领先优势。
排在第三、第四的Claude3.5Sonnet、Gemini1.5Pro和08-08版ChatGPT-4o的均分都在1275左右,不相上下;o1-preview和o1-mini则一骑绝尘,分数飙到1360附近,直接碾压。
o1推理团队的领导者之一William Fedus看到这张图也是相当开心,他表示这张图「很好地用视觉表达了范式转换」。
看来最新的o1模型在STEM学科和通用推理方面的确又达到了新高度,用实际测评结果回应了「AI遇冷」、「OpenAI碰壁」的质疑声。
「那就继续期待OpenAI接下来的发布吧!」
但一些人感叹「未来可期」的同时,另一些人想到了自己不多的智商和头发。
「模型搞得这么好了,测试就不适合我这种蠢人了。」
同时,也有一些人表达了对lmsys排行榜结果的质疑。
比如,众所周知的o1模型推理时间长,因而回答的延时也长,和其他模型都有明显差别;而且不同于各类基准测试的客观标准,lmsys社区中完全基于用户的主观评分,难说这里面是否存在「安慰剂效应」。
也有人不服o1在编码排行榜上的第一,认为虽然o1-mini非常适合进行项目规划,但在Cursor这类编码助手中还是Claude模型的表现最佳。
排行榜的结果当然不是全部,o1模型能否继续赢得口碑,同时保持住智力水平不变蠢,还要看接下来的一段时间。
IOI金牌代码全公开
说到o1模型的编码能力,不知道你还是否记得,刚发布时OpenAI提到了这样一个指标:如果放宽提交约束到每个问题允许1万次提交,o1可以达到高于IOI金牌门槛的分数。
在模拟进行的Codeforces编程竞赛中,使用相同的规则进行评估,o1-preview可以打败62%的人类选手,正式版o1则上升到超越89%的对手。
专门微调过的o1-ioi模型,表现优于93%的竞争对手。
此外,前段时间有用户在实时的Codeforces比赛中使用了o1模型,结果是超越了99.8%的人类选手。
由于o1在编程竞赛领域的表现如此突出,引起了AI社区强烈的兴趣和好奇,OpenAI于是选择发布o1模型提交的代码内容,包括6个问题的全部C++代码以及注释。
发文的yummy是o1模型的核心贡献者Alexander Wei
对于o1的惊艳表现,Alexander Wei自己都很惊讶。
他本人在9年前曾参加IOI竞赛,但从未想到自己这么快就需要和AI竞争,模型展现出的推理过程的复杂程度令人印象深刻。
博文表示,虽然o1模型距离人类的顶级表现还有很长的一段路要走,但我们期待有一天能实现这个目标。
这个发展轨迹让人想起了AlphaGo——从水平高超,到能和人类顶级高手不分胜负,再到5-0完全碾压李世石。
OpenAI想要达成的,估计就是究极进化的、能在编程上碾压人类顶级高手的AlphaZero。
此处公布代码的6个问题具体如下:
有网友指出,其中最令人印象深刻的应该是象形文字(hieroglyphs)问题,o1模型总共得到44分,在现场的所有选手中排名第四。这表明,模型或许可以破译一些人类无法解决的子任务。
前几天,一位目前在NASA工作的天体物理学博士就尝试让o1复现自己论文中的代码,结果一试吓一跳——自己读博时花了1年写出的代码,o1只用了一小时就写完了。
这还只是裸模型,如果加上代码解释器、网络实时搜索等各种工具,效果想必更加惊艳。
而且,Reddit网友还送来了温馨提示:这只是o1预览版哦,可以狠狠期待一下不到一个月就即将问世的正式版o1了。
此外,这位网友还表示,o1基本沿用了GPT-4的架构;那你想,改换架构后的GPT-5(也就是传说中的猎户座)能达到什么高度。
参考资料:
https://x.com/lmsysorg/status/1836443278033719631
https://codeforces.com/blog/entry/134091
总结
**文章总结**:**OpenAI o1模型在lmsys竞技场大放异彩**,一周内便登顶排行榜,获得6k+投票支持,展现出“IOI金牌水平”的实力。
**主要亮点包括**:
- **全面表现突出**:o1-preview在多个领域均超越GPT-4o,尤其在数学、困难提示和编码领域表现卓越。
- **迷你版表现不俗**:即便是o1-mini,也与最新版GPT-4o并列综合排名第二,在关键领域与o1-preview一同登顶。
- **胜率高**:o1-preview对战所有模型的胜率超50%,对GPT-4-Turbo某版本的胜率高达88%,显示出强大的竞争力。
- **在数学/推理领域领先**:o1模型在数学排行榜上展现绝对优势,分数远超其他竞争者。
**进一步的测试与表现**:
- o1模型在编码竞赛中同样表现出色,轻松超越多数人类选手,特别是在Codeforces测试中,表现优于93%的竞争对手,个别预览版用户报告o1甚至超越99.8%的人类选手。
- OpenAI公开了o1模型在编码测试中的全部C++代码及注释,进一步验证其实力。
**引发热议与影响**:
- o1模型的惊艳表现引起AI社区广泛关注和讨论,部分用户认为o1已接近人类顶级水平。
- 然而,也有质疑声指出o1模型推理时间长、lmsys排行榜主观性强等问题。
**未来展望**:
- OpenAI计划继续优化o1模型,并即将推出正式版,同时期待未来能通过改换架构等方式进一步提升性能,如传说中的GPT-5(猎户座)所能达到的新高度。
**总评**:
OpenAI o1模型的发布与测试结果无疑是AI领域的一个重要里程碑,展示了AI在通用推理与编程领域的巨大潜力和进步。未来,随着技术的不断发展,人工智能或将进一步缩小与人类顶尖水平的差距。