-
MCT Self-Refine:创新集成蒙特卡洛树搜索 (MCTS)提高复杂数学推理任务的性能,超GPT4,使用 LLaMa-3 8B 进行自我优化
? 文献卡 题目: Accessing GPT-4 level Mathematical Olympiad Solutions via Monte Carlo Tree Self-refine with LLaMa-3 8B 作者: Di Zh...
-
ChatGPT也在评审你的顶会投稿,斯坦福新研究捅了马蜂窝,“这下闭环了”
尴了个大尬! 人们还在嘲讽有人用ChatGPT写论文忘了删掉“狐狸尾巴”,另一边审稿人也被曝出用ChatGPT写同行评论了。 而且,还是来自ICLR、NeurIPS等顶会的那种。 来自斯坦福的学者对一些顶级AI会议(如ICLR、NeurIPS、CoRL...
-
微软发布PyRIT,用于识别生成式AI系统中的风险
2月26日消息,据外媒报道,微软发布了一个名为PyRIT的开放访问自动化框架,用于主动识别生成式AI系统中的风险。 微软人工智能红色团队负责人Ram Shankar Siva Kumar表示,红色团队工具旨在“使全球每个组织都能利用最新的人工智能进步进...
-
GPT-4无法造出生物武器!OpenAI最新实验证明:大模型杀伤力几乎为0
GPT-4会加速生物武器的发展吗?在担心AI统治世界之前,人类是否会因为打开了潘多拉魔盒而面临新的威胁? 毕竟,大模型输出各种不良信息的案例不在少数。 今天,处在风口,也是浪尖的OpenAI再次负责任地刷了一波热度。 图片 我们正在建立一个能够协助制造生...
-
消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型
大模型的「幻觉」问题马上要有解了? 威斯康星麦迪逊大学和谷歌的研究人员最近开发了一个名为ASPIRE的系统,可以让大模型对自己的输出给出评分。 如果用户看到模型的生成的结果评分不高,就能意识到这个回复可能是幻觉。 如果系统可以进一步筛选评分的结果进行输...
-
可令 AI 自我判断输出内容正确性,谷歌公布模型训练框架 ASPIRE
IT之家 1 月 23 日消息,谷歌日前发布新闻稿,介绍了一款专为大语言模型设计的 ASPIRE 训练框架,该框架号称可以增强 AI 模型的选择性预测能力。 谷歌提到,当下大语言模型在自然语言理解和生成内容方面发展迅速,已被用于构建各种创新应用,但要...
-
AI如何走向负责?英国标准协会给出了答案
人工智能(AI 是当今世界最具革命性和影响力的技术之一,它已经渗透到了各个领域和行业,为人类的生活和工作带来了巨大的便利和价值。但是AI的发展和应用也伴随着各种挑战和风险,如何确保AI的安全、可信和可持续,如何平衡AI的创新和伦理,如何保护AI的利益相关...
-
AIGC(生成式AI)试用 11 -- 年终总结
自然主言处理,文字处理,文本生成,应该是AIGC的最强项,聊天和写文章。 回归初衷,回归最初的设计功能,看看AIGC生成文档的功能如何 主题:年终总结 又是一年,又要总结一年的工作和生活,做的怎么样?目标倒没倒? 看看AIG...
-
大模型微调非得依赖人类数据吗?DeepMind:用带反馈的自训练更好
如你我所见,大语言模型(LLM)正在改变深度学习的格局,在生成人类质量的文本和解决各种语言任务方面展现出了卓越的能力。虽然业界通过对人类收集的数据进行监督微调进一步提升了在具体任务上的性能,但获取高质量人类数据却面临着重大瓶颈。这对于要解决复杂问题的任务...