-
用大模型帮程序员找Bug,中科院剖析102篇论文总结出这些方案
中科院对“找Bug”下手了,一口气总结了N种方案! 法宝就是大模型。 大模型由于其卓越的自然语言理解、推理等能力,已经被应用于各种场景,取得了前所未有的效果。 类似的,软件测试领域也受益于其强大的能力,能够帮助生成逼真且多样化测试输入,模拟各种异常,加...
-
机器学习模型性能的十个指标
尽管大模型非常强大, 但是解决实践的问题也可以不全部依赖于大模型。一个不太确切的类比,解释现实中的物理现象,未必要用到量子力学。有些相对简单的问题,或许一个统计分布就足够了。对机器学习而言, 也不用言必深度学习与神经网络,关键在于明确问题的边界。 那么在...
-
UIUC清华联手发布全新代码大模型Magicoder 不到7B参数
在代码生成领域,UIUC和清华合作发布了Magicoder,这一全新的大型语言模型仅使用了7B参数,却能与顶级模型媲美,并以全面开源的方式分享了其代码、权重和数据。Magicoder的关键在于采用了OSS-INSTRUCT方法,该方法通过从开源代码中获取灵...
-
邢波团队提出全开源倡议LLM360 让大模型实现真正的透明
开源模型在人工智能领域展现强大活力,但闭源策略限制了LLM(大型语言模型)的发展。邢波团队提出的LLM360全面开源倡议旨在解决这一问题。该框架明确了包括训练数据、代码、模型检查点和性能指标在内的各方面细节,为当前和未来的开源模型树立了透明度的样本。 论...
-
全方位、无死角的开源,邢波团队LLM360让大模型实现真正的透明
开源模型正展现着它们蓬勃的生命力,不仅数量激增,性能更是愈发优秀。图灵奖获得者 Yann LeCun 也发出了这样的感叹:「开源人工智能模型正走在超越专有模型的路上。」 专有模型在技术性能和创新能力上展现了非凡的力量,但是它们不开源的性质成为 LLM 发...
-
ChatGPT模型在神经学考试中表现出色,超越人类学生水平
近期发表在JAMA Network Open期刊的一项研究中,研究人员评估了两个ChatGPT大型语言模型(LLMs)在回答美国精神病学和神经学委员会问题库的问题时的表现。他们比较了这两个模型在低阶和高阶问题上的结果与人类神经学生的表现。研究发现,其中一个...
-
新AI框架DreamSync:结合图像理解模型的反馈 改善文本到图像合成
来自南加州大学、华盛顿大学、巴伊兰大学和谷歌研究团队的研究人员推出了DreamSync,这是一种新型人工智能框架,致力于解决扩散型文本到图像(T2I)模型中对齐和审美吸引力的问题,而无需进行人工标注、修改模型架构或使用强化学习。 DreamSync的方法是...
-
LLMs之Colossal-LLaMA-2:Colossal-LLaMA-2的简介(基于LLaMA-2架构+中文优化+扩充词表+仅千美元成本)、安装、使用方法之详细攻略
LLMs之Colossal-LLaMA-2:Colossal-LLaMA-2的简介(基于LLaMA-2架构+中文优化+扩充词表+仅千美元成本 、安装、使用方法之详细攻略 导读:2023年9月25日,Colossal-AI团队推出了开源模型Colos...
-
AI绘画 矿卡CMP 40HX 五秒出图(2023.8.6更新)
华硕的CMP 40HX是基于Nvidia Turing架构的矿卡,相比P106/P104/P102系列基于Pascal架构的矿卡,CMP 40HX启用了Tensor核心,在AI运算方面的效率有了显示提升。 基于stable diffusion的webui...
-
GPT成熟之路官方笔记 | OpenAI开发者日
ChatGPT产品打造的细节,现在OpenAI自己交了个底。 并且这波干货分享真是信息量满满,包括但不限于: ChatGPT背后的产品和研发团队如何协作 大模型应用如何从原型走向成熟 OpenAI如何优化大模型性能…… 以上信息,依然来自今年的新晋...
-
教你如何使用PyTorch解决多分类问题
本文分享自华为云社区《使用PyTorch解决多分类问题:构建、训练和评估深度学习模型》,作者: 小馒头学Python。 引言 当处理多分类问题时,PyTorch是一种非常有用的深度学习框架。在这篇博客中,我们将讨论如何使用PyTorch来解决多分类...
-
最新!基于视觉方案的车辆速度、距离估计综述
本文经自动驾驶之心公众号授权转载,转载请联系出处。 论文名称:Vision-based Vehicle Speed Estimation: A Survey 导读 在精确检测车速车距的方案中,视觉方案是非常具有挑战性的,但由于没有昂贵的距离传感器而大幅...
-
中国科学院:已于分组加密算法的差分密码分析方面取得进展
IT之家 11 月 20 日消息,据中国科学院软件研究所官方公众号报道,近日,中国科学院软件研究所可信智能系统研究团队在分组加密算法的差分密码分析方面取得一定进展。 据悉,该工作团队设计了一个面向分组加密算法的领域编程语言 EasyBC,在此基础上提出...
-
重磅!清华最新报告:文心一言超越ChatGPT 3.5
点击下方卡片,关注“CVer”公众号 AI/CV重磅干货,第一时间送达 今年国内厂商已发布很多大语言模型,其中最具代表性的产品有:百度的文心一言、阿里巴巴的通义千问、科大讯飞的星火等,最具代表性的开源工作有:ChatGLM、MOSS、Ba...
-
字节跳动算力监控系统的落地与实践
背景 随着字节跳动业务的快速发展,数据中心服务器规模增长迅速,以满足日益增长的算力需求。当规模到一定程度时,就需要平衡好机器成本与效率、资源之间的关系,有针对性地优化数据中心性能,以降低计算成本。 参考行业内的实践,从 2019 年起,STE 团队开始...
-
车联网下大数据安全采集机制研究
现存的物联网协议不能够直接应用于大数据采集场景,并且常规动态网络结构和车辆节点的复杂性会随着数据量增多而加大,对安全性要求变得越来越高﹔针对车辆数据资源传输的安全性保证问题,提出了一个新的大数据收集安全机制﹔车辆信息通过大数据注册中心连接到网络后进行联合...
-
交叉验证太重要了!
首先需要搞明白,为什么需要交叉验证? 交叉验证是机器学习和统计学中常用的一种技术,用于评估预测模型的性能和泛化能力,特别是在数据有限或评估模型对新的未见数据的泛化能力时,交叉验证非常有价值。 那么具体在什么情况下会使用交叉验证呢? 模型性能评估:交叉...
-
AI圈巨震!微软论文曝光GPT-3.5参数量仅有200亿
最近,微软的一篇论文引发了广泛讨论,揭示了GPT-3.5的真实参数量可能只有20B,远远小于之前官方宣布的1750亿。这一曝料在AI圈内引起了巨大的震动,让人们开始重新评估这一庞大模型的性能和潜力。此论文还介绍了一个小型扩散模型CodeFusion,它只有...
-
Stability AI发布两款日语语言模型
Stability AI Japan最近发布了两款令人瞩目的日语语言模型,分别命名为“Japanese Stable LM3B-4E1T”和“Japanese Stable LM Gamma7B”。 前者具有大约30亿参数,而后者则拥有高达70亿参数的庞大...