-
AI视野:Azure AI新增40种大模型;Yi-34B-Chat微调模型开源;GPT-4在图灵测试中成功率超过41%;微软谷歌推出AI入门课程
???AI新鲜事 微软Azure AI新增40种大模型 微软宣布在Azure AI云开发平台中新增40个大模型,包括Whisper V3、Stable Diffusion、Phi、Falcon、SAM、CLIP、Code Llama等,支持文本生成、图像处...
-
看百度文心一言实力,再聊ChatGPT触类旁通的学习能力如何而来?
图文原创:亲爱的数据 美国大模型水平领先,国内大模型蓄势而发。 国内大模型参与者众多,百度文心一言第一个有勇气站出来发布。 此处应有掌声。 事前事后,中国网友的呐喊声不绝于耳:“文心一言到底什么水平啊?” 其实网友更想知道:国内A...
-
Llama 2 论文《Llama 2: Open Foundation and Fine-Tuned Chat Models》阅读笔记
文章目录 Llama 2: Open Foundation and Fine-Tuned Chat Models 1.简介 2.预训练 2.1 预训练数据 2.2 训练详情 2.3 LLAMA 2 预训练模型评估 3. 微调 3.1 s...
-
GPT成熟之路官方笔记 | OpenAI开发者日
ChatGPT产品打造的细节,现在OpenAI自己交了个底。 并且这波干货分享真是信息量满满,包括但不限于: ChatGPT背后的产品和研发团队如何协作 大模型应用如何从原型走向成熟 OpenAI如何优化大模型性能…… 以上信息,依然来自今年的新晋...
-
【网安AIGC专题11.1】11 Coreset-C 主动学习:特征选择+11种采样方法+CodeBERT、GraphCodeBERT+多分类(问题分类)二元分类(克隆检测)非分类任务(代码总结)
Active Code Learning: Benchmarking Sample-Efficient Training of Code Models 写在最前面 论文名片 先验知识的补充 主动学习 采样函数 benchmark基准和base...
-
AI生成视频入局新卷王,上线不到48小时,网友“大片”刷屏X
AI视频生成工具卷起来了! 本周二,Stability AI低调发布了首个开源AI视频模型Stable Video Diffusion(以下简称SVD),同时还晒出测试数据称,SVD的模型性能碾压RunwayML、Pika Labs等领先的闭源商业模型。...
-
历数5年89篇研究,这篇综述告诉我们深度学习中的代码数据增强怎么样了
当今深度学习以及大模型的飞速发展,带来了对创新技术的不断追求。在这一进程中,代码数据增强技术显现出其不可忽视的价值。 最近,由蒙纳士大学、新加坡管理大学、华为诺亚方舟实验室、北京航空航天大学以及澳大利亚国立大学联合进行的对近 5 年的 89 篇相关研究调...
-
新的生图模型DeepFloyd IF来了,可以拳打Stable Diffusion,脚踢Dall-E?
简介: Stability AI与它的多模式AI研究实验室DeepFloyd共同宣布研究版本DeepFloyd IF的发布,这是一款强大的文text-to-image级联像素扩散模型(cascaded pixel diffusion model),复现了...
-
教你如何使用PyTorch解决多分类问题
本文分享自华为云社区《使用PyTorch解决多分类问题:构建、训练和评估深度学习模型》,作者: 小馒头学Python。 引言 当处理多分类问题时,PyTorch是一种非常有用的深度学习框架。在这篇博客中,我们将讨论如何使用PyTorch来解决多分类...
-
Stable Video Diffusion来了,代码权重已上线
AI 画图的著名公司 Stability AI,终于入局 AI 生成视频了。 本周二,基于 Stable Diffusion 的视频生成模型 Stable Video Diffusion 来了,AI 社区马上开始了热议。 很多人都表示「我们终于等到了」...
-
计算机视觉中目标检测的数据预处理
本文涵盖了在解决计算机视觉中的目标检测问题时,对图像数据执行的预处理步骤。 首先,让我们从计算机视觉中为目标检测选择正确的数据开始。在选择计算机视觉中的目标检测最佳图像时,您需要选择那些在训练强大且准确的模型方面提供最大价值的图像。在选择最佳图像时,考...
-
UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法
LLM,如 ChatGPT,可以轻松地产生各种流利的文本,但是它们的准确性有多高呢?语言模型容易产生事实错误和幻觉,这让读者在决定是否相信一个信息来源时知道是否使用了这些工具来做新闻文章或其他信息文本的幽灵写作。这些模型的发展也引发了对文本的真实性和原创性...
-
开源社区有望成为OpenAI人事震动的最大赢家
美国当地时间11月20日上午,微软出人意料地聘请了OpenAI前CEO奥特曼和OpenAI总裁格雷格·布罗克曼,这一战略决定似乎是微软试图尽其所能摆平由OpenAI的董事会解雇奥特曼造成的混乱局面。 OpenAI政变的剧情一直在发展,几名研究人员已经辞...
-
大语言模型之七- Llama-2单GPU微调SFT
(T4 16G)模型预训练colab脚本在github主页面。详见Finetuning_LLama_2_0_on_Colab_with_1_GPU.ipynb 在上一篇博客提到两种改进预训练模型性能的方法Retrieval-Augmented Gener...
-
中科大联合封神榜团队发布中文医疗领域大模型ChiMed-GPT
中科大和 IDEA 研究院封神榜团队合作开发了一款名为 ChiMed-GPT 的中文医疗领域大语言模型(LLM)。该模型基于封神榜团队的 Ziya2-13B 模型构建,拥有130亿个参数,并通过全方位的预训练、监督微调和人类反馈强化学习来满足医疗文本处理的...
-
OpenAI安全系统负责人长文梳理:大模型的对抗攻击与防御
随着 ChatGPT 的发布,大型语言模型应用正在加速大范围铺开。OpenAI 的安全系统团队已经投入了大量资源,研究如何在对齐过程中为模型构建默认的安全行为。但是,对抗攻击或 prompt 越狱依然有可能让模型输出我们不期望看到的内容。 目前在对抗攻击...
-
13B模型全方位碾压GPT-4?这背后有什么猫腻
一个参数量为 13B 的模型竟然打败了顶流 GPT-4?就像下图所展示的,并且为了确保结果的有效性,这项测试还遵循了 OpenAI 的数据去污方法,更关键的是没有发现数据污染的证据。 如果你细细查看图中的模型,发现只要带有「rephraser」这个单词...
-
文心一言、讯飞星火与GPT-4/3.5在回答中文历史问题的表现
最近,随着备受关注的文心一言正式免费向全社会开放,再次引起了社会层面对国产大模型的兴趣。 以文心一言为代表的国产大模型性能究竟如何?如果将它们相互比较,并且和GPT系列模型等国际前沿水平的LLM进行比较,会得到什么样的结果呢?笔者对此...
-
AI重塑媒体行业,凤凰卫视重磅入场AI数据赛道
媒体人在2023年或多或少都有点“失业”焦虑——媒体人被认为是最可能被ChatGPT取代的高危职业之一。 面对人工智能的冲击,部分媒体选择以防御之态应对,保护自己的内容不受大语言模型的“侵略”。根据《卫报》的报道,CNN、纽约时报和路透社等多个媒体巨头在...
-
Vicuna Makers打造小型AI模型Llama-rephraser,130亿参数、性能媲美GPT-4
Vicuna Makers的研究团队在构建Vicuna语言模型的基础上,成功推出了一款新型的小型人工智能模型(LLM),该模型在性能上与OpenAI的GPT-4相媲美,仅包含130亿个参数。 这一新模型被命名为Llama-rephraser,由LMSYS...
-
如何有效减少 AI 模型的数据中心能源消耗?
在让人工智能变得更好的竞赛中,麻省理工学院(MIT)林肯实验室正在开发降低功耗、高效训练和透明能源使用的方法。 在 Google 上搜索航班时,您可能已经注意到,现在每个航班的碳排放量估算值都显示在其成本旁边。这是一种告知客户其对环境影响的方式,并让他...
-
掰开安卓手机,满屏都是三个字:大模型丨模力时代
这年头,安卓厂商没个大模型,都不敢开手机发布会了。 前脚OPPO刚用大模型升级了语音助手,后脚vivo就官宣自研手机AI大模型; 小米发布会则直接将大模型当场塞进手机系统……其竞争激烈程度,不亚于抢芯片首发。 到底是怎么回事? 究其原因,还是智能终端已经成...
-
AIGC的发展与机遇
陈老老老板? ??本文专栏:赠书活动专栏(为大家争取的福利,免费送书)试一下文末赠书,讲一些科普类的知识 ??本文简述:本篇内容的引用都已征得人民邮电出版社的同意,讲一下AIGC的发展与机遇 ??上一篇文章: 【陈老板赠书活动...
-
戳穿人工智能的六个谎言:辨别真伪
译者 | 布加迪 审校 | 重楼 人工智能(AI)无疑是我们这个时代的流行语。特别是随着ChatGPT等生成式AI应用程序的出现,AI大受欢迎,成为了技术大辩论的核心话题。 所有人都在谈论像ChatGPT这样的生成式AI应用程序的影响以及利用它们的能力...
-
阿里发布自研夸克大模型:整体能力已超GPT-3.5
快科技11月14日消息,阿里巴巴智能信息事业群今日正式发布全栈自研、千亿级参数夸克大模型。 据介绍,在CMMLU权威大模型性能评测中,夸克大模型成绩位列榜首,根据评测显示,夸克大模型整体能力已经超过GPT-3.5,在写作、考试等部分场景中优于GPT-4。...
-
神经网络中的量化与蒸馏
本文将深入研究深度学习中精简模型的技术:量化和蒸馏 深度学习模型,特别是那些具有大量参数的模型,在资源受限环境中的部署几乎是不可能的。所以就出现了两种流行的技术,量化和蒸馏,它们都是可以使模型更加轻量级,而不会对性能造成太大影响。但是它们需要什么,它们又...
-
中国AIGC数据标注全景报告:百亿市场规模,百万就业缺口
数据标注,正迎来关键洗牌时刻。 大模型时代到来,以数据为中心的AI开发模式加速走向台前,数据的价值从未向今天这样被充分挖掘—— 大模型从训练到部署应用迭代,AIGC众多垂直场景落地,通用智能、具身智能等前沿领域探索,都与高质量、专业化的场景数据密不可分。...
-
NeRF与自动驾驶的前世今生,近10篇论文汇总!
神经辐射场(Neural Radiance Fields)自2020年被提出以来,相关论文数量呈指数增长,不但成为了三维重建的重要分支方向,也逐渐作为自动驾驶重要工具活跃在研究前沿。 NeRF这两年异军突起,主要因为它跳过了传统CV重建pipeline的...
-
2028年人类将迎来AGI:DeepMind联合创始人长文预测未来AI发展
10月26日,在X上有三万订阅的Dwarkesh Podcast(矮人播客)主持人Dwarkesh Patel采访了谷歌DeepMind的创始人兼首席AGI科学家Shane Legg。 他们讨论了AGI出现的时间节点、可能的AGI新架构、作为下一个行业标...
-
GPT-4比你更会问问题:让大模型自主复述,打破与人类对话的壁垒
在最新的人工智能领域动态中,人工生成的提示(prompt)质量对大语言模型(LLM)的响应精度有着决定性影响。OpenAI 提出的建议指出,精确、详细且具体的问题对于这些大语言模型的表现至关重要。然而,普通用户是否能够确保他们的问题对于 LLM 来说足够...
-
解锁 PaddleOCR 的超能力
光学字符识别(OCR)是一项强大的技术,使机器能够从图像或扫描文档中识别和提取文本。OCR 在各个领域都有应用,包括文件数字化、从图像中提取文本以及基于文本的数据分析。在本文中,我们将探讨如何使用 PaddleOCR,一款基于深度学习的先进OCR工具包,...
-
【人工智能】ChatGTP从入门到精通
当谈论自然语言处理和文本生成技术时,Chat GPT 是一个备受瞩目的话题。作为一种基于深度学习的语言模型,Chat GPT 在近几年里已经展现出了惊人的能力,可以生成几乎无法区分与人类写作的文本,并在自然语言处理领域的各种任务中都表现出色。Chat GP...
-
AIGC实战——卷积神经网络(Convolutional Neural Network, CNN)
AIGC实战——卷积神经网络 0. 前言 1. 卷积神经网络 1.1 卷积层 1.2 叠加卷积层 1.3 检查模型 2. 批归一化 2.1 协变量漂移 2.2 使用批归一化进行训练 2.3 使用批归一化进行预测 3. Dropout 4...
-
全面对比GPT-3.5与LLaMA 2微调
通用大模型虽好,但通过微调得到一个专属大模型不仅可以提高模型的可操控性、输出格式的可靠性和语气的一致性,还能让用户缩短提示长度,加速API调用,降低成本。 本文作者Sam L'Huillier对GPT-3.5与LLaMA 2的微调进行了基准...
-
Intel研究人员提出新AI方法,更高效地在CPU上部署LLM
大型语言模型(LLM)因其在文本生成、语言理解和文本摘要等各种任务中的卓越性能而备受瞩目,但它们庞大的模型参数却需要大量内存和专用硬件,这使得部署这些模型变得相当具有挑战性。 为了降低推断所需的计算功率,研究人员通常采用权重量化等方法,即减少人工神经网络的...
-
让AI模型成为GTA五星玩家,基于视觉的可编程智能体Octopus来了
电子游戏已经成为如今现实世界的模拟舞台,展现出无限可能。以游戏《侠盗猎车手》(GTA)为例,在 GTA 的世界里,玩家可以以第一人称视角,在洛圣都(游戏虚拟城市 当中经历丰富多彩的生活。然而,既然人类玩家能够在洛圣都里尽情遨游完成若干任务,我们是否也能有一...
-
AIGC实战——生成模型简介
AIGC实战——生成模型简介 0. 前言 1. 生成模型 2. 生成模型与判别模型的区别 2.1 模型对比 2.2 条件生成模型 2.3 生成模型的发展 2.4 生成模型与人工智能 3. 生成模型示例 3.1 简单示例 3.2 生成模型框...
-
如何为制造业和自动化应用选择人工智能技术
在工业自动化领域的生产和实验室之外的日常生活中,人工智能(AI 的定义差异很大。 “人工智能”指的是一门包含了几种不同技术和工程学科的科学,包括机器视觉、计算机视觉、机器学习和深度学习。当一个基于这些技术组合的系统设计得当时(从应用分析到最终验证),它...
-
建立自己的ChatGPT:LLama私有化部署及测试
大语言模型(LLM)现在非常流行,可惜ChatGPT等都不开源。大家没法搭建一个自己的环境来感受以下。幸好Meta开源了LLama,这是LLama的介绍: https://ai.facebook.com/blog/large-language-model...
-
大模型勇闯洛圣都,加封「GTA五星好市民」!南洋理工、清华等发布视觉可编程智能体Octopus:打游戏、做家务全能干
随着游戏制作技术的不断发展,电子游戏已然成为现实世界的模拟舞台。 以游戏《侠盗猎车手》(GTA)为例,在GTA的世界里,玩家可以以第一人称视角,在洛圣都(游戏虚拟城市)当中经历丰富多彩的生活。 然而,既然人类玩家能够在洛圣都里尽情遨游完成若干任务,我们...
-
谨防大模型基准评估陷阱!测试集乱入预训练,模型变傻
最新研究警告,大型模型在基准评估中可能面临潜在危害,原因是测试集中的数据可能意外进入预训练过程。这项研究由中国人民大学信息学院、高瓴人工智能学院和伊利诺伊大学厄巴纳-香槟分校的学者联合进行。 研究发现,由于预训练语料包含大量公开文本,而评估基准建立在这些信...
-
上海出台11条举措推动人工智能大模型创新发展
近日,上海市经信委、发改委等五部门联合制定并正式发布了《上海市推动人工智能大模型创新发展若干措施(2023-2025年)》。文件提出11条举措,聚焦大模型创新能力、创新要素供给、大模型创新应用、创新环境四大方面,为上海市大模型创新发展指明方向。 图源备...
-
万字长文解读Stable Diffusion的核心插件—ControlNet
目录 一、介绍 二、使用方法 三、ControlNet结构 1.整体结构 2.ControlLDM 3.Timestep Embedding 4.HintBlock 5.ResBlock 6.SpatialTransformer 7.S...
-
通过100个关键词学习法来学习人工智能(AI)
100个关键词学习法是一种高效的学习方法,它的核心思想是围绕关键词(也就是重点)来进行学习。这套方法论最初由冯唐在世界顶级咨询公司中总结出来。具体来说,不论你想学习哪个行业的知识,首先需要掌握这个行业最重要的一百个关键词。这些关键词可以帮助你快速理解并掌...
-
交叉验证太重要了!
首先需要搞明白,为什么需要交叉验证? 交叉验证是机器学习和统计学中常用的一种技术,用于评估预测模型的性能和泛化能力,特别是在数据有限或评估模型对新的未见数据的泛化能力时,交叉验证非常有价值。 那么具体在什么情况下会使用交叉验证呢? 模型性能评估:交叉...
-
谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化
Transformer模型是否能够超越预训练数据范围,泛化出新的认知和能力,一直是学界争议已久的问题。 最近谷歌DeepMind的3位研究研究人员认为,要求模型在超出预训练数据范围之外泛化出解决新问题的能力,几乎是不可能的。 LLM的终局就是人类智慧总和...
-
国内最大开源模型发布,无条件免费商用!参数650亿,基于2.6万亿token训练
国内规模最大的开源大模型来了: 参数650亿、基于2.6-3.2万亿token训练。 排名仅次于“猎鹰”和“羊驼”,性能媲美GPT3.5,现在就能无条件免费商用。 它就是来自深圳元象公司的XVERSE。 根据算力、资源限制和具体任务需求的不同,我们能对...
-
使用LIME解释各种机器学习模型代码示例
机器学习模型变得越来越复杂和准确,但它们的不透明性仍然是一个重大挑战。理解为什么一个模型会做出特定的预测,对于建立信任和确保它按照预期行事至关重要。在本文中,我们将介绍LIME,并使用它来解释各种常见的模型。 LIME LIME (Local Inter...
-
全球首发!总结七十余种开源数据集,一览自动驾驶开源数据体系
本文经自动驾驶之心公众号授权转载,转载请联系出处。 基于数据驱动的各类深度学习模型任务,近年来随着数据集规模的不断扩大,性能逐渐被提升,国内外各大自动驾驶公司都在不断建立自己的数据库,以及数据闭环系统,期待数据的丰富能够解决下半场自动驾驶问题,那么如何...
-
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
国内大模型创业公司,正在技术前沿创造新的记录。 10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。 这相当于让大模型一次处理约 35 万个汉字,长度...