-
Gemini 是谷歌迄今为止最佳的 AI 模型 但充满希望的基准测试和演示最终引发了批评
谷歌近日公布了其最新的人工智能模型 Gemini,旨在缩小与 OpenAI 之间的差距,并给行业留下深刻印象。该模型展示了强大的基准测试成绩,并通过一段引人注目的视频演示和即时的可用性(尽管是功能受限版本),彰显了谷歌的自信。 然而,随着 AI 工程师和...
-
深度学习之目标检测中的常用算法
随着深度学习的不断发展,深度卷积神经网络在目标检测领域中的应用愈加广泛,现已被应用于农业、交通和医学等众多领域。 与基于特征的传统手工方法相比,基于深度学习的目标检测方法可以学习低级和高级图像特征,有更好的检测精度和泛化能力。 什么是目标检测? 目标检测...
-
OpenAI 的超级对齐团队在做什么
今年11月17日,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman 在首席科学家伊利亚·苏茨克韦尔 (Ilya Sutskever 的政变下被罢免,但三天后复职。不到一个月,OpenAI 宣布一切恢复正常,而这一切导火索是团队内部的有...
-
一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用
各家大模型纷纷卷起上下文窗口,Llama-1时标配还是2k,现在不超过100k的已经不好意思出门了。 然鹅一项极限测试却发现,大部分人用法都不对,没发挥出AI应有的实力。 AI真的能从几十万字中准确找到关键事实吗?颜色越红代表AI犯的错越多。 默认情...
-
谷歌祭出多模态“杀器” Gemini真能碾压GPT-4吗?
“最大”、最有能力”、“最佳”、“最高效”,谷歌为其12月7日新发布的多模态大模型Gemini冠上了好几个“最”,与OpenAI GPT-4“比高高”的胜负欲呼之欲出。 区分为Ultra、Pro、Nano三个尺寸的Gemini,不仅号称在各种“AI考试”中...
-
大语言模型之十六-基于LongLoRA的长文本上下文微调Llama-2
增加LLM上下文长度可以提升大语言模型在一些任务上的表现,这包括多轮长对话、长文本摘要、视觉-语言Transformer模型的高分辨4k模型的理解力以及代码生成、图像以及音频生成等。 对长上下文场景,在解码阶段,缓存先前token的Key和Value(K...
-
专用于手机、笔记本,Stability.ai开源ChatGPT基因的大模型
12月8日,著名开源生成式AI平台stability.ai在官网开源了,30亿参数的大语言模型StableLM Zephyr3B。 Zephyr3B专用于手机、笔记本等移动设备,主打参数小、性能强、算力消耗低的特点,可自动生成文本、总结摘要等,可与70亿、...
-
确定数据分布正态性的11种基本方法
在数据科学和机器学习领域,许多模型都假设数据呈现正态分布,或者假设数据在正态分布下表现更好。例如,线性回归假设残差呈正态分布,线性判别分析(LDA)基于正态分布等假设进行推导。 因此,了解如何测试数据正态性的方法对于数据科学家和机器学习从业者至关重要。...
-
大模型版“5年高考3年模拟”来了!6141道数学题,还是多模态的那种
大模型的“5年高考3年模拟”数学题来了,还是加强强强版! 微软、加州大学洛杉矶分校(UCLA)、华盛顿大学(UW)联合打造全新多模态数学推理基准数据集。 名为“MathVista”。 涵盖各种题型共6141个问题,来源于28个现有的多模态数据集和3个新标...
-
人工智能AI系列 - java 版的stable diffusion 图像生成
图像生成 文生图:输入提示词(仅支持英文),生成图片(仅支持英文) GPU版本 StableDiffusionGPU.java CPU版本 StableDiffusionCPU.java 图生图:根据图片及提示词(仅支持英文)生成图片 GPU版本 Im...
-
AIGC(生成式AI)试用 0 -- 如何测试此类应用
0. 起因 RPA主导的机器人流程自动化风头正劲 AI由来已久 生成式AI正在改变着工作和生活的方式 生成式AI工具不断更新换代 思考的问题,生成式AI: - 能实现什么? - 不同工具间的区别? - 如何测试此类工具? 似乎想的有点多、有点大。何是...
-
测试用例设计方法六脉神剑——第一剑:入门试招,等价边界初探 | 京东物流技术团队
1 背景及问题 G.J.Myers在<软件测试技巧>中提出:测试是为了寻找错误而运行程序的过程,一个好的测试用例是指很可能找到迄今为止尚未发现的错误的测试, 一个成功的测试是揭示了迄今为止尚未发现的错误的测试。 对于新手来说,日常测试用例设...
-
AI测试|史上最全,细数AIGC在测试领域落地的困难点
一、引言&背景 自2022年由横空出世的ChatGPT引发的各类AIGC(Generative AI)爆发以来,人们对其在各个领域的应用潜力产生了极大的兴趣。在研发领域,各种研究已经证明了Github Copilot在研发效能提高上的积极作用。...
-
AIGC之GPT-4:GPT-4的简介与详细攻略
AIGC之GPT-4:GPT-4的简介与详细攻略 简介 欢迎来到人工智能生成内容(AIGC)时代的新篇章!本篇博客将介绍GPT-4(Generative Pre-trained Transformer 4)的核心原理、意义、亮点、技术点、缺点以及使...
-
在少样本学习中,用SetFit进行文本分类
译者 | 陈峻 审校 | 重楼 在本文中,我将向您介绍“少样本(Few-shot)学习”的相关概念,并重点讨论被广泛应用于文本分类的SetFit方法。 传统的机器学习(ML) 在监督(Supervised)机器学习中,大量数据集被用于模型训练,以便...
-
大火的4D Radar开源数据汇总
本文经自动驾驶之心公众号授权转载,转载请联系出处。 4D Radar在自动驾驶领域中越来越受关注,在价格和功能上都有比较大的竞争力,相关研究也逐渐open,今天为大家盘点下开源的4D Radar数据,为相关科学研究提供保障! 1Astyx 数据集链接:h...
-
大模型界的“熊猫烧香”,可对文生图模型造成巨大伤害!
《麻省理工技术评论》分享了一个名为Nightshade的投毒工具,可以对DALL-E、Midjourney 和Stable Diffusion等文生图模型的训练数据造成造成巨大伤害,以帮助艺术家们防止非法爬取其画作数据,用于大模型训练,同时揭露了模型存在的...
-
【网安AIGC专题11.1】11 Coreset-C 主动学习:特征选择+11种采样方法+CodeBERT、GraphCodeBERT+多分类(问题分类)二元分类(克隆检测)非分类任务(代码总结)
Active Code Learning: Benchmarking Sample-Efficient Training of Code Models 写在最前面 论文名片 先验知识的补充 主动学习 采样函数 benchmark基准和base...
-
【多模态】4、Chinese CLIP | 专为中文图文匹配设计
文章目录 一、背景 二、方法 2.1 基础内容 2.2 数据集 2.3 预训练方法 2.4 模型尺寸 三、效果 四、代码 4.1 推理 论文:Chinese CLIP: Contrastive Vision-Language Pr...
-
ChatGPT“周岁考”:微软发飙,谷歌磨刀
ChatGPT,来到命运的十字路口。 2022年11月30日,OpenAI旗下的ChatGPT正式上线,瞬间燃爆全球互联网,拉开了生成式AI革命的序幕。 这意味着,其面世约一周年了。 这一年,ChatGPT怎么过得如此跌宕起伏?微软收权,OpenAI将何去...
-
AI生成视频入局新卷王,上线不到48小时,网友“大片”刷屏X
AI视频生成工具卷起来了! 本周二,Stability AI低调发布了首个开源AI视频模型Stable Video Diffusion(以下简称SVD),同时还晒出测试数据称,SVD的模型性能碾压RunwayML、Pika Labs等领先的闭源商业模型。...
-
Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型
内容来源:@xiaohuggg Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型 该模型是由Hugging Face团队开发,它在Whisper核心功能的基础上进行了优化和简化,体积缩小了50%。速度提高了6倍。并...
-
教你如何使用PyTorch解决多分类问题
本文分享自华为云社区《使用PyTorch解决多分类问题:构建、训练和评估深度学习模型》,作者: 小馒头学Python。 引言 当处理多分类问题时,PyTorch是一种非常有用的深度学习框架。在这篇博客中,我们将讨论如何使用PyTorch来解决多分类...
-
UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法
LLM,如 ChatGPT,可以轻松地产生各种流利的文本,但是它们的准确性有多高呢?语言模型容易产生事实错误和幻觉,这让读者在决定是否相信一个信息来源时知道是否使用了这些工具来做新闻文章或其他信息文本的幽灵写作。这些模型的发展也引发了对文本的真实性和原创性...
-
大语言模型之七- Llama-2单GPU微调SFT
(T4 16G)模型预训练colab脚本在github主页面。详见Finetuning_LLama_2_0_on_Colab_with_1_GPU.ipynb 在上一篇博客提到两种改进预训练模型性能的方法Retrieval-Augmented Gener...
-
DiagrammerGPT:GPT-4主导的颠覆性双层文生图表模型
近期,北卡罗来纳大学提出了一项重大技术突破,通过将GPT-4充当“规划师”和“审计师”,构建了DiagrammerGPT框架,实现了文本描述生成科学图表的布局规划。该框架利用GPT-4的强大自然语言处理能力指导图表布局生成,创新性地设计了闭环反馈机制,通过...
-
GPT-4充当“规划师、审计师”,颠覆性双层文生图表模型
DALL-E3、Midjourney、Stable Diffusion等模型展现出了强大的创造能力,通过文本便能生成素描、朋克、3D、二次元等多种类型的高质量图片,但在生成科学图表(柱状、直方、箱线、树状等)方面却略显不足。 这是因为模型在生成图表时会遗漏...
-
效果超越SDXL!港中大博士生推出超真实人像合成工具,训练用了3.4亿张图
为了让AI画出的人更加逼真,港中大博士生用了3.4亿张图像专门训练画人。 人物的表情、姿态,环境的空间关系、光线都能合理布局,可谓立体感十足。 就连爆火的SDXL也不是它的对手,话不多说,直接上图! 这个模型的名字叫HyperHuman,主打的就是一个...
-
GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?
来自中国人民大学的研究者将 Llama 等因果语言模型所遭遇的 “逆转诅咒” 归咎于 next-token prediction + causal language model 的本质缺陷,并发现 GLM 采用的自回归填空的训练方法对这种 “逆转诅咒”...
-
13B模型全方位碾压GPT-4?这背后有什么猫腻
一个参数量为 13B 的模型竟然打败了顶流 GPT-4?就像下图所展示的,并且为了确保结果的有效性,这项测试还遵循了 OpenAI 的数据去污方法,更关键的是没有发现数据污染的证据。 如果你细细查看图中的模型,发现只要带有「rephraser」这个单词...
-
微软开发定制AI芯片“由软变硬”,到底打的什么算盘?
传闻是真的,微软正在开发定制AI芯片,它可以用来训练大语言模型,让微软获得更多独立,避免过度依赖英伟达。不只如此,微软还在开发Arm CPU,主要供云计算网络使用。两款芯片瞄准的都是Azure数据中心,微软企业客户可以用它们来搭建AI平台。 最新消息显...
-
浅析半监督学习及其应用场景
Labs 导读 随着互联网的发展,企业可以获得越来越多的数据,这些数据可以用于帮助企业更好的了解用户,即客户画像,也可以用来改善用户的体验。但这些数据中可能存在大量没有标记的数据。如果所有数据均采用人工标记的方式则存在两方面的缺点,一是花费的时间成本较...
-
Ghostbuster:一个准确度高的AI生成文本检测工具
大语言模型如ChatGPT,以其卓越的写作能力引发了问题。学生们纷纷利用这些模型代写作业,导致一些学校不得不采取禁止ChatGPT的措施。此外,这些模型还存在生成带有事实错误的文本的倾向,因此谨慎的读者可能想知道,在信任某些新闻文章或其他来源之前,是否有生...
-
最强大模型训练芯片H200发布!141G大内存,AI推理最高提升90%,还兼容H100
英伟达老黄,带着新一代GPU芯片H200再次炸场。 官网毫不客气就直说了,“世界最强GPU,专为AI和超算打造”。 图片 听说所有AI公司都抱怨内存不够? 这回直接141GB大内存,与H100的80GB相比直接提升76%。 作为首款搭载HBM3e内存的G...
-
从GPT-4、文心一言再到Copilot,AIGC卷出新赛道?
业内人都知道,上一周是戏剧性的,每一天,都是颠覆各个行业,不断 AI 化的新闻。 OpenAI发布GPT-4、百度发布文心一言、微软发布Microsoft 365 Copilot 三重buff叠加,打工人的命运可以说是跌宕起伏,命途多舛了。今...
-
AIGC实战——卷积神经网络(Convolutional Neural Network, CNN)
AIGC实战——卷积神经网络 0. 前言 1. 卷积神经网络 1.1 卷积层 1.2 叠加卷积层 1.3 检查模型 2. 批归一化 2.1 协变量漂移 2.2 使用批归一化进行训练 2.3 使用批归一化进行预测 3. Dropout 4...
-
文本生成高精准3D模型,北京智源AI研究院等出品—3D-GPT
北京智源AI研究院、牛津大学、澳大利亚国立大学联合发布了一项研究—3D-GPT,通过文本问答方式就能创建高精准3D模型。 据悉,3D-GPT使用了大语言模型的多任务推理能力,通过任务调度代理、概念化代理和建模代理三大模块,简化了3D建模的开发流程实现技术民...
-
大模型走捷径「刷榜」?数据污染问题值得重视
生成式 AI 元年,大家的工作节奏快了一大截。 特别是,今年大家都在努力卷大模型:最近国内外科技巨头、创业公司都在轮番推出大模型,发布会一开,个个都是重大突破,每一家都是刷新了重要 Benchmark 榜单,要么排第一,要么第一梯队。 在兴奋于技术进展速...
-
谨防大模型基准评估陷阱!测试集乱入预训练,模型变傻
最新研究警告,大型模型在基准评估中可能面临潜在危害,原因是测试集中的数据可能意外进入预训练过程。这项研究由中国人民大学信息学院、高瓴人工智能学院和伊利诺伊大学厄巴纳-香槟分校的学者联合进行。 研究发现,由于预训练语料包含大量公开文本,而评估基准建立在这些信...
-
Flink CDC + Hudi 海量数据入湖在顺丰的实践
本文整理自顺丰大数据研发工程师覃立辉在 5月 21 日 Flink CDC Meetup 的演讲。主要内容包括: 顺丰数据集成背景 Flink CDC 实践问题与优化 未来规划 点击查看直播回放 & 演讲PDF...
-
docker搭建酷瓜云课堂系统环境指南
为酷瓜云课堂(腾讯云版) course-tencent-cloud 提供环境支持 安装 docker 和 docker-compose 安装 docker, 官方文档: install-docker 下载 docker sudo curl -sSL...
-
基于SLS构建RDS审计合规监控
云产品采集渠道 单账号同地域采集场景(只能将RDS审计日志采集到同地域的日志库中) • SLS控制台首页“接入数据”区域,选择“RDS 审计”。下文以采集张家口实例为例说明。 • 因为采集的实例位于张家口,所以需要在张家口新建或者...
-
LabVIEW控制Arduino采集多路模拟量、数字量(进阶篇—1)
目录 1、项目概述 2、项目架构 3、硬件环境 4、Arduino功能设计 5、LabVIEW功能设计 5.1、前面板设计 5.2、程序框图设计 1、项目概述 数据采集,是指从传感器和其他待测设备的模拟和数字被测单元中自动采集信息的过程...
-
LabVIEW控制Arduino采集DHT11温湿度数值(进阶篇—4)
目录 1、项目概述 2、项目架构 3、硬件环境 4、Arduino功能设计 5、LabVIEW功能设计 5.1、前面板设计 5.2、程序框图设计 1、项目概述 在多数情况下,测量温度的同时需要测量湿度,本篇博文将介绍使用DHT11温湿度...
-
马斯克版ChatGPT爆火来袭!不用Python,11人爆肝两个月
马斯克突然出手截胡,抢在OpenAI开发者大会前发布大模型Grok。 与其他ChatGPT类产品不同,Grok可以实时从?推文中获取最新知识,比如马斯克刚刚与Joe Rogan的最新访谈。 图片 巨量、实时且独特的?数据构成了Grok的最大护城河,早在7...
-
什么是机器学习中的正则化?
1. 引言 在机器学习领域中,相关模型可能会在训练过程中变得过拟合和欠拟合。为了防止这种情况的发生,我们在机器学习中使用正则化操作来适当地让模型拟合在我们的测试集上。一般来说,正则化操作通过降低过拟合和欠拟合的可能性来帮助大家获得最佳模型。 在本文...
-
字节“开盒”OpenAI所有大模型,揭秘GPT-3到GPT-4进化路径!把李沐都炸出来了
GPT-3究竟是如何进化到GPT-4的? 字节给OpenAI所有大模型来了个“开盒”操作。 结果还真摸清了GPT-4进化路上一些关键技术的具体作用和影响。 比如: SFT是早期GPT进化的推动者 帮助GPT提升编码能力的最大功臣是SFT和RLHF 在...
-
Gen-2颠覆AI生成视频!一句话秒出4K高清大片,网友:彻底改变游戏规则
这,绝对称得上是生成式AI进程中的里程碑。 就在深夜,Runway家标志性的AI视频生成工具Gen-2,迎来了“iPhone时刻”般的史诗级更新—— 依旧是简单一句话输入,不过这一次,视频效果一口气拉到了4K超逼真的高度! 话不多说,我们直接来看炸裂的效...
-
代码能力超越GPT-4,这个模型登顶Big Code排行榜,YC创始人点赞
一款号称代码能力超越GPT-4的模型,引发了不少网友的关注。 准确率比GPT-4高出超过10%,速度却接近GPT-3.5,而且窗口长度也更长。 据开发者描述,他们的模型取得了74.7%的Pass@1通过率,超过了原始GPT-4的67%,登上了Big C...
-
AI玩推理桌游一眼识破骗局!清华通院联合推出心智理论新框架,六个指标评估表现均明显优于思维链
清华自动化系团队联合北京通用人工智能研究院,让几个AI智能体玩起了桌游! 游戏名叫阿瓦隆,是一个策略性的社交推理游戏,玩家被隐秘地分为“正义”与“邪恶”两派,通过任务投票、互相猜测与欺骗来完成或阻止任务,最终确定胜负。 为了能让AI智能体成功识别并应...