-
Nomic AI发布开源嵌入模型Nomic Embed,击败OpenAI的Ada-002
Nomic AI最新发布的开源嵌入模型Nomic Embed正式亮相,以卓越的性能超越了OpenAI的Ada-002和text-embedding-3-small模型。这一消息是由THE DECODER的在线记者Matthias Bastian于2024年...
-
华科大发布多模态大模型新基准 覆盖五大任务
近期,华中科技大学等机构发布了一项关于多模态大模型(LMMs)的全面评估新基准,旨在解决多模态大模型性能评估的问题。这项研究涉及了14个主流多模态大模型,包括谷歌Gemini、OpenAI GPT-4V等,覆盖了五大任务、27个数据集。然而,由于多模态大模...
-
匿名论文提出奇招!增强大模型长文本能力居然还能这么做
一提到提高大模型长文本能力,就想到长度外推或者上下文窗口扩展? 不行,这些都太费硬件资源了。 来看一个奇妙新解: 和长度外推等方法使用KV缓存的本质不同,它用模型的参数来存储大量上下文信息。 具体办法就是建一个临时Lora模块,让它仅在长文本生成过程中“...
-
OLMo官网体验入口 开源AI语言模型框架免费下载地址
OLMo是由AI2 研究院发布的开源语言模型和训练框架。该框架提供了完整的训练数据、代码、模型参数以及评估代码等资源,为语言模型技术研究人员提供了全面的支持。OLMo以其真正的开放性脱颖而出,用户可以获取从数据到模型的完整信息,并借助丰富的文档,轻松进行开...
-
AI2发布开放语言模型OLMo 号称多项性能媲美Llama2
AI2最新发布的开放语言模型(OLMo)框架旨在推动大规模语言模型的研究和实验。通过在Hugging Face和GitHub上提供训练代码、模型和评估代码,AI2致力于让学术界和研究人员能够共同研究语言模型的科学,探索新的预训练数据子集对下游性能的影响,以...
-
【扩散模型】万字长文全面理解与应用Stable Diffusion
万字长文全面理解与应用Stable Diffusion 1. Stable Diffusion简介 1.1 基本概念 1.2 主体结构 1.3 训练细节 1.4 模型评测 1.5 模型应用 1.6 模型版本 1.7 其他类型的条件生成模型 1...
-
赶超Gemini Pro,提升推理、OCR能力的LLaVA-1.6太强了
去年 4 月,威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学研究者共同发布了 LLaVA(Large Language and Vision Assistant)。尽管 LLaVA 是用一个小的多模态指令数据集训练的,却在一些样本上展示了与 GPT-4...
-
【网安AIGC专题10.19】论文6(顶会ISSTA 2023):提出新Java漏洞自动修复数据集:数据集 VJBench+大语言模型、APR技术+代码转换方法+LLM和DL-APR模型的挑战与机会
How Effective Are Neural Networks for Fixing Security Vulnerabilities 写在最前面 摘要 贡献 发现 介绍 背景:漏洞修复需求和Java漏洞修复方向 动机 方法 贡献...
-
人工智能教程(七):Scikit-learn 和训练第一个模型
在本系列的 上一篇文章 中,我们用 TensorFlow 构建了第一个神经网络,然后还通过 Keras 接触了第一个数据集。我们还将介绍另一个强大的机器学习 Python 库 scikit-learn。不过在进入正题之前,我要介绍两个轰动性的人工...
-
Depth Anything:释放大规模无标注数据的深度估计
本文经自动驾驶之心公众号授权转载,转载请联系出处。 24年1月论文“Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data“,来自香港大学、字节、浙江实验室和浙江大学。 这项...
-
GPT时代学算法,Pytorch框架实现线性模型
今天我们继续来实现线性回归模型,不过这一次我们不再所有功能都自己实现,而是使用Pytorch框架来完成。 整个代码会发生多大变化呢? 首先是数据生成的部分,这个部分和之前类似: import numpy as np import torch from t...
-
【深度学习】AIGC ,ControlNet 论文,原理,训练,部署,实战,教程(一)
论文:https://arxiv.53yu.com/pdf/2302.05543 代码:https://github.com/lllyasviel/ControlNet 得分几个博客完成这个事情的记录了,此篇是第一篇,摘录了一些论文内容。ControlN...
-
AIGC内容分享(四十):生成式人工智能(AIGC)应用进展浅析
目录 0 引言 1 以ChatGPT为代表的AIGC发展现状 1.1 国外AIGC应用发展现状 1.2 国内AIGC应用发展现状 2 AIGC的技术架构 (1)数据层 (2)算力基础设施层 (3)算法及大模型层 (4)AI...
-
Stable Diffusion完整入门指南,保姆级教程!
SD 保姆教程,从原理功能到案例输出展示,最后简述 ControlNet 的使用技巧。 Stable Diffusion 的基本介绍 首先官方给出的解释是: 这和 MJ 有什么区别?为了更方便理解我们将 Stable Diff...
-
ChatGPT is not all you need,一文看尽SOTA生成式AI模型:6大公司9大类别21个模型全回顾(三)
文章目录 ChatGPT is not all you need,一文看尽SOTA生成式AI模型:6大公司9大类别21个模型全回顾(三) Text-to-Text 模型 ChatGPT LaMDA PEER Meta AI Speech f...
-
在医疗保健中平衡AI的好处与安全和隐私风险
基于风险的方法优先考虑风险最高的领域,并建议提供商在低风险领域投入较少的精力。内部审计和合规计划与企业面临的最关键风险之间的一致性越好,企业的内部审计和合规投资产生的风险回报就越大。 五大风险领域 医疗保健组织面临着五个最高的风险领域,内部审计和合规领...
-
深入浅出完整解析Stable Diffusion(SD)核心基础知识
2022年,Stable Diffusion模型横空出世,其成为AI行业从传统深度学习时代走向AIGC时代的标志性模型之一,并为工业界,投资界,学术界以及竞赛界都注入了新的AI想象空间,让AI再次性感。 Stable Diffusion是计算机视觉领域的...
-
谷歌DeepMind核心大佬被曝离职创业,瞄准AI智能体!曾是Gemini关键负责人
谷歌又被曝出有核心员工离职了! 这次跑路的竟是DeepMind的核心技术大佬,Gemini项目的四位主要开发者之一,Ioannis Antonoglou。 上图左半部分列出了Gemini项目的36位领导者,自去年九月以来,包括Ioannis Anton...
-
伯克利开源高质量大型机器人操控基准,面对复杂自主操控任务不再犯难
随着人工智能和机器人技术的迅速发展,功能操控(Functional Manipulation)在机器人学中的重要性愈加突出。传统的基准测试已无法满足目前机器人对复杂操控任务的需求,呼吁新的操控基准(Functional Manipulation Ben...
-
多模态LLM多到看不过来?先看这26个SOTA模型吧
当前 AI 领域的关注重心正从大型语言模型(LLM)向多模态转移,于是乎,让 LLM 具备多模态能力的多模态大型语言模型(MM-LLM)就成了一个备受关注的研究主题。 近日,腾讯 AI Lab、京都大学和穆罕默德・本・扎耶德人工智能大学的一个研究团队发布...
-
南大周志华团队8年力作!「学件」系统解决机器学习复用难题,「模型融合」涌现科研新范式
HuggingFace是目前最火热的机器学习开源社区,汇集30万个不同的机器学习模型,有超过10万个应用可供用户访问和使用。 如果HuggingFace上这30万个模型,可以自由组合,共同完成新的学习任务,那会是一种什么样的画面? 其实在HuggingF...
-
Stable Diffusion学习
参考 Stable Diffusion原理详解_stable diffusion csdn-CSDN博客 Stable Diffusion是stability.ai开源的图像生成模型,可以说Stable Diffusion的发布将AI图像生成提高到了全新...
-
OpenAI“复制粘贴”背后:剽窃者想要免费获得一切
如今,人们发表的文章或作品被剽窃,而剽窃者免费使用或为此获利的事例屡见不鲜。从互联网到AI,莫不如此。 比如,如今火热的OpenAI,其AI模型就很少为其使用的内容付费,该公司在2023年创造了13亿美元的收入。 OpenAI的狡辩 在《纽约时报》针对...
-
阿里Animate Anyone体验入口 AI生成动画视频怎么使用指南教程方法
Animate Anyone是一款专为角色动画而设计的先进扩散模型。通过驱动信号从静态图像生成角色视频,Animate Anyone引入了一系列创新性的技术,包括ReferenceNet、高效的姿势指导器以及有效的时间建模方法。这些设计保证了生成的视频在外...
-
AIGC的隐私安全问题及隐私保护技术
作者:京东科技 杨博 ChatGPT 才出现两个月,就已经引起了学术界的关注。微软成为ChatGPT母公司OpenAI的合作伙伴,并确认投资百亿美元。同时,微软正计划将 OpenAI 的技术整合到其产品中,包括Bing搜索引擎和其他软件,以增强它们的能力...
-
准确率不足20%,GPT-4V/Gemini竟看不懂漫画!首个图像序列基准测试开源
OpenAI的GPT-4V和谷歌最新的Gemini多模态大语言模型一经推出就得到业界和学界的热切关注: 一系列工作都从多角度展示了这些多模态大语言模型对视频的理解能力。人们似乎相信我们离通用人工智能artificial general intellige...
-
百川智能发布千亿参数大模型,中文能力超越GPT-4!
“追上ChatGPT水平,我觉得今年内可能就能够实现,但对于GPT-4或者GPT-5,我认为可能需要3年左右的时间,应该不会低于两年。”去年4月,百川智能创始人王小川当初曾这样判断自己入局大模型赛道后的进度。就在昨天,千亿参数规模的百川大模型终于来了!...
-
stable-diffusion 安装和使用
安装: 在电脑上安装环境依赖 继续安装 把下面这两个文件复制到stable-diffusion-webui 下面 点击A...
-
copilot和chatGPT的区别分析
Copilot是一个基于人工智能的代码提示工具,由GitHub和人工智能公司合作开发。它可以利用机器学习技术和大量训练数据生成高质量的代码,提高开发者的编码效率。Copilot的工作原理是基于自然语言处理、机器学习和深度神经网络技术,以及大规模实际编码数据...
-
把图像视为外语,快手、北大多模态大模型媲美DALLE-3
当前的大型语言模型如 GPT、LLaMA 等在自然语言处理领域取得了显著进展,能够理解和生成复杂的文本内容。但你是否想过,如果能够将大语言模型这强大的理解和生成能力迁移到多模态数据上,就可以轻松理解海量的图像与视频,并辅助创作图文并茂的内容。近期,来自快...
-
Baichuan 3体验入口 百川智能超千亿参数大语言AI模型在线使用地址
Baichuan 3是一款卓越的语言模型,拥有超过千亿的参数规模。在多个权威通用能力评测中,Baichuan3 展现出色,特别在中文任务上超越了GPT-4。它在自然语言处理、代码生成、医疗任务等领域表现出色,采用了多项创新技术手段提升模型能力,包括动态数据...
-
ChatGPT vs 文心一言(AI助手全面比较)
随着人工智能的不断发展,ChatGPT(OpenAI)和文心一言都代表了当前先进的自然语言处理技术。它们在智能回复、语言准确性和知识库丰富度等方面都有各自的优势。在下面的比较中,我们将从多个角度探讨这两个AI助手,帮助你更好地选择适合你需求的工具。 1...
-
自动驾驶仿真大观!一起聊聊自动驾驶仿真这个行当!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 今天将由我来为大家浮光掠影地介绍一下自动驾驶仿真这个行当。 首先说为什么自动驾驶需要仿真。几年前看非诚勿扰,嘉宾黄澜表示要有2/3的人接受自动驾驶她才会接受,体现了普通群众对于自动驾驶安全性的关注。而...
-
PAI-ChatLearn :灵活易用、大规模 RLHF 高效训练框架(阿里云最新实践)
PAI-ChatLearn 是阿里云机器学习平台 PAI 团队自主研发的,灵活易用、大规模模型 RLHF 高效训练框架,支持大模型进行 SFT(有监督指令微调)、RM(奖励模型)、RLHF(基于人类反馈的强化学习)完整训练流程。PAI-ChatLear...
-
使用Transformer 模型进行时间序列预测的Pytorch代码示例
时间序列预测是一个经久不衰的主题,受自然语言处理领域的成功启发,transformer模型也在时间序列预测有了很大的发展。本文可以作为学习使用Transformer 模型的时间序列预测的一个起点。 数据集 这里我们直接使用kaggle中的 Store...
-
使用核模型高斯过程(KMGPs)进行数据建模
核模型高斯过程(KMGPs 作为一种复杂的工具可以处理各种数据集的复杂性。他通过核函数来扩展高斯过程的传统概念。本文将深入探讨kmgp的理论基础、实际应用以及它们所面临的挑战。 核模型高斯过程是机器学习和统计学中对传统高斯过程的一种扩展。要理解kmgp,...
-
重塑3D生成核心理论:VAST、港大、清华用「零」训练数据生成了3D模型
无需任何训练数据,只需对着模型描述一句话,如「一个做作业的香蕉人」: 或是「一只戴着 VR 眼镜的猫」: 就能生成符合描述的带有高质量纹理贴图的 3D 场景。不仅如此,还能对已有的 3D 模型进行精细化贴图。 这是港大与清华大学联合 3D 生成明星...
-
CMU华人18万打造高能机器人,完爆斯坦福炒虾机器人!全自主操作,1小时学会开12种门
比斯坦福炒虾机器人还厉害的机器人来了! 最近,CMU的研究者只花费2.5万美元,就打造出一个在开放世界中可以自适应移动操作铰接对象的机器人。 论文地址:https://arxiv.org/abs/2401.14403 厉害之处就在于,它是完全自主完成操作...
-
AI生成动画图像视频在线使用地址 Animate Anyone体验入口
Animate Anyone旨在通过驱动信号从静态图像生成角色视频,是一款专为角色动画量身定制的新框架。利用扩散模型的力量,该工具在角色动画方面表现出色。为了保持参考图像中复杂外观特征的一致性,设计了ReferenceNet来通过空间注意力合并详细特征。为...
-
Stable Diffusion XL总结
Stable Diffusion XL是一个二阶段的级联扩散模型,包括Base模型和Refiner模型。其中Base模型的主要工作和Stable Diffusion一致,具备文生图,图生图,图像inpainting等能力。在Base模型之后,级联了Refi...
-
谷歌AI研究提出 SpatialVLM:一种数据合成和预训练机制,以增强视觉语言模型 VLM 空间推理能力
谷歌AI研究团队最近提出了SpatialVLM,这是一种旨在增强视觉语言模型(VLMs)空间推理能力的创新系统。 尽管先进的模型如GPT-4V在人工智能驱动任务中取得了显著进展,但它们在空间推理方面仍存在显著局限。空间推理涉及理解物体在三维空间中的位置以及...
-
谷歌云与Hugging Face签署人工智能基础设施合作协议
谷歌公司(Google LLC)云计算部门今天宣布与Hugging Face公司建立新的合作伙伴关系,后者是一个流行的共享开源人工智能模型平台运营商。 根据协议,谷歌云将成为Hugging Face人工智能训练和推理工作负载的 “首选目的地”。此外,两...
-
AIGC内容分享(五十八):AIGC数据跨境的法律监管和合规路径
目录 一、引言 二、AIGC数据出境主要场景分析 三、数据出境法律监管和合规路径 四、对AIGC数据出境的合规建议 一、引言 在生成式人工智能(Generative AI,下称“AIGC”)技术的发展和应用过程中,相关法律监管问题一直备受...
-
LLM巫师,代码预训练是魔杖!UIUC华人团队揭秘代码数据三大好处
大模型时代的语言模型(LLM)不仅在尺寸上变得更大了,而且训练数据也同时包含了自然语言和形式语言(代码)。 作为人类和计算机之间的媒介,代码可以将高级目标转换为可执行的中间步骤,具有语法标准、逻辑一致、抽象和模块化的特点。 最近,来自伊利诺伊大学香槟分校...
-
AIGC笔记总结(一):扩散模型简介
💙个人主页: GoAI |💚 公众号: GoAI的学习小屋 | 💛交流群: 704932595 |💜个人简介 : 掘金签约作者、百度飞桨PPDE、领航团团长、开源特训营导师、CSDN、阿里云社区人工智能领域博客专家、新星计划计算机视觉方向导师等,专注大数...
-
# ext-to-speech|tts|voice-cloning|AIGC|多模态#【有图文部署】GPT-SoVits:上线一周就获得了4.1k star!效果炸裂的开源跨语言音色克隆模型!
一周前,RVC变声器创始人(GitHub昵称:RVC-Boss)发布了一款新项目,名为GPT-SoVITS。这个项目一上线就受到了互联网大佬和博主的好评推荐,仅仅在不到一周的时间里,就已经在GitHub上积累了4.1k Star。 据说,该项目是RVC-...
-
Llama 2: Open Foundation and Fine-Tuned Chat Models
文章目录 TL;DR Introduction 背景 本文方案 实现方式 预训练 预训练数据 训练细节 训练硬件支持 预训练碳足迹 微调 SFT SFT 训练细节 RLHF 人类偏好数据收集 奖励模型 迭代式微调(RLHF) 拒...
-
电商:如何使用ChatGPT和AIGC提高电商体验
1.背景介绍 1. 背景介绍 随着互联网的普及和人们对在线购物的需求不断增长,电商已经成为了一个非常热门的行业。为了提高电商体验,提高客户满意度,降低客户流失率,企业需要不断创新和优化自己的在线购物体验。在这里,人工智能(AI 和机器学习(M...
-
Apple:使用语言模型的自回归方式进行图像模型预训练
1、背景 在GPT等大模型出现后,语言模型这种Transformer+自回归建模的方式,也就是预测next token的预训练任务,取得了非常大的成功。那么,这种自回归建模方式能不能在视觉模型上取得比较好的效果呢?今天介绍的这篇文章,就是Apple近期发...
-
让知识图谱成为大模型的伴侣
大型语言模型(LLM 能够在短时间内生成非常流畅和连贯的文本,为人工智能的对话、创造性写作和其他广泛的应用开辟了新的可能性,然而,LLM也有着一些关键的局限性。它们的知识仅限于从训练数据中识别出的模式,这意味着缺乏对世界的真正理解。同时,推理能力也是有限...