-
InsCode Stable Diffusion使用教程(非常详细)从零基础入门到精通,看完这一篇就够了_outpainting 模型下载
先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7 深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前! 因此收集整理了一份《2024年最新HarmonyOS鸿蒙...
-
每日AIGC最新进展(11):角色脸妆生成、防止微调Stable Diffusion过拟合的方法、通过 3D Gaussian Splatting 进行特定于说话者的头部说话合成
Diffusion Models专栏文章汇总:入门与实战 Gorgeous: Create Your Desired Character Facial Makeup from Any Ideas https://arxiv.org/abs/2404...
-
Llama网络结构介绍
LLaMA现在已经是开源社区里炙手可热的模型了,但是原文中仅仅介绍了其和标准Transformer的差别,并没有一个全局的模型介绍。因此打算写篇文章,争取让读者不参考任何其他资料把LLaMA的模型搞懂。 结构 如图所示为LLaMA的示意图,由Atte...
-
Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据
【新智元导读】训练数据的数量和质量,对LLM性能的重要性已经是不言自明的事实。然而,Epoch AI近期的一篇论文却给正在疯狂扩展的AI模型们泼了冷水,他们预测,互联网上可用的人类文本数据将在四年后,即2028年耗尽。 数据和算力,是AI大模型最重要的两把...
-
天才程序员周弈帆 | Stable Diffusion 解读(一):回顾早期工作
本文来源公众号“天才程序员周弈帆”,仅用于学术分享,侵权删,干货满满。 原文链接:Stable Diffusion 解读(一):回顾早期工作 在2022年的这波AI绘画浪潮中,Stable Diffusion无疑是最受欢迎的图像生成模型。究其原因,第一...
-
手机流畅运行470亿大模型:上交大发布LLM手机推理框架PowerInfer-2,提速29倍
苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。 然而,目前在移动设备上运行的模型相对较小(苹果的是3B,谷歌的是2B),并且消耗大量内存,这在很大程度上限制了其应用场景。 即使是苹果,目前也需要与OpenAI合作,通过将云端GPT-4...
-
谷歌推创新框架AGREE 可增强大模型生成内容准确性
谷歌研究院推出了一个名为AGREE的创新框架,旨在增强大型语言模型(LLM)生成内容和引用的准确性。这一框架通过检索文档中的相关段落来增强大模型生成回答的事实基础,并提供相应的引用,从而提高回答的准确性,并为用户提供验证信息真实性的途径。 核心技术:...
-
LLaMA详细解读
LLaMA 是目前为止,效果最好的开源 LLM 之一。精读 LLaMA 的论文及代码,可以很好的了解 LLM 的内部原理。本文对 LLaMA 论文进行了介绍,同时附上了关键部分的代码,并对代码做了注释。 摘要 LLaMA是一个系列模型,模型参数量从7B...
-
AIGC学习(SD、LoRA和ControlNet)
目录 Stable Diffusion(稳定扩散模型) 为什么叫扩散模型? 网络结构 VAE(Variational Auto-Encoder) UNet模型 CLIP Text Encoder LoRA(低秩适应矩阵 什么是LoRA?...
-
【AIGC】PULID:对比对齐的ID定制化技术
论文链接:https://arxiv.org/pdf/2404.16022 github:https://github.com/ToTheBeginning/PuLID comfyui节点:GitHub - cubiq/PuLID_ComfyUI: P...
-
每日AIGC最新进展(5):卷积神经网络在空间频率域中的对抗性鲁棒性、预训练多模态模型的情感认知合理性、3D Gaussian Splatting在实际应用中的高效渲染
Diffusion Models专栏文章汇总:入门与实战 Evaluating Adversarial Robustness in the Spatial Frequency Domain http://arxiv.org/abs/2405.063...
-
【AIGC半月报】AIGC大模型启元:2024.05(上)
AIGC大模型启元:2024.05(上) (1 Video Mamba Suite(Mamba视频领域应用) (2 KAN(全新神经网络架构) (3 Meshy 3(文本生成3D模型) (4 MemGPT(LLM记忆管理框架) (5 ...
-
每日AIGC最新进展(6):视觉一致插图序列生成、阿里巴巴电商人物产品互动图生成、Text-to-Vector生成、多视图扩散模型3D重建
Diffusion Models专栏文章汇总:入门与实战 Generating Coherent Sequences of Visual Illustrations for Real-World Manual Tasks http://arxiv....
-
黎曼猜想突破作者首次公开讲解,陶哲轩送上总结
昨天,有关试证黎曼猜想的新研究又一次引爆了数学圈。 MIT 数学教授 Larry Guth 和牛津大学数学研究所教授、2022 菲尔兹奖得主 James Maynard 撰写论文《New large value estimates for Dirichl...
-
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单
随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。 但是,随着模型越来越大,RLHF 通常需要维持多个模型...
-
LLM微调技术LoRA图解
译者 | 朱先忠 审校 | 重楼 简介 当涉及到大型语言模型时,微调可能是人们讨论最多的技术方面的内容之一。大多数人都知道,训练这些模型是非常昂贵的,需要大量的资本投资;所以,看到我们可以通过采用现有的模型并用自己的数据对模型进行微调,从而创建一个具有...
-
Mobile-Agent-v2:让AI学会自动刷手机
Mobile-Agent-v2是一个先进的AI系统,旨在通过自动化操作和视觉感知技术,实现对移动设备的全面控制。这一系统能够模拟真人的各种交互行为,如点击、滑动和输入等,从而自动化地完成一系列复杂的任务。 以下是Mobile-Agent-v2能够实现的一...
-
北京9岁小学生,已经用AI出书了!罗永浩围观:有事找不到我找AI
一个年仅9岁的男孩,利用AI智能体,竟然出版了一本书! 他叫许萌萌,是来自北京市第二实验小学的一名三年级学生。 萌萌与AI智能体共创的书叫做《AI少年——火星生存大挑战》,是一本科普小说,讲述了发生在火星上的“密室逃脱”的故事。 而他所选用的AI,正...
-
腾讯混元、北大发现Scaling law「浪涌现象」,解决学习率调参难题
过去十年间,基于随机梯度下降(SGD)的深度学习模型在许多领域都取得了极大的成功。与此同时各式各样的 SGD 替代品也如雨后春笋般涌现。在这些众多替代品中,Adam 及其变种最受追捧。无论是 SGD,还是 Adam,亦或是其他优化器,最核心的超参数非 L...
-
黎曼猜想显著突破!陶哲轩强推MIT、牛津新论文,37岁菲尔兹奖得主参与
黎曼猜想是数学中一个非常重要的未解决问题,与素数分布的精确性质有关(素数是那些只能被 1 和自身整除的数字,它们在数论中扮演着基础性的角色)。 在当今的数学文献中,已有超过一千条数学命题以黎曼猜想(或其推广形式)的成立为前提。也就是说,黎曼猜想及其推广形...
-
人工智能 | 360自研可控布局AI绘画模型HiCo发布
龙年春意伊始,360人工智能研究院正式发布新的AI绘画模型:可控布局生成模型HiCo。与大家所熟悉的文生图模型相比,HiCo在普通的文本输入之上,提供了更为强大的画面布局控制能力:用户可以根据自己的构思,指定在画面不同的区域生成不同的指定内容,实现A...
-
AIGC论文阅读——[Visual Speech-Aware Perceptual 3D Facial Expression Reconstruction from Videos]
AIGC论文阅读——[Visual Speech-Aware Perceptual 3D Facial Expression Reconstruction from Videos] 论文地址:https://arxiv.org/abs/2207.110...
-
迈向『闭环』| PlanAgent:基于MLLM的自动驾驶闭环规划新SOTA!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 中科院自动化所深度强化学习团队联合理想汽车等提出了一种新的基于多模态大语言模型MLLM的自动驾驶闭环规划框架—PlanAgent。该方法以场景的鸟瞰图和基于图的文本提示为输入,利用多模态大语言模型的多...
-
YoloCS:有效降低特征图空间复杂度
本文经计算机视觉研究院公众号授权转载,转载请联系出处。 论文地址:YOLOCS: Object Detection based on Dense Channel Compression for Feature Spatial Solidificatio...
-
LLM | 偏好学习算法并不学习偏好排序
图片 一、结论写在前面 偏好学习算法(Preference learning algorithms,如RLHF和DPO)常用于引导大型语言模型(LLMs)生成更符合人类偏好的内容,但论文对其内部机制的理解仍有限。论文探讨了传统观点,即偏好学习训练模型通过...
-
Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍
年前,Mamba被顶会ICLR拒稿的消息曾引起轩然大波。 甚至有研究人员表示:如果这种工作都被拒了,那我们这些「小丑」要怎么办? 这次,新一代的Mamba-2卷土重来、再战顶会,顺利拿下了ICML 2024! 仍是前作的两位大佬(换了个顺序),仍是熟...
-
多模态模型学会打扑克:表现超越GPT-4v,全新强化学习框架是关键
只用强化学习来微调,无需人类反馈,就能让多模态大模型学会做决策! 这种方法得到的模型,已经学会了看图玩扑克、算“12点”等任务,表现甚至超越了GPT-4v。 图片 这是来自UC伯克利等高校最新提出的微调方法,研究阵容也是相当豪华: 图灵奖三巨头之一、M...
-
大规模语言模型--LLaMA 家族
LLaMA 模型集合由 Meta AI 于 2023 年 2 月推出, 包括四种尺寸(7B 、13B 、30B 和 65B 。由于 LLaMA 的 开放性和有效性, 自从 LLaMA 一经发布, 就受到了研究界和工业界的广泛关注。LLaMA 模型在开放基准...
-
LeCun新作:分层世界模型,数据驱动的人型机器人控制
有了大模型作为智能上的加持,人型机器人已然成为新的风口。 科幻电影中「安能辨我不是人」的机器人似乎已经越来越近了。 不过,要想像人类一样思考和行动,对于机器人,特别是人型机器人来说,仍是个艰巨的工程问题。 就拿简单的学走路来说,利用强化学习来训练可能会演...
-
ChatGPT真能记住你的话吗?DeepMind与开源大佬揭示LLM记忆之谜
Django框架的创始人之一、著名开发者Simon Willison最近发表了一篇博客文章,核心观点是——虽然很多LLM看起来有记忆,但本质上是无状态函数。 文章地址:https://simonwillison.net/2024/May/29/trai...
-
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?
深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mix...
-
开发arXiv论文引擎机器人程序:基于RAG+LangChain+Chainlit+ChromaDB
译者 | 朱先忠 审校 | 重楼 简介 在本文中,我将演示如何使用检索增强生成(RAG 技术构建语义研究论文引擎。具体地说,我将使用LangChain(https://www.langchain.com/ 作为构建语义引擎的主要框架,以及OpenAI公...
-
每日AIGC最新进展(7):频域引导的超分扩散模型、同时生成自然的说话面孔和语音输出Text-to-Speaking Face、4D全景场景图生成、语义感知的协同语音手势合成
Diffusion Models专栏文章汇总:入门与实战 Frequency-Domain Refinement with Multiscale Diffusion for Super Resolution http://arxiv.org/abs...
-
7B?13B?175B?解读大模型的参数
大模型也是有大有小的,它们的大小靠参数数量来度量。GPT-3就有1750亿个参数,而Grok-1更是不得了,有3140亿个参数。当然,也有像Llama这样身材苗条一点的,参数数量在70亿到700亿之间。 这里说的70B可不是指训练数据的数量,而是指模型中...
-
英伟达新研究:上下文长度虚标严重,32K性能合格的都不多
无情戳穿“长上下文”大模型的虚标现象—— 英伟达新研究发现,包括GPT-4在内的10个大模型,生成达到128k甚至1M上下文长度的都有。 但一番考验下来,在新指标“有效上下文”上缩水严重,能达到32K的都不多。 新基准名为RULER,包含检索、多跳追踪、...
-
Stable Diffusion扩散模型【详解】小白也能看懂!!
文章目录 1、Diffusion的整体过程 2、加噪过程 2.1 加噪的具体细节 2.2 加噪过程的公式推导 3、去噪过程 3.1 图像概率分布 4、损失函数 5、 伪代码过程 此文涉及公式推导,需要参考这篇文章: Stable...
-
ICML2024高分!魔改注意力,让小模型能打两倍大的模型
改进Transformer核心机制注意力,让小模型能打两倍大的模型! ICML 2024高分论文,彩云科技团队构建DCFormer框架,替换Transformer核心组件多头注意力模块(MHA),提出可动态组合的多头注意力(DCMHA)。 DCMHA解除...
-
LLM的「母语」是什么?
大语言模型的「母语」是什么? 我们的第一反应很可能是:英语。 但事实果真如此吗?尤其是对于能够听说读写多种语言的LLM来说。 对此,来自EPFL(洛桑联邦理工学院)的研究人员发表了下面这篇工作来一探究竟: 图片 论文地址:https://arxiv.or...
-
【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
Datawhale干货 作者:张帆,陈安东,Datawhale成员 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-...
-
谷歌DeepMind:GPT-4高阶心智理论彻底击败人类!第6阶推理讽刺暗示全懂了
【新智元导读】刚刚,谷歌DeepMind、JHU、牛津等发布研究,证实GPT-4的心智理论已经完全达到成年人类水平,在更复杂的第6阶推理上,更是大幅超越人类!此前已经证实,GPT-4比人类更能理解语言中的讽刺和暗示。在心智理论上,人类是彻底被LLM甩在后面...
-
Datawhale |【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
本文来源公众号“Datawhale”,仅用于学术分享,侵权删,干货满满。 原文链接:【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3 0. 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月1...
-
筑基砥柱:EcomXL-万相实验室AIGC电商基础模型
✍? 本文作者:顾知、岁星、天扉、佳玏、允行 一、背景 随着生成式技术浪潮的兴起,Stable Diffusion结合Controlnet等控制能力在电商场景得到了广泛的应用,其中制作一张优秀的商品主图(亦或是广告的创意图,以下简称商品...
-
27岁华裔天才少年对打UC伯克利,首发SEAL大模型排行榜!Claude 3 Opus数学封神
前段时间,由27岁的华裔创始人Alexandr Wang领导的Scale AI刚刚因为融资圈了一波关注。 今天,他又在推特上官宣推出全新LLM排行榜——SEAL,对前沿模型开展专业评估。 SEAL排行榜主打三个特色: - 私有数据 Scale AI的专...
-
每天都看模型评分,但你真的了解吗?OpenAI研究员最新博客,一文读懂LLM评估
上周六,OpenAI研究院Jason Wei在个人网站上发表了一篇博客,讨论了他眼中「成功的语言模型评估」应该具备哪些因素,并总结出了阻碍好的评估在NLP社区获得关注的「七宗罪」。 Jason Wei在最近的斯坦福NLP研讨会上展示了这篇文章,Open...
-
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
如今,想训个SOTA的大模型,不仅缺数据和算力,甚至连电都不够用了。 最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。 Grok 3及更高版本,甚至需要10万个H100,按每台H100售价3万美元来算,仅芯片就要花...
-
MIT最新力作:用GPT-3.5解决时间序列异常检测问题
今天给大家介绍一篇MIT上周发表的文章,使用GPT-3.5-turbo解决时间序列异常检测问题,初步验证了LLM在时间序列异常检测中的有效性。整个过程没有进行finetune,直接使用GPT-3.5-turbo进行异常检测,文中的核心是如何将时间序列转换...
-
鹅厂造了个AI翻译公司:专攻网络小说,自动适配语言风格,真人和GPT-4看了都说好
鹅厂搞了个150多人的“翻译公司”,从老板到员工都是AI智能体! 主营业务是翻译网络小说,质量极高,参与评价的读者认为比真人翻译得还要好。 而且相比于雇佣真人,用它来翻译文学作品,成本降低了近80倍。 公司名为TransAgents,每个岗位都配备了3...
-
Shortened LLaMA:针对大语言模型的简单深度剪枝法
? CSDN 叶庭云:https://yetingyun.blog.csdn.net/ 论文标题 & 发表会议:Shortened LLaMA: A Simple Depth Pruning for Large Language Model...
-
【AIGC大模型】跑通wonder3D (windows)
这两天看了AI大神李某舟被封杀,课程被下架的新闻,TU商 认为:现在这种玩概念、徒具高大上外表却无实质内容的东西太多了,已经形成一种趋势和风潮,各行各业各圈层都在做大做强这种势,对了,这种行为的学名叫宣传,俗名叫营销,花名叫忽悠,真名叫骗人。老老实实做事...
-
PVTransformer: 可扩展3D检测的点到体素Transformer
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:PVTransformer: Point-to-Voxel Transformer for Scalable 3D Object Detection 论文链接:https://arxiv.org...