-
Anthropic工程师分享沉浸式体验,和「AI搭子」Claude共度完美一天
【新智元导读】沉浸式体验Anthropic提示词工程师与「完美拍档」Claude共度的一天! AI聊天机器人只能用来写文案和找资料? 那说明你对AI工具的开发还不到1%! 昨天,Anthropic工程师Alex Albert,在X上分享了他如何与「AI搭子...
-
腾讯混元文生图大模型开源训练代码,发布LoRA与ControlNet插件
6月21日,腾讯混元文生图大模型(以下简称为混元 DiT 模型)宣布全面开源训练代码,同时对外开源混元 DiT LoRA 小规模数据集训练方案与可控制插件 ControlNet。 这意味着,全球的企业与个人开发者、创作者们,都可以基于混元 DiT 训练代...
-
【AIGC调研系列】XTuner、Unsloth方案对比
XTuner和Unsloth都是用于大型语言模型(LLM)训练和微调的工具,但它们在设计理念、技术实现和性能表现上存在一些差异。 技术架构与支持的模型规模: XTuner支持千亿级参数的模型,并能够处理超过百万个tokens的序列。它通过序列...
-
字节携港大南大升级 LLaVA-NeXT:借 LLaMA-3 和 Qwen-1.5 脱胎换骨,轻松追平 GPT-4V
文 | 王启隆 出品 | 《新程序员》编辑部 2023 年,威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学的研究人员共同开发的 LLaVA 首次亮相,彼时它被视为一个端到端训练的大型多模态模型,展现了在视觉与语言融合领域的潜力。今年...
-
一次性讲明白,如何搞定一个可以支持多芯混合训练的 AI 集群
由于外部环境的变化,适用于大模型训练任务的 GPU 整体规模无法继续增长。这些存量 GPU 组成的集群,仍然是当前加速大模型训练的主要 AI 算力来源。同时,各类国产 AI 芯片开始大规模投入实际生产任务。在未来一段时间内,数据中心的 AI 算力将保持多...
-
10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观
想了解更多AIGC的内容: https://www.51cto.com/aigc/ “只需”10万美元,训练Llama-2级别的大模型。 尺寸更小但性能不减的MoE模型来了: 它叫JetMoE,来自MIT、普林斯顿等研究机构。 性能妥妥超过同等规模的Ll...
-
别等OpenAI了,全球首个类Sora抢先开源!所有训练细节/模型权重全公开,成本仅1万美元
不久前OpenAI Sora以其惊人的视频生成效果迅速走红,在一众文生视频模型中突出重围,成为全球瞩目的焦点。 继2周前推出成本直降46%的Sora训练推理复现流程后,Colossal-AI团队全面开源全球首个类Sora架构视频生成模型「Open-Sor...
-
Sora还没开源,但这家国产AIGC视频公司已经靠还原现实赚钱了
最近AIGC的落地,又有了一些热议和争论。 在金沙江创投主管合伙人朱啸虎的爆款采访中,他表达了对自研大模型商业闭环的悲观,但又坚定地表示非常看好应用,“我信仰AGI,但我信仰应用啊,信仰能马上商业化的。” 在他的犀利表达中,一家应用公司意外走红。 它就是A...
-
大模型也有“漂移(Drift)”现象?应引起AI应用开发者警惕
熟悉数据中心机器学习项目开发的读者应该知道,数据漂移和概念漂移是导致机器学习模型效果衰退的一个常见原因。漂移产生的关键原因是因为模型会随着时间而衰退,因此为了对抗这样的问题就必须要定期优化训练方案及定期重训模型。 那么大模型会不会有“漂移”现象呢,答案是...
-
Nomic AI 发布首个完全开源的长文本嵌入模型,超越 OpenAI Ada-002在各项基准测试中的表现
在自然语言处理(NLP)领域不断发展的背景下,理解和处理广泛的文本内容至关重要。最近的一些进展显著提升了语言模型的能力,特别是通过文本嵌入的发展。这些嵌入成为许多应用的基础,包括大型语言模型(LLMs 的检索增强生成和语义搜索。它们将句子或文档转换为低维向...
-
万元预算打造高质量13B私有模型,Colossal-AI LLaMA-2 开源方案再升级
几个月前,Colossal-AI 团队仅利用8.5B token数据、15小时、数千元的训练成本,成功构建了性能卓越的中文LLaMA-2 7B 版本模型,在多个评测榜单性能优越。 在原有训练方案的基础上,Colossal-AI 团队再次迭代,并通过构建更...
-
苹果展示 AI 新模型 MGIE,可一句话精修图片
2 月 8 日消息,相比较微软的风生水起,苹果公司在 AI 领域的布局显得低调很多,但这并不意味着苹果在该领域就没有丝毫建树。苹果公司近日发布了名为“MGIE”的新型开源人工智能模型,它可以根据自然语言指令编辑图像。 图源:VentureBeat 与...
-
Stable Diffusion XL总结
Stable Diffusion XL是一个二阶段的级联扩散模型,包括Base模型和Refiner模型。其中Base模型的主要工作和Stable Diffusion一致,具备文生图,图生图,图像inpainting等能力。在Base模型之后,级联了Refi...
-
最近读的AIGC相关论文思路解读
AIGC之SD可控生成论文阅读记录 提示:本博客是作者本人最近对AIGC领域相关论文调研后,临时记录所用,所有观点都是来自作者本人局限理解,以及个人思考,不代表对。如果你也正好看过相关文章,发现作者的想法和思路有问题,欢迎评论区留言指正! 既然是论...
-
Textual Inversion: 一种精调Stable Diffusion模型的方法
引言 最近的文本到图像Stable Diffusion (SD)模型已经证明了使用文本提示合成新颖场景的前所未有的能力。这些文本到图像的模型提供了通过自然语言指导创作的自由。然而,它们的使用受到用户描述特定或独特场景、艺术创作或新物理产品的能力的限制。...
-
基础模型+机器人:现在已经走到哪一步了
机器人是一种拥有无尽可能性的技术,尤其是当搭配了智能技术时。近段时间创造了许多变革性应用的大模型有望成为机器人的智慧大脑,帮助机器人感知和理解这个世界并制定决策和进行规划。近日,CMU 的 Yonatan Bisk 和 Google DeepMind...
-
一篇综述,看穿基础模型+机器人的发展路径
机器人是一种拥有无尽可能性的技术,尤其是当搭配了智能技术时。近段时间创造了许多变革性应用的大模型有望成为机器人的智慧大脑,帮助机器人感知和理解这个世界并制定决策和进行规划。 近日,CMU 的 Yonatan Bisk 和 Google DeepMind...
-
逆天!真实可控、可拓展,自动驾驶仿真平台LightSim上新
最近,来自 Waabi AI、多伦多大学、滑铁卢大学和麻省理工的研究者们在 NeurIPS 2023 上提出了一种全新的自动驾驶光照仿真平台 LightSim。研究者们提出了从真实数据中生成配对的光照训练数据的方法,解决了数据缺失和模型迁移损失的问题。L...
-
真实、可控、可拓展,自动驾驶光照仿真平台LightSim上新了
最近,来自 Waabi AI、多伦多大学、滑铁卢大学和麻省理工的研究者们在 NeurIPS 2023 上提出了一种全新的自动驾驶光照仿真平台 LightSim。研究者们提出了从真实数据中生成配对的光照训练数据的方法,解决了数据缺失和模型迁移损失的问题。L...
-
DMP技术开源,可提升AI图像预测精度
Diffusion Models as Prior (DMP)是一种新的方法,它在AI生成的图像中提高了语义预测的准确性。该创新性方法巧妙地将预先训练的文本到图像模型应用于各种任务,例如3D属性估计和语义分割,在有限的训练数据下表现优于现有技术。 项目地...
-
SDXL-Stable Diffusion改进版
文章目录 1. 摘要 2. 算法: 2.1 结构: 2.2 微小的条件机制 2.3 多宽高比训练 2.4 改进自编码器 2.5 所有组合放到一起 2.6 主流方案比较 3. 未来工作 4. 限制 论文: 《SDXL: Improv...
-
智谱AI推出第三代基座大模型 上线新一代「智谱清言」
智谱AI宣布于2023中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3及相关系列产品。 据介绍,今年以来,这是智谱AI第三次对ChatGLM基座模型进行了深度优化,拥有了更强大的功能。智谱AI采用了独创的多阶段增强预训练方法,...
-
OpenAI增强ChatGPT“绘画”能力
OpenAI宣布在ChatGPT中引入一项新功能,可以根据用户对话创建独特的图像。该功能可供ChatGPT的Plus和Enterprise用户使用,便于基于用户描述进行视觉渲染,并支持直接在聊天中进行迭代细化。底层技术由OpenAI的高级图像模型DALL...