-
大模型时代下的新一代广告系统
• 歧义词的多意图:多意图query下,基于样本生成逻辑,会偏向主意图,弱化甚至丢失次意图,导致召回问题,例如:小米(粮食or手机?),苹果(水果or手机?); • 长尾类目冷启:由于用户点击数据的马太效应,使得大量的长尾类目没有...
-
Midjourney 学习 笔记
一、目前主要产品对比介绍 chatgpt 4.0 文心一言 <aside> 💡 完全不可控的基于大模型产品 基于文本生成,只能通过上下文的文字描述不断调整,娱乐向 </aside> Midjourney <asid...
-
AIGC笔记--基于PEFT库使用LoRA
1--相关讲解 LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS LoRA 在 Stable Diffusion 中的三种应用:原理讲解与代码示例 PEFT-LoRA 2--基本原理...
-
llama.cppllama.cpp 是一个C++库,用于简化LLM推理的设置。它使得在本地机器上运行Qwen成为可能。该库是一个纯C/C++实现,不依赖任何外部库,并且针对x86架构提供了AVX、
llama.cpp llama.cpp - Qwen llama.cpp 是一个C++库,用于简化LLM推理的设置。它使得在本地机器上运行Qwen成为可能。该库是一个纯C/C++实现,不依赖任何外部库,并且针对x86架构提供了AVX、AVX2和AVX5...
-
使用 ORPO 微调 Llama 3
原文地址:https://towardsdatascience.com/fine-tune-llama-3-with-orpo-56cfab2f9ada 更便宜、更快的统一微调技术 2024 年 4 月 19 日 ORPO 是一种新的令人兴奋的微调技...
-
AI、AGI、AIGC与AIGC、NLP、LLM,ChatGPT区分
这些术语和技术都是人工智能(AI)领域的重要组成部分,它们之间有复杂的关系和相互交织的依存。以下是它们之间的关系和各自的定义: AI(人工智能): 定义:AI是指能够执行通常需要人类智能才能完成的任务的系统。这包括感知、推理、学习、决策和自...
-
JuiceFS 在多云架构中加速大模型推理
在大模型的开发与应用中,数据预处理、模型开发、训练和推理构成四个关键环节。本文将重点探讨推理环节。在之前的博客中,社区用户 BentoML 和贝壳的案例提到了使用 JuiceFS 社区版来提高模型加载的效率。本文将结合我们的实际经验,详细介绍企业版在此场景...
-
每日AIGC最新进展(51):昆仑万维震撼发布16B DiT-MoE图像生成模型、东北大学提出使用去噪神经权重进行高效训练、美团提出视频扩散模型量化方法
Diffusion Models专栏文章汇总:入门与实战 Scaling Diffusion Transformers to 16 Billion Parameters 本文介绍了DiT-MoE,一种可扩展的稀疏变分Transformer模型,它在...
-
LLaMA 2语言大模型的微调策略:LoRA与全参数选择
随着自然语言处理(NLP)技术的飞速发展,大型语言模型(LLMs)在各个领域都展现出了强大的能力。LLaMA 2作为其中的佼佼者,具有巨大的潜力。然而,如何有效地对LLaMA 2进行微调,以适应特定的任务或数据集,成为了一个关键问题。本文将对LoRA技术与...
-
【AIGC调研系列】XTuner、Unsloth方案对比
XTuner和Unsloth都是用于大型语言模型(LLM)训练和微调的工具,但它们在设计理念、技术实现和性能表现上存在一些差异。 技术架构与支持的模型规模: XTuner支持千亿级参数的模型,并能够处理超过百万个tokens的序列。它通过序列...
-
「大模型」之所短,「知识图谱」之所长
最近一年以来,大语言模型技术突飞猛进,被广泛地认为开启了人工智能研究的新阶段。大语言模型时代的到来,给知识图谱技术也带来了新的机遇与挑战。我们在 5 月份的时候曾经发布过知识图谱与 AIGC 大模型的知识地图,其中包括了文本生成、图像生成等技术。本次分享...
-
127k引用数的AI大牛创业:为机器人造大脑!OpenAI红杉排队塞钱
谷歌学术被引数超127000的大神宣布创业,获OpenAI等机构在内投资7000万美元! 他就是来自UC伯克利的副教授Sergey Levine,创业前任职于电气工程与计算机科学系,是深度强化学习领域超受欢迎的网红老师。 他在推特上兴奋地表示,此番创业...
-
【社区图书馆】《一本书读懂AIGC:ChatGPT、AI绘画、智能文明与生产力变革》
这是一本关于人工智能生成内容(AIGC)的科普书,由 a15a 团队编写,于 2023 年 4 月出版,由电子工业出版社出版。它以通俗易懂的方式从各个层面介绍了 AIGC 的基础知识,并辅以大量案例引领读者了解 AIGC 的应用实践,让读者可以更快速地利用...
-
谷歌AI视频再出王炸!全能通用视觉编码器VideoPrism,性能刷新30项SOTA
AI视频模型Sora爆火之后,Meta、谷歌等大厂纷纷下场做研究,追赶OpenAI的步伐。 最近,来自谷歌团队的研究人员提出了一种通用视频编码器——VideoPrism。 它能够通过单一冻结模型,处理各种视频理解任务。 图片 论文地址:https://a...
-
什么是预训练Pre-training—— AIGC必备知识点,您get了吗?
Look!👀我们的大模型商业化落地产品 📖更多AI资讯请👉🏾关注 Free三天集训营助教在线为您火热答疑👩🏼🏫 随着人工智能(AI 不断重塑我们的世界,其发展的一个关键方面已经成为现代机器学习模型的支柱:预训练。在本篇文章中,我们将探讨预训练的概...
-
斯坦福和OpenAI提出meta-prompting,最强零样本prompting技术诞生了
最新一代语言模型(尤其是 GPT-4、PaLM 和 LLaMa)已经成功拓展了自然语言处理和生成的边界。这些大规模模型可以解决许多不同任务,从写莎士比亚风格的十四行诗到总结复杂的医疗报告和解决竞赛级的编程问题。尽管这些模型可以解决多种多样的问题,但它们并...
-
PAI-ChatLearn :灵活易用、大规模 RLHF 高效训练框架(阿里云最新实践)
PAI-ChatLearn 是阿里云机器学习平台 PAI 团队自主研发的,灵活易用、大规模模型 RLHF 高效训练框架,支持大模型进行 SFT(有监督指令微调)、RM(奖励模型)、RLHF(基于人类反馈的强化学习)完整训练流程。PAI-ChatLear...
-
LLaMA Pro: Progressive LLaMA with Block Expansion
Q: 这篇论文试图解决什么问题? A: 这篇论文试图解决大型语言模型(LLMs)在特定领域(如编程、数学、生物医学或金融)能力不足的问题。尽管LLMs在多种现实世界任务中表现出色,但在某些特定领域仍然存在局限性,这阻碍了开发通用语言代理以应用于更广泛场景...
-
使用 DPO 微调 Llama 2
简介 基于人类反馈的强化学习 (Reinforcement Learning from Human Feedback,RLHF 事实上已成为 GPT-4 或 Claude 等 LLM 训练的最后一步,它可以确保语言模型的输出符合人类在闲聊或安全...
-
轻量级模型,重量级性能,TinyLlama、LiteLlama小模型火起来了
当大家都在研究大模型(LLM)参数规模达到百亿甚至千亿级别的同时,小巧且兼具高性能的小模型开始受到研究者的关注。 小模型在边缘设备上有着广泛的应用,如智能手机、物联网设备和嵌入式系统,这些边缘设备通常具有有限的计算能力和存储空间,它们无法有效地运行大型语...
-
【AI绘图 丨 Midjourney 系列教程一】— 风靡全球的 Midjourney 到底是什么
一、Midjourney 的原理 由 2022 年 3 月,美国一家工作室首次推出一款 AI 制图工具,它就是 Midjourney。Midjourney 同样使用了类似于 GPT-4 的深度学习技术——“生成对抗网络”(Generative Adver...
-
LLaMa、Qwen、ChatGLM、ChatGLM2的区别
LLaMa、Qwen、ChatGLM、ChatGLM2的区别 以下比较的前提是首先和BERT(transfomer 的对比 感谢帮忙给我github repository的star,更多最新模型长期更新:https://github.com/zysN...
-
使用 PyTorch FSDP 微调 Llama 2 70B
引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelerate 和 TRL 库。我们还将展示如何在 SL...
-
AIGC专题报告:ChatGPT纪要分享
今天分享的AIGC系列深度研究报告:《AIGC专题报告:ChatGPT纪要分享》。 (报告出品方:久谦中台) 报告共计:135页 OpenAI 高管解密 ChatGPT ¶ GPT-3 是一种大型语言模型,被训练用来在给定上下文中预测下...
-
李开复领队开源大模型 Yi,40万字上下文窗口破纪录
由李开复博士亲自下场创办的零一万物(01.ai),自3月底官宣成立后,于近日发布并开源了两个版本的中英文大模型 Yi-6B 和 Yi-34B。 在线上发布环节,李开复博士重点介绍了 Yi 系列大模型的三处性能亮点: 全球最长200K 上下文窗口,免费开...
-
李开复官宣全球最强开源大模型Yi-34B 一次可处理40万汉字
零一万物推出了「Yi」系列开源大模型,其中Yi-34B在全球开源大模型排行榜上取得了显著成就,击败了其他竞品模型,成为双料冠军,尤其在中文指标上表现卓越。Yi-34B的性能超越了全球其他大模型,拥有强大的语言理解和处理能力,可以满足国内市场的需求。 ht...