-
源码解析LLaMA-Factory/src/llmtuner/data/template.py + Qwen模板
@dataclass class Template: format_user: "Formatter" format_assistant: "Formatter" format_system: "Formatter" for...
-
16年老程序员当场“退休”,OpenAI o1这么强吗?
谁能想到,o1刚出来工作,就被吐槽“懒惰”。 9月13日,OpenAI创始成员、AI大牛Andrej Karpathy发文吐槽OpenAI刚发布的最新模型:“o1-mini一直拒绝为我解决黎曼猜想,模型懒惰还是主要问题,很悲伤。” 9月13日凌晨,Op...
-
探索和构建 LLaMA 3 架构:深入探究组件、编码和推理技术
Meta 正在加大在人工智能 (AI 竞赛中的力度,推出了新的开源 AI 模型 Llama 3 以及新版 Meta AI。这款虚拟助手由 Llama 3 提供支持,现已在所有 Meta 平台上可用。 以下是您需要了解的有关 Meta 最新大型语言模...
-
无需训练的 Diffusion MoE 方案 (SegMoE): Segmind Mixture of Diffusion Experts
Paper name SegMoE: Segmind Mixture of Diffusion Experts Paper Reading Note Blog URL: https://blog.segmind.com/introducing-seg...
-
【AIGC半月报】AIGC大模型启元:2024.08(下)
【AIGC半月报】AIGC大模型启元:2024.08(下)) (1 Nemotron-4-Minitron(Nvidia LLM) (2 VITA(腾讯优图多模态大模型) (3 mPLUG-Owl3(阿里巴巴多模态大模型) (4 ADA...
-
LLaMa系列模型详解(原理介绍、代码解读):LLaMa_llama模型
LLaMA详解 LLaMA(Large Language Model Meta AI)是由Meta(前身为Facebook)开发的一种大规模语言模型,旨在提高自然语言处理(NLP)任务的性能。LLaMA基于变换器(Transformer)架构,并经过大...
-
本地部署Llama 3.1大模型
Meta推出的Llama 3.1系列包括80亿、700亿、4050亿参数版本,上下文长度扩展至12.8万tokens,并增加了对八种语言的支持。 部署模型需要用到Ollama的一个工具,访问官方网站https://ollama.com 点击下载...
-
Unsloth微调环境搭建与LLaMA 3.1-8B模型微调实践指南
本文将详细介绍如何使用Unsloth框架进行LLaMA 3.1-8B模型的微调,帮助您快速构建微调环境,并了解微调流程的基本步骤。本教程适合初学者,旨在帮助您在短时间内实现自己的专属模型微调。对于更复杂的微调参数和细节设置,将在后续文章中进一步阐述。 文...
-
Stable Diffusion Discord Bot 项目教程
Stable Diffusion Discord Bot 项目教程 stable-diffusion-discord-botA Discord bot, written in Go, that interfaces with the Automatic...
-
llama.cpp本地部署大模型
llama.cpp 是一个C++库,用于简化LLM推理的设置,它使得在本地机器上运行大模型(GGUF格式)成为可能。 官网:https://github.com/ggerganov/llama.cpp 模型库: https://huggingface...
-
如何部署Meta开源大模型Llama2,转换为Huggingface模型的权重文件
如何部署Meta开源大模型Llama2 一、申请下载权限 通过Meta AI官网(https://llama.meta.com/llama-downloads/ 申请下载权限,注意Country/Region选择这里,可能会影响审查速度吧,...
-
Datawhale X 魔搭 AI夏令营 第四期魔搭-AIGC文生图方向Task1笔记及心得
从零入门AI生图原理&实践是Datawhale 2024年AI夏令营第四期“AIGC”方向的学习活动,基于魔搭社区“可图Kolors-LoRA风格故事挑战赛”开展的实践学习。 主要是通过对模型的微调,以及对prompt的调整,可以根据要求生成不同...
-
AI毕业论文系统:引爆开学季!(开源+无限SaaS多开)
随着9月份开学时间的到来,又有一大批的应届毕业生即将踏上学术征程,着手规划他们的毕业论文之旅。这一时期,不仅标志着学术探索的新篇章,也预示着论文服务市场即将迎来一个活力四溢的旺季。 那么,如何精准把握这一市场机遇,成为风口上的弄潮儿,分享其带来的红利呢?...
-
如何使用Midjourney-Proxy:一份详尽的指南
如何使用Midjourney-Proxy:一份详尽的指南 midjourney-proxy代理 MidJourney 的discord频道,实现api形式调用AI绘图项目地址:https://gitcode.com/gh_mirrors/mi/midj...
-
200美元的ChatGPT Pro正式上线,聪明N倍的新模型草莓要来了。
半夜10点,The Information发了个新闻,透露了OpenAI的新模型,草莓,要来了。 两个小时后,我的好朋友@solitude(美东时间),作为一个常年拥有第一手资料和信息的人,跟我说,ChatGPT Pro会员上线了,售价200刀/月,他已...
-
python 使用文心一言大模型API
0 背景 生成式人工智能AIGC(Artificial Intelligence Generated Content)是人工智能1.0时代进入2.0时代的重要标志。 AIGC对于人类社会、人工智能的意义是里程碑式的。短期来看AIGC改变了基础的生产力工...
-
关于大模型和AIGC的36条笔记和真话
行业到底有多卷? 最新统计,中国已有130多个大模型问世,在网信办备案的算法模型也超过70多家。BAT等互联网巨头悉数下场发布AI大模型,仅2023年就有超60家创业公司拿到融资,产品更是布满了基础层、模型层和应用层。新一代生成式AI,可能要回头看看上一...
-
【大模型】llama系列模型基础
前言:llama基于transformer架构,与GPT相似,只用了transformer的解码器部分。本文主要是关于llama,llama2和llama3的结构解读。 目录 1. llama 1.1 整体结构 1.2 RoPE 1...
-
【国产异构加速卡】基于llama.cpp实现Llama3模型的guff格式转换、4bit量化以及推理加速
重要说明:本文从网上资料整理而来,仅记录博主学习相关知识点的过程,侵删。 序言 本文使用llama.cpp框架,对 Llama3-8B-Instruct 模型进行gguf格式转换,8bit量化,并在CPU和GPU上对8bit模型进行推理。 测试平台...
-
现在的大模型榜单,真就没一个可信的。
现在的大模型榜单上,真的都是水分。 全是作弊的考生,真的。 上周,AI圈有个很炸裂的大模型发布,在全网引起了山呼海啸,一众从业者和媒体尊称它为开源新王。 就是Reflection70B。 在每项基准测试上都超过了 GPT-4o,还只用70B的参数,就击败...
-
记一次:Datawhale AI夏令营-第四期-魔搭-AIGC-Task02
前言:上一篇我们按步骤跑了一遍Baseline也生成了8张故事图片,但是原理啥的都是一头雾水,因为是初学者,所以只能一点点的分析来理解消化。这篇咱们就深入的来了解一下相关的内容。根据内容自己总结理解和查询相关的一些资料。不正确的地方提出来我修改一下。 学...
-
GPT-4o不会数r,被外国小哥原地逼疯! 谷歌论文揭秘Transformer「数不到n」
提示工程师Riley Goodside小哥,依然在用「Strawberry里有几个r」折磨大模型们,GPT-4o在无限次PUA后,已经被原地逼疯!相比之下,Claude坚决拒绝PUA,是个大聪明。而谷歌最近的论文也揭示了本质原因:LLM没有足够空间,来存储...
-
老黄预言成真!Roblox官宣AI秒生3D物体模型,引爆10亿玩家游戏新世界
【新智元导读】老黄预言AI生成游戏的未来,很快就要实现了!在一年一度Roblox开发者大会上,CEO官宣了3D基础模型,仅用文本提示便可生成3D物体。未来目标,便要瞄准10亿玩家,AI视频游戏大爆发时代不远了。 老黄曾预言,未来5-8年,每个像素都将是生成...
-
AI被连续否定30次:ChatGPT越改越错,Claude坚持自我,甚至已读不回
一直否定AI的回答会怎么样?GPT-4o和Claude有截然不同的表现,引起热议。 GPT-4o质疑自己、怀疑自己,有“错”就改;Claude死犟,真错了也不改,最后直接已读不回。 事情还要从网友整了个活儿开始讲起。 他让模型回答strawberry中有几...
-
基于云原生向量数据库 PieCloudVector 的 RAG 实践
近年来,人工智能生成内容(AIGC)已然成为最热门的话题之一。工业界出现了各种内容生成工具,能够跨多种模态产生多样化的内容。这些主流的模型能够取得卓越表现,归功于创新的算法、模型规模的大幅扩展,以及海量的高质量数据集。然而 AIGC 依然面临一系列挑战,检...
-
Datawhale X 魔搭 AI夏令营第四期 魔搭-AIGC方向 task01笔记
赛题内容 参赛者需在可图Kolors 模型的基础上训练LoRA 模型,生成无限风格,如水墨画风格、水彩风格、赛博朋克风格、日漫风格...... 基于LoRA模型生成 8 张图片组成连贯故事,故事内容可自定义;基于8图故事,评估LoRA风格的美感度...
-
ACL 2024 | CoCA:自注意力的缺陷与改进
近年来,在大语言模型(LLM)的反复刷屏过程中,作为其内核的 Transformer 始终是绝对的主角。然而,随着业务落地的诉求逐渐强烈,有些原本不被过多关注的特性,也开始成为焦点。例如:在 Transformer 诞生之初,被视为天然具备的长度外推能力,...
-
Datawhale X 魔搭 AI夏令营‣AIGC文生图方向-Task2笔记
目录 一、用AI的prompts进行AI文生图 ‣通义千问 ‣跑baseline ‣结果展示: ‣另,prompts风格补充: 三、精读baseline ‣原始代码详情 ‣分析代码的主题架构 & 分析代码的主题...
-
开源大模型再迎“历史性时刻”,Meta发布Llama 3.1
7月23日晚,Meta正式推出了最新的开源大模型系列Llama 3.1,进一步缩小了开源模型与闭源模型之间的差距。Llama 3.1系列包括8B、70B和405B三个参数规模,其中Llama 3.1-405B参数的模型在多个基准测试中超越了OpenAI的G...
-
从短视频到AIGC,快手字节重开一局
作者 | 辰纹 来源 | 洞见新研社 从短视频到剪辑工具,从电商到外卖,再到如今的AIGC大模型,快手和字节的竞争从来就没有停止过。 通用大模型方面,快手有快意,字节有豆包;AI图片创作快手有可图,字节有星绘;视频生成大模型,快手有可灵,字节用即梦相...
-
lit-llama代码解析
https://github.com/Lightning-AI/lit-llama/blob/main/README.md 下载的时候会报错误,因为网不行,一种方法就是多次尝试,另一种方法是终端连上代理下载 pycharm连接hugging fac...
-
【Datawhale X 魔搭 AI夏令营】第四期 AIGC方向 学习笔记
零基础30分钟速通文生图 一、开通阿里云PAI-DSW试用 1、开通阿里云免费试用 链接:https://free.aliyun.com/?productCode=learn 2、在魔搭社区进行授权 链接:https://www.models...
-
stable diffusion的安装
stable diffusion的安装 一、前言 二、安装python环境 1、已经安装python环境,但非3.10.6版本(可以不看) 三、安装stable diffusion 四、运行 五、启动报错 1、Torch is not abl...
-
Llama 3.1 92页技术报告详细解读
引言 半个月前,Meta发布了他们的开源大模型Llama3.1,在社区中引起广泛关注和讨论。现在几周的时间过去了,热度逐渐退潮,舆论逐渐降温,整个Llama3家族的技术报告也公开出来。报告数据更新到了Llama 3.1,正是理性地来审视一下这款大模型...
-
笔记本本地部署100b以上千亿级别LLM,并在手机端接入
前言 本文将演示如何在笔记本上运行千亿级模型,后端 Koboldcpp 运行在 Ubuntu ,前端界面使用安卓手机通过 Termux 且使用 SillyTavern 进行连接,模型使用 104B 的 Command R Plus 的 Q4KM 量化,...
-
混合专家模型(MoE)入门
模型规模是提升LLM大语言模型性能的关键因素,但也会增加计算成本。Mixture of Experts (MoE 架构通过分布式专家层和动态门控机制,有效降低了计算资源,使模型能够在扩展参数规模的同时保持高效的运行。 Mixtral of Exper...
-
【LLM模型微调】LLMs-微调经验-LLaMA微调指南v7.0
【导读】:本文是LLM模型微调第七篇,分享Meta于20240807的开源三篇文章:Methods for adapting large language models,To fine-tune or not to fine-tune,How to fin...
-
OpenAI GPT-3 Davinci:引领AI写作新纪元
本文还有配套的精品资源,点击获取 简介:OpenAI研发的GPT-3模型,尤其是其Davinci版本,代表了自然语言处理领域的重大突破,具有1750亿参数,提升了AI在理解和生成语言的能力。GPT-3的Davinci版本以顶级性能著称,在多种语...
-
Llama-factory的yaml配置参数--学习记录
最近llama-factory的配置参数有很多不懂的地方,整理了一些但也有可能有错,仅供大家参考。 # 可选参数 # 模型和适配器相关 --adapter_name_or_path # 描述: 适配器的名称或路径。 --adapter_folder...
-
浅谈AIGC的底层技术
人工智能生成内容(Artificial Intelligence Generated Content, 简称AIGC)是近年来AI技术发展的一个重要领域,它利用机器学习和自然语言处理等技术,让计算机能够自主创作文章、音乐、图像等多种类型的内容。本文将深入浅...
-
独家|河马爱学并入豆包,字节打造AI产品全家桶
Tech星球独家获悉,字节跳动大力教育旗下的AI教育App河马爱学,已于近期正式更名为“豆包爱学”,成为豆包旗下首个以豆包命名的App。 Tech星球独家了解到,河马爱学此前由大力教育ZERO团队负责,该团队在国内主要是研究AI教育,今年上半年,由于业务...
-
大模型外挂知识库rag综述
一、LLMs 不足点 在 LLM 已经具备了较强能力的基础上,仍然存在以下问题: 幻觉问题:LLM 文本生成的底层原理是基于概率的 token by token 的形式,因此会不可避免地产生“一本正经的胡说八道”的情况; 时效性问题:LLM 的规模越大...
-
Intel首批通过AISBench大模型性能测试!5代至强可达每秒2493 token
快科技9月5日消息,近日,第五代英特尔至强处理器,以优秀的表现通过了中国电子技术标准化研究院组织的人工智能服务器系统性能测试(AISBench)。 借此,英特尔也成为首批通过AISBench大语言模型(LLM)推理性能测试的企业。 在AISBench 2....
-
Prompt-hunter:一键保存Midjourney细节页面至Notion的高效工具
Prompt-hunter:一键保存Midjourney细节页面至Notion的高效工具 Prompt-hunterSave the Prompt and images from the Midjourney details page to your...
-
RWKV 已部署到 5 亿台 Windows 电脑?真正开源的新一代 AI 架构
2024 年 9 月 ,RWKV 社区成员发现:Office 系统在自动更新后(版本 2407 及以后)已自带 RWKV 运行库。 在 Windows 系统的 C:\Program Files\Microsoft Office\root\vfs\Pro...
-
Datawhale X 魔搭 AI夏令营AIGC方向task2
第一步:安装 安装 Data-Juicer 和 DiffSynth-Studio !pip install simple-aesthetics-predictor !pip install -v -e data-juicer !pip unins...
-
ootdiffusion_pytorch AIGC虚拟衣物试穿算法模型
OOTDiffusion 论文 OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable Virtual Try-on https://arxiv.org/pdf/...
-
使用PyTorch从零构建Llama 3
我们上次发了用PyTorch从零开始编写DeepSeek-V2的文章后,有小伙伴留言说希望介绍一下Llama 3。那么今天他就来了,本文将详细指导如何从零开始构建完整的Llama 3模型架构,并在自定义数据集上执行训练和推理。 [图1]:Llama...
-
大模型之二十七-语音识别Whisper实例浅析
Whisper简介 Whisper是OpenAI于2022年9月开源的一个多语种识别模型,目前支持99种语言,是目前性能最好的开源多语种识别ASR大模型,第一版版使用了68万小时标注好的语料预训练模型,而large-v3的标注数据超过了500万小时,其...
-
AIGC初体验 Datawhale X 魔搭夏令营
跟DataWhale的步骤跑通baseline 环境安装 !pip install simple-aesthetics-predictor !pip install -v -e data-juicer !pip uninstall pytorch...