-
AI视野:谷歌开源小参数大模型Gemma;李一舟AI课程小程序因违规被暂停服务;Sora AI视频生成器模板sorafm开源;字节跳动开发 SDXL-Lightning
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ ???AI应用 谷歌开源Gemma...
-
英伟达NeMo框架在AI领域的综合应用与优势总结
一、NeMo 框架介绍 NVIDIA NeMo 是基于 PyTorch 和 PyTorch Lightning 的一个开源训练框架,源代码完全公开在 GitHub 上。NeMo 的主要目标是使 AI 开发者能够快速构建对话式 AI 模型并开发相关应用。...
-
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
【新智元导读】卷疯了!世界最快的大模型Groq一夜之间爆火,能够每秒输出近500个token。如此神速的响应,背后全凭自研的LPU。 一觉醒来,每秒能输出500个token的Groq模型刷屏全网。 堪称是「世界上速度最快的LLM」! 相比之下,ChatG...
-
Groq大模型推理芯片每秒500tokens超越GPU,喊话三年超过英伟达
Groq公司推出的大模型推理芯片以每秒500tokens的速度引起轰动,超越了传统GPU和谷歌TPU。该芯片由初创公司Groq研发,其团队成员来自谷歌TPU,包括创始人兼CEO Jonathan Ross,曾设计实现第一代TPU芯片的核心元件。 Groq采...
-
AI女友,很黄很暴利
有人租个女友回家过年,也有人在网上为AI女友付费。 AI女友是大模型的产物,她是一个聊天机器人,24小时陪聊,随叫随到,能文字能语音,还能发美照。 她可以是对现实或小说中某个人物的角色扮演,也可以是凭空创造出来的一个女性形象,总之不是真人。但因为接入了大语...
-
RNN模型挑战Transformer霸权!1%成本性能比肩Mistral-7B,支持100+种语言全球最多
在大模型内卷的同时,Transformer的地位也接连受到挑战。 近日,RWKV发布了Eagle 7B模型,基于最新的RWKV-v5架构。 Eagle 7B在多语言基准测试中,击败了所有的同级别模型,在单独的英语测试中,也和表现最好的模型基本打平。 同时...
-
训不动Mixtral,要不试试LLaMA-MoE?
深度学习自然语言处理 原创作者:cola 随着各种各样增强版LLaMA的出现,Mixture-of-Expert(MoE 类模型越来越受大家关注。而LLaMA-MoE正是基于LLaMA系列和SlimPajama的MoE模型。它显著的一个好处...
-
LLMs之Llama2 70B:使用 PyTorch FSDP 微调 Llama 2 70B实现全部过程讲解之详细攻略
LLMs之Llama2 70B:使用 PyTorch FSDP 微调 Llama 2 70B实现全部过程讲解之详细攻略 目录 使用 PyTorch FSDP 微调 Llama 2 70B 引言 FSDP 工作流 使用的硬件 微调 LLa...
-
英伟达官宣AI聊天机器人,本地RTX显卡运行,这是要挑战OpenAI?
OpenAI 进军芯片领域,英伟达自己造聊天机器人,这是 Sam vs Jensen 的时代? 下载地址:https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/ 在这波 AI...
-
【AIGC】Llama2-7B-Chat模型微调
环境 微调框架:LLaMA-Efficient-Tuning 训练机器:4*RTX3090TI (24G显存 python环境:python3.8, 安装requirements.txt依赖包 一、Lora微调 1、准备数据集 2、训...
-
清华系2B模型杀出,性能吊打LLaMA-13B
2 月 1 日,面壁智能与清华大学自然语言处理实验室共同开源了系列端侧语言大模型 MiniCPM,主体语言模型 MiniCPM-2B 仅有 24 亿(2.4B)的非词嵌入参数量。 在综合性榜单上与 Mistral-7B 相近,在中文、数学、代码能力表现更...
-
GPT-4绝对性能暴涨74.4%!UIUC苹果华人团队提出CodeAct,用Python代码统一LLM智能体行动
一直以来,LLM智能体被众多业界AI大佬看好,甚至有望成为将人类从琐碎工作中解放出来的利器。 但是,它们该如何与世界进行最佳互动? 最近,来自UIUC和苹果的华人研究员,提出了一种全新的智能体框架——CodeAct。 它通过采用可执行的Python代码,来...
-
将AI融入CG特效工作流;对谈Dify创始人张路宇;关于Llama 2的一切资源;普林斯顿LLM高阶课程;LLM当前的10大挑战 | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 将AI融入CG特效工作流,体验极致的效率提升 BV1pP411r7HY 这是 B站UP主 @特效小哥studio 和 @拓星研究所 联...
-
用通俗易懂的方式讲解:使用Llama-2、PgVector和LlamaIndex,构建大模型 RAG 全流程
近年来,大型语言模型(LLM)取得了显著的进步,然而大模型缺点之一是幻觉问题,即“一本正经的胡说八道”。其中RAG(Retrieval Augmented Generation,检索增强生成)是解决幻觉比较有效的方法。 本文,我们将深入研究使用trans...
-
OpenAI豪赌7万亿,能买4个英伟达!奥特曼芯片帝国占全球GDP 10%,或引世界经济末日?
昨天,Sam Altman筹资7万亿美元建芯片帝国的新闻一出,舆论哗然。 7万亿美元,是全球GDP的10%,大约是美国GDP的1/4,或者2/5个中国的GDP。 这个数字实在令人难以理解,除非OpenAI确信,自己的技术就从根本上重塑整个世界。否则,人...
-
羊驼2:开放的基础和微调聊天模型--Llama 2论文阅读
论文地址:https://arxiv.org/pdf/2307.09288.pdfd 代码地址:GitHub - facebookresearch/llama-recipes: Examples and recipes for Llama 2 model...
-
详解各种LLM系列|LLaMA 1 模型架构、预训练、部署优化特点总结
作者 | Sunnyyyyy 整理 | NewBeeNLP https://zhuanlan.zhihu.com/p/668698204 后台留言『交流』,加入 NewBee讨论组 LLaMA 是Meta在2...
-
llama/llama2论文解读
llama 摘要 llama在约1.4T的token上,训练出参数量7B到65B的模型,其模型规模如下 在仅使用开源数据集的情况下,llama-13B在多数benchmarks上与GPT-3效果相当;llama-65B也与最好的模型(Chin...
-
本地运行LlaMA 2的简易指南
大家好,像LLaMA 2这样的新开源模型已经变得相当先进,并且可以免费使用。可以在商业上使用它们,也可以根据自己的数据进行微调,以开发专业版本。凭借其易用性,现在可以在自己的设备上本地运行它们。 本文将介绍如何下载所需的文件和LLaMA 2模型,以运行C...
-
无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
背景 大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行为与人类意图和价值观相对齐,是一个紧迫的挑战。 尽管基于人类反馈的强化学习(RLHF)提供了...
-
近屿智能引领行业前沿,精心打造AIGC大模型工程师和产品经理的进阶之路(附完整版学习路径图)
近屿智能,倾力打造了一套独特的AIGC大模型工程师和产品经理学习路径图。该路径图清晰地展示了从初学者到专家水平的技能进阶过程,为工程师和产品经理提供了明确的学习目标和成长路径。 这套学习路径图适用于不同背景和经验的学习者,无论您是初涉AIGC领域的新...
-
通义千问再开源,Qwen1.5带来六种体量模型,性能超越GPT3.5
赶在春节前,通义千问大模型(Qwen)的 1.5 版上线了。今天上午,新版本的消息引发了 AI 社区关注。 新版大模型包括六个型号尺寸:0.5B、1.8B、4B、7B、14B 和 72B,其中最强版本的性能超越了 GPT 3.5、Mistral-Medi...
-
大模型系列——解读RAG
RAG 是2023年最流行的基于 LLM 的应用系统架构。有许多产品几乎完全建立在 RAG 之上,覆盖了结合网络搜索引擎和 LLM 的问答服务,到成千上万个数据聊天的应用程序。很多人将RAG和Agent 作为大模型应用的两种主流架构,但什么是RAG呢?R...
-
Eagle7B: 基于RWKV-v5架构、跨足100多种语言的7.52B参数AI模型
随着人工智能的发展,大型语言模型在各个领域开始受到广泛关注和应用。这些模型在数十亿级别的数据规模上进行训练,涵盖了健康、金融、教育、娱乐等多个领域,从自然语言处理和翻译到其他任务都发挥着重要作用。 最近,研究人员开发了Eagle7B,这是一个具有惊人75...
-
【部署LLaMa到自己的Linux服务器】
部署LLaMa到自己的Linux服务器 一、官方方法(知道就好,具体操作用不上这个) 1、Llama2 项目获取 方法1:有git可以直接克隆到本地 方法2:直接下载 2、LLama2 项目部署 3、申请Llama2许可 4、下载模型权重...
-
开源版GPTs人人免费用!Hugging Face发布定制个人助手,点两下轻松创建
去年,OpenAI发布GPTs之后,短短几个月,全网诞生了300万+个GPT。 而现在,「开源低配版」的GPTs来了! 最近,世界最大的开源社区Hugging Face推出了开源、可定制的AI 助手——Hugging Chat Assistants。 图...
-
图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定
能不能有一种通用的图模型—— 它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐? 或者既能预测不同作者的论文引用,还可以发现基因网络中的人类衰老机制? 你还真别说,被ICLR 2024接收为Spotlight的“One for All(OFA)...
-
匿名论文提出奇招,增强大模型长文本能力居然还能这么做
一提到提高大模型长文本能力,就想到长度外推或者上下文窗口扩展? 不行,这些都太费硬件资源了。 来看一个奇妙新解: 和长度外推等方法使用KV缓存的本质不同,它用模型的参数来存储大量上下文信息。 具体办法就是建一个临时Lora模块,让它仅在长文本生成过程中“流...
-
详解“小而优”的大语言模型Zephyr 7B
Zephyr是Hugging Face发布的一系列大语言模型,使用蒸馏监督微调(dSFT 在更庞大的模型上进行训练,显著提高了任务准确性。 2023年是属于大语言模型(LLM 和开源的一年。许多初创公司和企业开放了模型和权重的源代码,以应对ChatGPT...
-
像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍
现有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相较之下,我们人类通常是从语言反馈中学习并调整自己的行为模式。就像审稿意见不仅仅是一个分数,还包...
-
LLaMA、Baichuan、ChatGLM、Qwen、天工等大模型对比
12.10更新:Qwen技术报告核心解读 Baichuan Baichuan 2: Open Large-scale Language Models 数据处理:数据频率和质量,使用聚类和去重方法,基于LSH和dense embedding方...
-
大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」
大模型的预训练需要耗费巨量的计算资源和数据,因而预训练模型的参数也正成为各大机构重点保护的核心竞争力和资产。然而,不同于传统的软件知识产权保护可以通过比对源代码来确认是否存在代码盗用,对预训练模型参数盗用的判断存在以下两方面的新问题: 1) 预训练模型的...
-
AI视野:文心一言支持生成数字分身;Bard推出图片生成功能;亚马逊开发AI购物助手Rufus;苹果将推生成式AI功能
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ ???AI应用 百度文心一言AP...
-
匿名论文提出奇招!增强大模型长文本能力居然还能这么做
一提到提高大模型长文本能力,就想到长度外推或者上下文窗口扩展? 不行,这些都太费硬件资源了。 来看一个奇妙新解: 和长度外推等方法使用KV缓存的本质不同,它用模型的参数来存储大量上下文信息。 具体办法就是建一个临时Lora模块,让它仅在长文本生成过程中“...
-
AI2发布开放语言模型OLMo 号称多项性能媲美Llama2
AI2最新发布的开放语言模型(OLMo)框架旨在推动大规模语言模型的研究和实验。通过在Hugging Face和GitHub上提供训练代码、模型和评估代码,AI2致力于让学术界和研究人员能够共同研究语言模型的科学,探索新的预训练数据子集对下游性能的影响,以...
-
大模型技术实践(三)|用LangChain和Llama 2打造心灵疗愈机器人
上期文章我们实现了Llama 2-chat-7B模型的云端部署和推理,本期文章我们将用“LangChain+Llama 2”的架构打造一个定制化的心灵疗愈机器人。有相关知识背景的读者可以直接阅读「实战」部分。 01 背景...
-
无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍
无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍 在 AI 赛道中,与动辄上千亿参数的模型相比,最近,小模型开始受到大家的青睐。比如法国 AI 初创公司发布的 Mistral-7B 模型,其在每个基准测试中,都优于 Llama 2...
-
技术融合下的虚拟角色创建与实践
作者 | 崔皓 审校 | 重楼 摘要 文章详细介绍了百川大模型在创建个性化虚拟角色方面的创新技术和应用。这项技术结合了LangChain和Qianfan微调的Llama2-Chinese大模型,提供了高度个性化的角色定制功能。 作者通过实际体验和技术模...
-
Mistral-Medium意外泄露?冲上榜单的这个神秘模型让AI社区讨论爆了
「我现在 100% 确信 Miqu 与 Perplexity Labs 上的 Mistral-Medium 是同一个模型。」 近日,一则关于「Mistral-Medium 模型泄露」的消息引起了大家的关注。 泄露传闻与一个名为「Miqu」的新模型有关,在...
-
轻松上手,本地运行LlaMA 2的简易指南
我们将学习一种无需设置Python或任何程序即可安装和使用LlaMA 2的简单方法。只需下载文件并在PowerShell中运行命令即可。 微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩 图像由DALL·E 3生成 一...
-
【AI】Chinese-LLaMA-Alpaca-2 7B llama.cpp 量化方法选择及推理速度测试 x86_64 RTX 2060 6G 显存太小了
环境 操作系统 CPU 内存 生成量化版本模型 转换出q4_0 q4_k q6_k q8_0模型 cd ~/Downloads/ai/llama.cpp sourvce venv/bin/activate ~/Downloads/...
-
微软开发新型大模型压缩方法SliceGPT
SliceGPT是微软开发的一种新型的大语言模型压缩方法。通过SLICE GPT,可以在保持99%,99%,和90%零样本任务性能的同时,将LLAMA2-70B、OPT66B和Phi-2模型分别去除高达25%的模型参数(包括嵌入)。 这意味着使用SLICE...
-
Llama 2: Open Foundation and Fine-Tuned Chat Models
文章目录 TL;DR Introduction 背景 本文方案 实现方式 预训练 预训练数据 训练细节 训练硬件支持 预训练碳足迹 微调 SFT SFT 训练细节 RLHF 人类偏好数据收集 奖励模型 迭代式微调(RLHF) 拒...
-
【随手记录】Llama Tutorial 大语言模型实践 手把手系列带实践源码
这个tutorial的契机是yy突然看到了一个workshop 所以类似于一周大作业的形式,输入command输出使用了自动驾驶哪些模块,代码在这里 所以就干一干,顺便写一个tutorial给大家参考和教程 引申更多的应用 参考资料: https:...
-
【云上探索实验室】使用 Amazon Bedrock 体验构建Stable Diffusion-文本生成图像生成式 AI 应用
生成式人工智能(AI)正以惊人的速度蓬勃发展,不断推动着科技创新的边界。在前不久的re:Invent 2023大会上,Selipsky为我们重点介绍了全托管式生成式 AI 服务 Amazon Bedrock,并表示Amazon Bedrock 极大地降低了...
-
Stable Diffusion 硬核生存指南:WebUI 中的 VAE
本文使用「署名 4.0 国际 (CC BY 4.0 」许可协议,欢迎转载、或重新修改使用,但需要注明来源。 署名 4.0 国际 (CC BY 4.0 本文作者: 苏洋 创建时间: 2023年07月30日 统计字数: 11485字 阅读时间: 23分钟...
-
LLM之RAG实战(十六)| 使用Llama-2、PgVector和LlamaIndex构建LLM Rag Pipeline
近年来,大型语言模型(LLM)取得了显著的进步,然而大模型缺点之一是幻觉问题,即“一本正经的胡说八道”。其中RAG(Retrieval Augmented Generation,检索增强生成)是解决幻觉比较有效的方法。本文,我们将深入研究使用...
-
甲骨文的 OCI 生成式 AI 服务现已推出
Oracle 宣布了 Oracle Cloud Infrastructure(OCI)Generative AI 服务的普遍可用性,以及使企业更轻松地利用生成 AI 的最新进展的新创新。 OCI Generative AI 服务是一项完全托管的服务,无缝集...
-
Code Llama: Open Foundation Models for Code
本文是LLM系列文章,针对《Code Llama: Open Foundation Models for Code》的翻译。 Code Llama:代码的开放基础模型 摘要 1 引言 2 Code Llama:专业化Llama2用于代码 3...
-
LLaMa 原理+源码——拆解 (KV-Cache, Rotary Positional Embedding, RMS Norm, Grouped Query Attention, SwiGLU)
原理 Vanilla Transformer 与 LLaMa 的区别 Embedding RMS Norm Rotary Positional Encodding SwiGLU Function KV-Cache Grouped Mult...