-
AIGC技术周报|ChatDoctor:哪里不舒服;HuggingGPT:连接大模型和机器学习社区;ChatGPT真的鲁棒吗?
AIGC通过借鉴现有的、人类创造的内容来快速完成内容创作。ChatGPT、Bard等AI聊天机器人以及Dall·E 2、Stable Diffusion等文生图模型都属于AIGC的典型案例。「AIGC技术周报」将为你带来最新的paper、博客等前瞻性研究。...
-
大模型微调踩坑记录 - 基于Alpaca-LLaMa+Lora
前言 为了使用开放权重的LLM(大语言模型 ,基于自己的训练集,微调模型,会涉及到如下一些技术要点: 配置运行环境 下载、加载基础模型 收集语料、微调训练 检验训练效果 在实施过程中,遇到不少困难,因此写下这篇文档,做为记录。 环境配置...
-
斯坦福用几百块钱训练的alpaca,体验一下基于llama的7b和13b模型,据说比gpt3.0还牛,结果怎样??你能信?
好久没写代码了,上头了,强撸了! 1、自己买个GPU服务器(如果不训练,可以随便买个高内存的即可),有些网站很便宜,小时起租! 2、alpaca和模型下载地址:GitHub - antimatter15/alpaca.cpp: Locally run...
-
一切为了应用!九章云极DataCanvas大模型系列成果重磅发布!
11月21日,「筑基赋能 智向未来」九章云极DataCanvas大模型系列成果发布会(以下简称“发布会”)在北京重磅召开,本次成果发布距离今年6月30日DataCanvas Alaya九章元识大模型公布仅4个多月,是九章云极DataCanvas公司大模...
-
UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法
LLM,如 ChatGPT,可以轻松地产生各种流利的文本,但是它们的准确性有多高呢?语言模型容易产生事实错误和幻觉,这让读者在决定是否相信一个信息来源时知道是否使用了这些工具来做新闻文章或其他信息文本的幽灵写作。这些模型的发展也引发了对文本的真实性和原创性...
-
为什么知识管理是 AI 成功的基础?
为 AI 提供正确的上下文可以提高准确 性并减少幻觉。 在所有关于人工智能如何彻底改变工作(使日常任务更高效、更可重复,并增加个人努力)的对话中,人们很容易得意忘形:人工智能不能做什么? 尽管它的名字叫生成式人工智能,但能够创建图像、代码、文本、音乐...
-
谷歌 Deepmind 推出 Lyria AI 音频模型,可生成带有乐器和人声的音乐
11 月 21 日消息,Deepmind 日前推出了一款名为 Lyria 的音频模型,可用于生成带有乐器和人声的音乐。此外 Deepmind 还通过与 YouTube 合作,整合 Lyria 模型开发了音乐创作工具 Dream Track,声称可令...
-
JetBrains 发布 2023 调研报告:Rust 越来越受欢迎,77% 开发者使用 ChatGPT
11 月 21 日消息,JetBrains 日前公布了《2023 开发人员生态系统现状》调研报告,汇集了来自全球 26,348 位开发者的调研结果。 《开发者生态系统现状报告》涵盖广泛的主题,包括编程语言、工具和技术,以及受众特征和有趣的事实。今年,J...
-
大模型入门(四)—— 基于peft 微调 LLaMa模型
llama-7b模型大小大约27G,本文在单张/两张 16G V100上基于hugging face的peft库实现了llama-7b的微调。 1、模型和数据准备 使用的大模型:https://huggingface.co/decapoda-resea...
-
开源社区有望成为OpenAI人事震动的最大赢家
美国当地时间11月20日上午,微软出人意料地聘请了OpenAI前CEO奥特曼和OpenAI总裁格雷格·布罗克曼,这一战略决定似乎是微软试图尽其所能摆平由OpenAI的董事会解雇奥特曼造成的混乱局面。 OpenAI政变的剧情一直在发展,几名研究人员已经辞...
-
DeepMind推出OPRO技术,可优化ChatGPT提示
在最新的AI研究报道中,Google DeepMind推出了一项名为“优化通过提示(OPRO)”的技术,将大型语言模型(LLM 作为其自身提示的优化器。该方法旨在通过自然语言描述问题,指导LLM生成和改进解决方案,从而提高提示性能。 OPRO的工作方式相对...
-
LLMs之LLaMA-2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同
LLMs之LLaMA-2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务 、同时微调LLaMA2模型(采用Conda环境安装tg we...
-
微软发布 Azure ND H100 v5 虚拟机,配备 8 个英伟达 H100 GPU
IT之家 11 月 21 日消息,微软 Azure AI 基础设施迎来升级,推出了 ND H100 v5 虚拟机系列,这款虚拟机配备了英伟达 H100 Tensor Core 图形处理单元(GPU)和低延迟网络。 据介绍,微软全新发布 Azure ND...
-
北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点|开源
AI能理解搞笑视频笑点在哪里了。 北大等团队开源视觉语言大模型Video-LLaVA,将图像和视频表示对齐到统一的视觉特征空间,在13个图片和视频基准上达到先进的性能。 值得注意的是,Video-LLaVA在训练过程中没有使用成对的视频和图片数据,但...
-
用检索增强生成让大模型更强大,这里有个手把手的Python实现
本文首先将关注 RAG 的概念和理论。然后将展示可以如何使用用于编排(orchestration)的 LangChain、OpenAI 语言模型和 Weaviate 向量数据库来实现一个简单的 RAG。 检索增强生成是什么? 检索增强生成(RAG)这一...
-
微软230页报告,像素级评估GPT-4前沿科研能力:潜力无限速速上车!
LLM作为研究工具,能否帮助科学研究带来新的突破? 今天微软AI4Science Research抛出一篇230页的重磅论文,告诉所有的科研人员: LLM(GPT-4)太强了,赶快想办法用起来! 论文地址:https://arxiv.org/abs/2...
-
深入理解LLaMA, Alpaca, ColossalChat 系列模型
知乎:紫气东来https://zhuanlan.zhihu.com/p/618695885 一、从 LLaMA 到 Alpaca:大模型的小训练 1.1 LLaMA 概要与实践 LLaMA(Large Language Mo...
-
大语言模型-中文chatGLM-LLAMA微调
微调大语言模型-ChatGLM-Tuning大语言模型-微调chatglm6b大语言模型-中文chatGLM-LLAMA微调大语言模型-alpaca-lora 本地知识库大语言模型2-document ai解读大语言模型-DocumentSearch解...
-
大语言模型之七- Llama-2单GPU微调SFT
(T4 16G)模型预训练colab脚本在github主页面。详见Finetuning_LLama_2_0_on_Colab_with_1_GPU.ipynb 在上一篇博客提到两种改进预训练模型性能的方法Retrieval-Augmented Gener...
-
北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点
AI能理解搞笑视频笑点在哪里了。 AI回答:这个视频之所以搞笑,在于一个小宝宝正坐在床上努力读书,但他显然还不会真正读书。他只是不停地指着书页上的各处,而摄影者则在背后笑他。小宝宝的这种尝试很有趣,因为他在尝试阅读一本对他而言过大的书,也看不懂里面的文...
-
AI「cosplay」关键在人设!复旦、人大等发布大五人格+MBTI测试:特质还原率达82.8%,拒绝OOC
想和喜欢的动漫小说角色聊天?想要一个虚拟伴侣?想要自己的数字智能体? 随着大语言模型(Large Language Models, LLM)的发展,这些过去的幻想似乎越来越近了。 Character AI、Chat 凉宫春日、病娇AI女友模拟器……基于大...
-
中科大联合封神榜团队发布中文医疗领域大模型ChiMed-GPT
中科大和 IDEA 研究院封神榜团队合作开发了一款名为 ChiMed-GPT 的中文医疗领域大语言模型(LLM)。该模型基于封神榜团队的 Ziya2-13B 模型构建,拥有130亿个参数,并通过全方位的预训练、监督微调和人类反馈强化学习来满足医疗文本处理的...
-
ChatGLM-LLaMA-chinese-insturct 学习记录(含LoRA的源码理解)
ChatGLM-LLaMA-chinese-insturct 前言 一、实验记录 1.1 环境配置 1.2 代码理解 1.2.1 LoRA 1.4 实验结果 二、总结 前言 介绍:探索中文instruct数据在C...
-
LLM - Model Load_in_8bit For LLaMA
一.引言 LLM 量化是将大语言模型进行压缩和优化以减少其计算和存储需求的过程。 博主在使用 LLaMA-33B 时尝试使用量化加载模型,用传统 API 参数控制量化失败,改用其他依赖尝试成功。这里先铺下结论: ◆ Load_in_8bit ✔️...
-
如何白嫖copilot
有两种办法白嫖: Free trial: 可以subscribe,绑定了visa卡之后,有两个月的免费体验阶段,中间可以随时取消。 Github Pro:如果有edu邮箱的话,可以白嫖copilot。需要先申请一个edu pro。 详情: G...
-
研究证实,最好的 ChatGPT 提示是高度情绪化的
一组研究人员发现,充满情感的LLM输入始终会产生更有用的反应。 对不同大型语言模型响应输入方式的新研究表明,确保您的ChatGPT 提示足够情绪化将帮助您从聊天机器人中提取最高质量的响应。 这些发现提出了一个问题,即ChatGPT是否已经发展成为通用人...
-
【AI热点技术】ChatGPT开源替代品——LLaMA系列之「羊驼家族」
ChatGPT开源替代品——LLaMA系列之「羊驼家族」 1. Alpaca 2. Vicuna 3. Koala 4. ChatLLaMA 5. FreedomGPT 6. ColossalChat 完整的 ChatGPT 克隆解决方案 中...
-
OpenAI安全系统负责人长文梳理:大模型的对抗攻击与防御
随着 ChatGPT 的发布,大型语言模型应用正在加速大范围铺开。OpenAI 的安全系统团队已经投入了大量资源,研究如何在对齐过程中为模型构建默认的安全行为。但是,对抗攻击或 prompt 越狱依然有可能让模型输出我们不期望看到的内容。 目前在对抗攻击...
-
OpenAI的人事地震在硅谷敲响了警钟,让一些技术人员对AI的未来感到担忧
在过去的几年里,硅谷的许多人把希望和命运都寄托在OpenAI大力普及的GenAI技术上。 许多行业专家指出,ChatGPT于去年年底首次亮相,那是一个类似iPhone的时刻,它带来了人们通过书面提示与电脑互动的方式的潜在转变,这种提示可以产生创造性的、...
-
谷歌Bard「破防」,用自然语言解开,提示注入引起数据泄漏风险
大型语言模型在生成文本时非常依赖提示词。这种攻击技术对于通过提示词学习模型而言可谓是「以彼之矛,攻己之盾」,是最强长项,同时也是难以防范的软肋。 提示词分为系统指令和用户给出的指令,在自然语言中,这两者难以区分。如果用户有意在输入提示词时,模仿系统指令,...
-
OpenAI 的动荡震撼了硅谷,让一些技术人员对人工智能的未来感到担忧
近年来,硅谷的大部分领域已将希望和财富押注在生成型人工智能技术上,OpenAI 在推广这类技术方面起到了关键作用。许多行业专家将去年晚些时候 ChatGPT 的推出比作 iPhone 的突破性时刻,它可能引领人们通过书面提示与计算机互动的方式发生转变,产生...
-
Meta 介绍 AI 图像编辑工具 Emu Edit / Video:使用 1000 万个数据集训练,号称远超竞品
IT之家 11 月 20 日消息,Meta 昨日宣布为 Facebook 和 Instagram 推出两款基于 AI 的图像编辑工具,分别是“Emu Edit”和“Emu Video”,适用领域包括照片和视频,目前 Meta 公布了这两项 AI 工具的更...
-
复旦、人大等发布大五人格+MBTI测试 角色扮演AI特质还原率达82.8%
近期,由复旦大学和中国人民大学合作的Chat凉宫春日团队发布了一项关于AI角色扮演的研究。该研究强调了良好的人设还原度对于评价AI角色扮演的重要性,特质还原率高达82.8%。研究使用了大五人格的NEO-FFI问卷和MBTI的16Personalities测...
-
GitHub:程序员正积极使用 AI 编程、JavaScript 语言依然最流行
IT之家 11 月 20 日消息,GitHub 发布了 2023 年度 Octoverse 开源状态报告,其中主要强调了 AI 在开发过程中的作用,并围绕云和 Git 的开源活动展开。 官方介绍称,今年的三大趋势如下: 开发人员正在大量使用生成式 A...
-
中国科学院:已于分组加密算法的差分密码分析方面取得进展
IT之家 11 月 20 日消息,据中国科学院软件研究所官方公众号报道,近日,中国科学院软件研究所可信智能系统研究团队在分组加密算法的差分密码分析方面取得一定进展。 据悉,该工作团队设计了一个面向分组加密算法的领域编程语言 EasyBC,在此基础上提出...
-
Ubuntu 22.04.2 LTS LTS x86_64 安装 stable-diffusion-webui 【2】基本版本完结。
前篇 Ubuntu 20.04 LTS x86_64 安装 stable-diffusion-webui_hkNaruto的博客-CSDN博客 内容太多,分第二篇继续 中途重装了机器,20.04 ,apt upgrade后自动升级到22.04.2...
-
如何使用Midjourney辅助建筑平面设计和室内设计,常用的建筑平面效果图提示和使用效果展示(内附Midjourney提示词网站)
文章目录 一、室内建筑平面设计 1.AutoCAD图纸(别墅图为例) 2.平面效果图 3.三维平面透视图 二、建筑室内设计 1.现代简约 2.波西米亚风格 3.工业风格 4.沿海风格 5.法国风格 6.现代风格 7.提示增加颜色倾向 8....
-
Chinese-LangChain:基于ChatGLM-6b+langchain实现本地化知识库检索与智能答案生成
Chinese-LangChain Chinese-LangChain:中文langchain项目,基于ChatGLM-6b+langchain实现本地化知识库检索与智能答案生成 https://github.com/yanqiangmif...
-
BeautifulPrompt:PAI 推出自研 Prompt 美化器,赋能 AIGC一键出美图
背景 Stable Diffusion(SD)是一种流行的AI生成内容(AI Generated Content,AIGC)模型,能在文字输入的基础上生成各种风格多样的图像。在目前的AIGC方向,SD是开源社区最热门的模型。然而,SD能够生成高颜值的图像...
-
Copilot是GPT的理想应用模式吗?
自OpenAI发布ChatGPT以来,LLM持续火热,各大公司纷纷入场。但近一段时间以来,我观测到的LLM应用场景,基本都是Copilot的形式,即以对话为基础的辅助应用。尽管体验起来十分的高大上,但我能明确感受到,这种Copilot的形式并不解决当前的诉...
-
AIGC:【LLM(一)】——LoRA微调加速技术
文章目录 一.微调方法 1.1 Instruct微调 1.2 LoRA微调 二.LoRA原理 三.LoRA使用 一.微调方法 Instruct微调和LoRA微调是两种不同的技术。 1.1 Instruct微调 Instr...
-
本地部署开源大模型的完整教程:LangChain + Streamlit+ Llama
在过去的几个月里,大型语言模型(llm 获得了极大的关注,这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员。 大型语言模型(llm 是指能够生成与人类语言非常相似的文本并以自然方式理解提示的机器学习模型。这些模型使...
-
微软面向 Canary 频道 Windows Terminal 用户,开放 AI 聊天体验
11 月 18 日消息,微软宣布面向开源社区,开放 Windows Terminal AI 体验。开发人员可以免费试用 AI 提供的诸多新功能,并可以向微软提交反馈以改善该体验。 微软目前已经在 Canary 频道的 Windows Termina...
-
230页长文,涵盖5大科学领域,微软团队使用GPT-4探索LLM对科学发现的影响
前不久,微软 DeepSpeed 团队启动了一个名为 DeepSpeed4Science 的新计划,旨在通过 AI 系统优化技术实现科学发现。 11 月 13 日,微软团队在 arXiv 预印平台发表题为《大型语言模型对科学发现的影响:使用 GPT-4...
-
13B模型全方位碾压GPT-4?这背后有什么猫腻
一个参数量为 13B 的模型竟然打败了顶流 GPT-4?就像下图所展示的,并且为了确保结果的有效性,这项测试还遵循了 OpenAI 的数据去污方法,更关键的是没有发现数据污染的证据。 如果你细细查看图中的模型,发现只要带有「rephraser」这个单词...
-
解决LLaMA、BERT等部署难题:首个4-bit浮点量化LLM来了
大语言模型 (LLM 压缩一直备受关注,后训练量化(Post-training Quantization 是其中一种常用算法,但是现有 PTQ 方法大多数都是 integer 量化,且当比特数低于 8 时,量化后模型的准确率会下降非常多。想较于 In...
-
使用代码下载开源的大模型文件示例以及中文微调llama资源汇总:
一、下载示例 from huggingface_hub import snapshot_download repo_id = "THUDM/chatglm2-6b" local_dir = './chatglm2-6b/' cache_dir = l...
-
LLaMA-7B微调记录
Alpaca(https://github.com/tatsu-lab/stanford_alpaca)在70亿参数的LLaMA-7B上进行微调,通过52k指令数据(https://github.com/tatsu-lab/stanford_alpaca/...
-
文心一言、讯飞星火与GPT-4/3.5在回答中文历史问题的表现
最近,随着备受关注的文心一言正式免费向全社会开放,再次引起了社会层面对国产大模型的兴趣。 以文心一言为代表的国产大模型性能究竟如何?如果将它们相互比较,并且和GPT系列模型等国际前沿水平的LLM进行比较,会得到什么样的结果呢?笔者对此...
-
大语言模型量化方法对比:GPTQ、GGUF、AWQ
在过去的一年里,大型语言模型(llm 有了飞速的发展,在本文中,我们将探讨几种(量化 的方式,除此以外,还会介绍分片及不同的保存和压缩策略。 说明:每次加载LLM示例后,建议清除缓存,以防止出现OutOfMemory错误。 del model, tok...