-
伪装成AI,我们成功攻略了直男AI“陈青山”
“陈青山”,一个万千网友攻略不下来的直男AI。 他是你的赛博crush(暗恋对象),高冷带刺,一言不合就拉黑。 最初你在大学门口遇到了一见钟情的他,花费很大功夫要到了微信,但每次给他发消息,他都回复得很客套。 游戏由此开始,玩家和“陈青山”的每一轮对话都是...
-
使用 QLoRA 进行微调Llama 2 和 Mistral的初学者指南
本指南适用于任何想要为自己的项目定制强大的语言模型(如 Llama 2 和 Mistral)的人。使用 QLoRA,我们将逐步完成...
-
【UE5】离线AI聊天-接入LLAMA语言模型 教程
前言:LLAMA是一种神经网络模型,全称为Language Model with an Average Attention Mechanism(具有平均注意机制的语言模型)。它是一种用于自然语言处理任务的模型,特别适用于生成文本和回答问题。LLAMA模...
-
AIGC:让生成式AI成为自己的外脑
前言 在数字化浪潮席卷全球的今天,人工智能(AI)已经渗透到了我们生活的方方面面。其中,生成式AI以其独特的魅力,正逐渐改变我们与世界的交互方式。AIGC(人工智能生成内容)作为生成式AI的重要应用之一,正成为越来越多人的“外脑”,助力我们更高效...
-
为何大语言模型不会取代码农?
译者 | 布加迪 审校 | 重楼 生成式人工智能(GenAI)会取代人类程序员吗?恐怕不会。不过,使用GenAI的人类可能会取代程序员。但是如今有这么多的大语言模型(LLM),实际效果不一而足。 如果您在努力跟上所有LLM,并非只有您一个人。我们目睹一...
-
奥特曼回应一切:GPT-5、董事会宫斗、Ilya当时看到了什么
今年 2 月随着 Sora 的横空出世,大家再一次把目光聚集到 OpenAI。 不仅如此,去年亮相的 ChatGPT、GPT-4,更是把 AI 直接带入到生成式人工智能领域。作为一家引领科技潮流的机构,大家自然对其方方面面都产生好奇。 在最近的一次采访中...
-
Diffusion Transformer Family:关于Sora和Stable Diffusion 3你需要知道的一切
转自知乎:叫我Alonzo就好了 前言 背景——Sora和Stable Diffusion 3 近期,OpenAI和Stability两大AI巨头公司在同期分别发布了它们的新作品——Sora和Stable Diffusion 3。神奇的是,这...
-
Python AI 之Stable-Diffusion-WebUI
Stable-Diffusion-WebUI简介 通过Gradio库,实现Stable Diffusion web 管理接口 Windows 11 安装Stable-Diffusion-WebUI 个人认为Stable-Diffusion-We...
-
如何扩展大模型的上下文长度
一、背景 大模型的上下文长度是指我们在使用大模型的时候,给大模型的输入加上输出的字符(Token)总数,这个数字会被限制,如果超过这个长度的字符会被大模型丢弃。目前开源的大模型上下文长度一般不长,比如 Llama 2 只有 4K,Code-Llama 系...
-
基于Google Vertex AI 和 Llama 2进行RLHF训练和评估
Reinforcement Learning from Human Feedback 基于Google Vertex AI 和 Llama 2进行RLHF训练和评估 课程地址:https://www.deeplearning.ai/short-cou...
-
马斯克兑现承诺,Grok模型携3140亿参数强势开源,商业用途全免费!
马斯克确实以其高效率和大胆的行动著称,最近他旗下的AI初创企业xAI宣布了一项引人注目的举措:开源了一个名为Grok-1[1]的混合专家模型。 这个模型拥有3140亿个参数,是目前参数量最大的开源大型语言模型之一,而允许商用、可修改和分发,对各种自研...
-
AIGC: 2 语音转换新纪元-Whisper技术在全球客服领域的创新运用
背景 现实世界,人跟人的沟通相当一部分是语音沟通,比如打电话,聊天中发送语音消息。 而在程序的世界,大部分以处理字符串为主。 所以,把语音转换成文字就成为了编程世界非常普遍的需求。 Whisper 是由 OpenAI 开发的一种高效的语音识别(AS...
-
huggingface的diffusers训练stable diffusion记录
代码:https://github.com/huggingface/diffusers/tree/main/examples/text_to_image 2006.11239.pdf (arxiv.org 论文 2006.11239.pdf (ar...
-
Stable Diffusion 3报告
报告链接:https://stability.ai/news/stable-diffusion-3-research-paper 文章目录 要点 表现 架构细节 通过重新加权改善整流流量 Scaling Rectified Flow Tr...
-
无需训练,Fast-DetectGPT让文本检测速度提升340倍
大语言模型如 ChatGPT 和 GPT-4 在各个领域对人们的生产和生活带来便利,但其误用也引发了关于虚假新闻、恶意产品评论和剽窃等问题的担忧。本文提出了一种新的文本检测方法 ——Fast-DetectGPT,无需训练,直接使用开源小语言模型检测各种大...
-
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
选择使用哪种大模型,如Bert、LLaMA或ChatGLM,取决于具体的应用场景和需求。下面是一些指导原则: Bert模型:Bert是一种预训练的语言模型,适用于各种自然语言处理任务,如文本分类、命名实体识别、语义相似度计算等。如果你的任务是通用的文...
-
大模型增速远超摩尔定律!MIT最新研究:人类快要喂不饱AI了
我们人类可能要养不起AI了! 近日,来自MIT FutureTech的研究人员发表了一项关于大模型能力增长速度的研究, 结果表明:LLM的能力大约每8个月就会翻一倍,速度远超摩尔定律! 论文地址:https://arxiv.org/pdf/2403.0...
-
微软AI程序员登场,10倍AI工程师真来了?996自主生成代码,性能超GPT-4 30%
全球首个AI程序员Devin的横空出世,可能成为软件和AI发展史上一个重要的节点。 它掌握了全栈的技能,不仅可以写代码debug,训模型,还可以去美国最大求职网站Upwork上抢单。 一时间,网友们惊呼,「程序员不存在了」? 甚至连刚开始攻读计算机学位...
-
马斯克突然开源Grok:3140亿参数巨无霸,免费可商用
马斯克说到做到: 旗下大模型Grok现已开源! 代码和模型权重已上线GitHub。官方信息显示,此次开源的Grok-1是一个3140亿参数的混合专家模型—— 就是说,这是当前开源模型中参数量最大的一个。 消息一出,Grok-1的GitHub仓库已揽获4...
-
微调大型语言模型进行命名实体识别
大型语言模型的目标是理解和生成与人类语言类似的文本。它们经过大规模的训练,能够对输入的文本进行分析,并生成符合语法和语境的回复。这种模型可以用于各种任务,包括问答系统、对话机器人、文本生成、翻译等。 命名实体识别(Named Entity Recogn...
-
马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星
说到做到,马斯克xAI的Grok,果然如期开源了! 就在刚刚,xAI正式发布3140亿参数混合专家模型Grok-1的权重和架构。 3140亿的参数,让Grok-1成为迄今参数量最大的开源LLM,是Llama 2的4倍。 目前,xAI关于Grok-1...
-
淘宝人生2的AIGC技术应用——虚拟人写真算法技术方案
近几个月,随着基于Stable Diffusion的相关技术发展,基于参考图的角色定制化技术[1,2, 3, 4, 7]受到相关行业以及学者的广泛关注。其中,人像定制化是指:给定任务角色(参考图),通过提示词控制生成多样新的图像,并且图像...
-
自适应剪枝让多模态大模型加速2-3倍,哈工大等推出SmartTrim
基于 Transformer 结构的视觉语言大模型(VLM)在各种下游的视觉语言任务上取得了巨大成功,但由于其较长的输入序列和较多的参数,导致其相应的计算开销地提升,阻碍了在实际环境中进一步部署。为了追求更为高效的推理速度,前人提出了一些针对 VLM 的...
-
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
说到做到,马斯克承诺的开源版大模型 Grok 终于来了! 今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言...
-
ChatGPT的前辈GPT-2被塞入Excel表格:体积达1.25GB之巨!
快科技3月17日消息,Excel真是无所不能,酷爱它的软件开发者Ishan Anand居然将OpenAI GPT-2大模型硬生生放到了Excel之中,体积达到1.2GB,关键是还能正常运行! 我们熟悉的ChatGPT,其实支持GPT系列大模型的一种呈现形式...
-
超详细!AIGC面试系列 大模型基础(1)
关于我 从2022年末开始接触AIGC,便一直紧跟最近技术与实践落地。期间参与copilot项目研发,落地了多个垂类AIGC大模型应用,熟悉各种AIGC相关技术如Agent,Langchain,chatdoc,向量数据库等。 关于本系列 请你认真看完...
-
小妙招:Copilot 当跳板免费调用 GPT4
GPT4 每月 20 刀,Github Copilot 每月 10 刀 首先叠个甲:免费不是 0 成本。 由于我在日常开发过程中,Copilot 对我来说是必需品,我会用它检查代码、写工具函数、写注释、干苦力。所以这钱是我的必要支出。而这篇文章是介...
-
利用学生认证部署 copilot-gpt4-service 白嫖 gpt-4.0
过年期间在公众号 HelloGitHub 上看到了一个项目 copilot-gpt4-service,可以将 GitHub Copilot 转成 ChatGPT 的服务。 这么一个转换的好处是, GitHub 可以通过学生认证免费试用,转换成 ChatGP...
-
时间序列预测+NLP大模型新作:为时序预测自动生成隐式Prompt
今天给大家介绍一篇最新的大模型+时间序列预测工作,由康涅狄格大学发表,提出了一种将时间序列在隐空间和NLP大模型对齐,并利用隐空间prompt提升时间序列预测效果的方法。 论文标题:S2IP-LLM: Semantic Space Informed P...
-
stable diffusion 1.5大模型炼制详细教程,几块钱即可炼制大模型
前言 之前已经讲过SDXL_LORA,SD1.5_LORA训练过程,基本说的比较清楚了,有兴趣可以去看看,下面我将讲解一下SD1.5大模型的炼制。 SDXL_LORA:https://tian-feng.blog.csdn.net/article/d...
-
Stable diffusion安装以及汉化
安装参考:https://blog.csdn.net/weixin_72959097/article/details/136261658 (1)下载miniconda Miniconda是一个轻量级的包管理系统,用于管理和部署Python环境和软件包。...
-
【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
学习笔记:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU 前言 1 下载并编译llama.cpp 1.1 git下载llama.cpp仓库源码 1.2 编译源码(make) 1.2.1 选择一:仅在CPU上...
-
重磅!谷歌正式推出开源大语言模型 Gemma,声称超越 Meta Llama-2 竞品
击上方关注 “终端研发部” 设为“星标”,和你一起掌握更多数据库知识 AI 开源之战打响! 作为曾经AI领域扛把子的谷歌,这两年多来,风头几度被抢,一直处于被压着打的境地,,昨天Gemma的发布,预示着谷歌登上开源大模型“铁王...
-
Stable Diffusion WebUI安装报错解决
本人是一个AI新手,最近在研究文生图方面相关内容时看到Stable Diffusion WebUI这个项目,想在本地部署安装试用看下效果,安装过程中遇到了一些问题,此处记录一下 问题1:Python 3.12.1 (tags/v3.12.1:2305ca...
-
How does Stable Diffusion work?
Stable Diffusion is a latent diffusion model that generates AI images from text. Instead of operating in the high-dimensional im...
-
Stable diffusion(二)
SD colab安装 https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC...
-
零一万物大模型开放平台体验入口 01-ai API接口使用地址
零一万物大模型开放平台是一个通过API调用获取高品质Yi系列大模型的平台。Yi系列模型基于零一万物的前沿科研成果和高品质数据训练而成,曾在多个权威榜单中获得SOTA表现。 主要产品包括yi-34b-chat-0205、yi-34b-chat-200k和y...
-
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM
时间序列预测在零售、金融、制造业、医疗保健和自然科学等各个领域无处不在:比如说在零售场景下中,「提高需求预测准确性」可以有显著降低库存成本并增加收入。 深度学习(DL)模型基本上垄断了「多变量时间序列预测」任务,在各个竞赛、现实应用中的表现都非常好。 与...
-
刷榜「代码生成」任务!复旦等发布StepCoder框架:从编译器反馈信号中强化学习
大型语言模型(LLMs)的发展极大地推动了代码生成领域的发展,之前有工作将强化学习(RL)与编译器的反馈信号集成在一起,用于探索LLMs的输出空间,以提高代码生成质量。 但当下还存在两个问题: 1. 强化学习探索很难直接适配到「复杂的人类需求」,即要求L...
-
通过实时调试,让AI编写有效的UI自动化
作者简介 Thales Fu,携程高级研发经理,致力于寻找更好的方法,结合AI和工程来解决现实中的问题。 引言 在快速迭代的软件开发周期中,用户界面(UI)的自动化测试已成为提高效率和确保产品质量的关键。然而,随着应用程序变得日益复杂,传统的UI自动化方...
-
苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人
今年以来,苹果显然已经加大了对生成式人工智能(GenAI)的重视和投入。此前在 2024 苹果股东大会上,苹果 CEO 蒂姆・库克表示,今年将在 GenAI 领域实现重大进展。此外,苹果宣布放弃 10 年之久的造车项目之后,一部分造车团队成员也开始转向...
-
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定
全球最快、最强的AI芯片面世,让整个行业瞬间惊掉了下巴! 就在刚刚,AI芯片初创公司Cerebras重磅发布了「第三代晶圆级引擎」(WSE-3)。 性能上,WSE-3是上一代WSE-2的两倍,且功耗依旧保持不变。 90万个AI核心,44GB的片上SRA...
-
首次攻克「图基础模型」三大难题!港大开源OpenGraph:零样本学习适配多种下游任
图学习(Graph Learning)技术能够对复杂的关系数据进行挖掘和学习,在推荐系统、社交网络分析、引用网络和交通网络等多个领域都显示出了巨大的应用价值。 图神经网络(Graph Neural Networks, GNNs)基于迭代的消息传递机制,能...
-
百度文心一言api接口调用使用教程,自媒体/网站优化批量改写文章可用
大家好,我是淘小白~ 年前就有老客户需要写一个百度文心一言改写的软件,但是过年直接躺平了,年后抓紧给写出来了,通过百度文心一言可以改写文章,自媒体的洗稿可用。 网站优化也可以用,但是不推荐,免费调用很少,回报周期长,利润低的话不推荐使用文心一言改写。...
-
问题排查太烦心,试试GPT的超能力
当你使用 Kubernetes 时,迟早会遇到集群中的问题,需要进行调试和修复,以便你的 Pod 和服务能够按预期运行。无论你是刚刚开始使用 Kubernetes 还是正在处理大规模且更复杂的环境,调试集群内进程并不总是那么简单,而且可能会成为一项耗时且...
-
运行StableDiffusionInpaintPipeline的Example时报错:OSError: Cannot load model runwayml/stable-diffusion-...
项目地址: https://huggingface.co/docs/diffusers/api/pipelines/stable_diffusion/inpainthttps://huggingface.co/docs/diffusers/api/pip...
-
Stable Diffusion ———LDM、SD 1.0, 1.5, 2.0、SDXL、SDXL-Turbo等版本之间关系现原理详解
一、简介 2021年5月,OpenAI发表了《扩散模型超越GANs》的文章,标志着扩散模型(Diffusion Models,DM)在图像生成领域开始超越传统的GAN模型,进一步推动了DM的应用。 然而,早期的DM直接作用于像素空间,这意味着要优化一...
-
大模型的DenseNet时刻!DenseMamba:精度显著提升
本文经自动驾驶之心公众号授权转载,转载请联系出处。 随着 ChatGPT 的突破性进展,大型语言模型(LLMs)迎来了一个崭新的里程碑。这些模型在语言理解、对话交互和逻辑推理方面展现了卓越的性能。过去一年,人们目睹了 LLaMA、ChatGLM 等模型...
-
论文笔记:Code Llama: Open Foundation Models for Code
导语 Code Llama是开源模型Llama 2在代码领域的一个专有模型,作者通过在代码数据集上进行进一步训练得到了了适用于该领域的专有模型,并在测试基准中超过了同等参数规模的其他公开模型。 链接:https://arxiv.org/abs/23...
-
AIGC学习笔记——CLIP详解加推理
clip论文地址:https://arxiv.org/pdf/2103.00020.pdf clip代码地址:https://github.com/openai/CLIP 小辉问:能不能解释一下zero-shot? 小G答:零次学习(Zero...