-
ChatGPT+Ai绘图【stable-diffusion实战】
ai绘图 stable-diffusion生成【还有很大的提升空间】 提示词1 Picture a planet where every living thing is made of light. The landscapes are bre...
-
大模型系列:OpenAI使用技巧_Whisper提示指南
文章目录 与GPT提示的比较 设置 作为基准,我们将转录NPR播客片段 转录遵循提示的风格 在提示中传递名称以防止拼写错误 GPT可以生成虚构的提示 OpenAI的音频转录API有一个可选参数称为 prompt。 提示旨在帮助拼...
-
[linux-sd-webui]api化之训练lora
lora的训练使用的文件是https://github.com/Akegarasu/lora-scripts lora训练是需要成对的文本图像对的,需要准备相应的训练数据。 1.训练数据准备 使用deepbooru/blip生成训练数据,建筑类建议使...
-
AAAI 2024 Fellow公布,清华大学朱军教授入选
AAAI(Association for the Advancement of Artificial Intelligence)是国际人工智能领域最权威的学术组织之一,Fellow 是该学会给予会员的最高荣誉,仅颁给对人工智能做出「非同寻常的卓越贡献者」...
-
使用Google大模型Bard(PaLM)理解时间序列预测模型ARIMA
使用Bard模型理解时间序列预测模型ARIMA Q: explains ARIMA model (注释:让Bard解释下时间序列预测模型ARIMA Q: explains the AR sub model in ARIMA model, gi...
-
【个人首测】百度文心一言 VS ChatGPT GPT-4
昨天我写了一篇文章GPT-4牛是牛,但这几天先别急,文中我测试了用GPT-4回答ChatGPT 3.5 和 Notion AI的问题,大家期待的图片输入也没有出现。 昨天下午百度发布了文心一言,对标ChatGPT,录屏+无实机演示让百度股价暴跌。...
-
表情包也能用 AI 生成?如何借助 AIGC 自定义专属表情包 #Memix
随着我们越来越离不开社交媒体,表情包也已经成为我们日常生活中的必备单品。有着个人鲜明风格的「表情包」,不仅是独特的「社交名片」,也能给人留下耳目一新的印象! 谁的收藏夹里没有一堆私藏表情包呢! Memix 借助 AI 技术的发展,自定义专...
-
LLM微调(四)| 微调Llama 2实现Text-to-SQL,并使用LlamaIndex在数据库上进行推理
Llama 2是开源LLM发展的一个巨大里程碑。最大模型及其经过微调的变体位居Hugging Face Open LLM排行榜(https://huggingface.co/spaces/HuggingFaceH4/open_llm_lea...
-
基于MindSpore的llama微调在OpenI平台上运行
基于MindSpore的llama微调在OpenI平台上运行 克隆预训练模型 克隆chatglm-6b代码仓,下载分布式的模型文件 git lfs install git clone https://huggingface.co/openlm-...
-
【黄啊码】StableDiffusion教程从入门到搬砖
上节课教大家怎么免费使用GPU资源,今天就正式带大家进入stable diffusion的教程,废话不多说,开干: 目录 正面提示词: 我们来学习关于权重的知识点: 权重语法: 分割符 组合符 连接符 分布交替渲染 负面提示词: 最后在提供一部分常用的提...
-
“Transformer挑战者”Mamba,用Macbook也能跑了!GitHub半天斩获500+星
“Transformer的挑战者”Mamba,用MacBook也能跑了! 有大佬在GitHub上共享了一份笔记,让人们可以用最简单的方式运行Mamba。 这份共享中,算上说明书一共只有三个文件,而且发布不到一天,就斩获了500+星标。 图片 Mamba是...
-
AIGC实战——条件生成对抗网络(Conditional Generative Adversarial Net, CGAN)
AIGC实战——条件生成对抗网络 0. 前言 1. CGAN架构 2. 模型训练 3. CGAN 分析 小结 系列链接 0. 前言 我们已经学习了如何构建生成对抗网络 (Generative Adversarial Net, GA...
-
风景类Midjourney prompt提示词
稳定输出优美风景壁纸的Midjourney prompt提示词。 1\在夏夜,有淡蓝色的星空,海边,流星,烟花,海滩上全是蓝色的玫瑰和绿色的植物,由Ivan Aivazovsky和Dan Mumford,趋势在cgsociety,柔和的光线,童话,梦幻,...
-
【小沐学NLP】在线AI绘画网站(网易云课堂:AI绘画工坊)
文章目录 1、简介 1.1 参与方式 1.2 模型简介 2、使用费用 3、操作步骤 3.1 选择模型 3.2 输入提示词 3.3 调整参数 3.4 图片生成 4、测试例子 4.1 小狗 4.2 蜘蛛侠 4.3 人物 4.4 龙猫 结...
-
Instagram推出基于生成式AI的背景编辑工具 轻松打造独特图片
Instagram最新推出了一款基于生成式AI的背景编辑工具,于12月14日正式面向美国用户开放使用。Meta公司的生成式AI负责人Ahmad Al-Dahle在Threads上发文表示,这一工具将允许用户通过为故事提供提示来更改图片的背景。 在使用该工...
-
FQS:一种神奇的数仓查询优化技术
本文分享自华为云社区《根据执行计划优化SQL【绽放吧!GaussDB(DWS 云原生数仓】》,作者:西岭雪山。 引言 如果您刚接触DWS那一定会好奇想要知道"REMOTE_FQS_QUERY" 到底代表什么意思?我们看官网的描述是代表这执行计划已经...
-
Midjourney AI绘画咒语与生成的作品(实例)
据说Midjourney出来后,有一大批设计师抱着电脑,哭晕了~~ 有兴趣的朋友,可以看一下我前两天发的,地址如下: Midjourney AI绘画中文教程详解(完整版)模型、命令、参数与各种高级用法https://blog.csdn.net/ff...
-
首个GPT-4驱动的人形机器人!无需编程+零样本学习,还可根据口头反馈调整行为
让GPT-4操纵人形机器人,事先不做任何编程or训练,能搞成啥样儿? 答案是:太 猎 奇 了! 这不,要求机器人表演“在昏暗电影院里狂炫爆米花,却突然发现吃的是隔壁陌生人的?”。 在GPT-4的操纵下,机器人笑容凝固,“尴尬”得摇头扶额后仰: 但在尴尬...
-
微软发文:27 亿参数的 Phi-2 AI 模型性能优于谷歌 32 亿参数的 Gemini Nano-2
12 月 13 日消息,微软公司今天发布新闻稿,表示旗下的 Phi-2 2.7B 模型,在多个方面都优于谷歌发布的 Gemini Nano-2 3.2B。 Phi-2 2.7B 模型 IT之家今年 11 月报道,微软在 Ignite 2023 大会上,宣...
-
如何训练Chatgpt为Midjourney的prompt的工具.
附调教命令: 首段: I would introduce a system to you, if you understand what Midjourney AI is and how to give a prompt, please say yes...
-
LLM-SFT,新微调数据集-MWP-Instruct(多步计算 + 一、二元方程),微调Bloom, ChatGLM, LlaMA(支持QLoRA, TensorBoardX)
LLM-SFT 中文大模型微调(LLM-SFT , 支持模型(ChatGLM, LlaMA, Bloom , 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX , 支持(微调, 推理, 测评, 接口 等. 项目...
-
谷歌祭出多模态“杀器” Gemini真能碾压GPT-4吗?
“最大”、最有能力”、“最佳”、“最高效”,谷歌为其12月7日新发布的多模态大模型Gemini冠上了好几个“最”,与OpenAI GPT-4“比高高”的胜负欲呼之欲出。 区分为Ultra、Pro、Nano三个尺寸的Gemini,不仅号称在各种“AI考试”中...
-
你真的看懂扩散模型(diffusion model)了吗?(从DALL·E 2讲起,GAN、VAE、MAE都有)
本文全网原创于CSDN:落难Coder ,未经允许,不得转载! 扩散模型简单介绍 我们来讲一下什么是扩散模型,如果你不了解一些工作,你可能不清楚它究竟是什么。那么我举两个例子说一下:AI作画(输入一些文字就可以得到与你描述相符的图像)和抖音大火的...
-
开源模型「幻觉」更严重,这是三元组粒度的幻觉检测套件
大模型长期以来一直存在一个致命的问题,即生成幻觉。由于数据集的复杂性,难免会包含过时和错误的信息,这使得输出质量面临着极大的挑战。过多的重复信息还可能导致大型模型产生偏见,这也算是一种形式的幻觉。如何检测和有效缓解大模型的生成幻觉问题一直是学术界的热门课...
-
触手可及的 GPT —— LLaMA
出品人:Towhee 技术团队 最近几个月 ChatGPT 的出现引起广泛的关注和讨论,它在许多领域中的表现都超越了人类的水平。它可以生成人类级别的语言,并且能够在不同的任务中学习和适应,让人们对人工智能的未来充满了希望和憧憬。 ChatGPT 之...
-
口碑翻转,Pika 1.0试用效果折服一大票人,直呼「最佳视频生成器」
上个月底,一个名为 Pika 1.0 的视频生成 AI 模型在社交媒体上迅速流传开来,它能够生成和编辑各种风格的视频,比如 3D 动画、动漫、卡通和电影。 Pika 1.0 是一家初创公司 Pika Labs 推出的产品,这家公司于今年 4 月成立,目前...
-
谷歌Gemini AI模型即将登陆Pixel8Pro 革新Android体验
据报道,谷歌宣布Gemini AI模型即将首次亮相Pixel8Pro,并计划逐步覆盖整个Android生态系统。Gemini Nano是谷歌新一代大型语言模型(LLM)的本地优先版本,旨在提升设备智能、加速反应速度,无需依赖互联网连接。 虽然Gemini是...
-
每个人工智能工程师都应该了解的十大人工智能工具和框架
为了在竞争中保持领先地位,我们在此博客中列出了每位 AI 工程师都应该了解的2023 年最佳 AI 工具,包括 TensorFlow、PyTorch、sci-kit-learn 和 Apache Spark。准备好在2023 年获得最佳AI 工程师认证,...
-
Stable Diffusion 2.0 相比 1.5 是倒退吗?Prompt 实验给你真相
Stability.ai 一周多前发布了 Stable Diffusion 2.0 模型。这是继 8 月 Stable Diffusion 1.4 版本以来最大的更新。但在 AI 图像生成模型激烈的竞争局面下,看起来社区并不买账。SD 2.0 在 R...
-
确定数据分布正态性的11种基本方法
在数据科学和机器学习领域,许多模型都假设数据呈现正态分布,或者假设数据在正态分布下表现更好。例如,线性回归假设残差呈正态分布,线性判别分析(LDA)基于正态分布等假设进行推导。 因此,了解如何测试数据正态性的方法对于数据科学家和机器学习从业者至关重要。...
-
Gemini vs ChatGPT:谷歌最新的AI和ChatGPT相比,谁更强?
谷歌刚刚在其AI之旅中迈出了新的一步,推出了其最新和最强大的AI模型Gemini 1.0。 谷歌最优秀、最聪明的AI能否击败其最知名的竞争对手——AI聊天机器人ChatGPT?以下是关于机器人之战中的最新参赛者的信息。 在本文中,你将了解Gemini和...
-
首超人类专家!OpenAI“混乱”之际,谷歌多模态大模型Gemini“大杀四方”
在OpenAI“混乱”之际,Google准备“大杀四方”。 就在昨日晚间,Google 和 Alphabet CEO Sundar宣布Gemini上线,并称之为“我们规模最大、能力最强的 AI 模型”,语惊四座。 Gemini的关键词是“多模态”,Go...
-
Midjourney使用技巧
Midjourney使用技巧: 一、使用肯定描述 Midjourney 目前不是特别懂定的描述词,尽量不要用 not、but、except、without 等否定词,失败率会变高。 因为描述词里有提到的某个关键词时,AI 就很可能画出来,忽略否定的...
-
手把手教你搭建微信聊天机器人系列(三):搭建对接文心一言(ERNIE-Bot大模型)接口的微信聊天机器人
上一章介绍了eggjs+wechaty搭建一个简单的微信聊天机器人,只是实现了简单的回复,这一章我们将对接ERNIE-Bot接口,实现智能回复。 access_token的请求 config.default.js配置 ...
-
五官乱飞,张嘴、瞪眼、挑眉,AI都能模仿到位,视频诈骗要防不住了
防不住,根本防不住,现在 AI 模仿能力已经发展到这种程度了? 你前脚让自己的五官乱飞,后脚,一模一样的表情就被复现出来,瞪眼、挑眉、嘟嘴,不管多么夸张的表情,都模仿的非常到位。 加大难度,让眉毛挑的再高些,眼睛睁的再大些,甚至连嘴型都是歪的,虚拟人物...
-
新AI技术Gaussian Avatars:让AI轻松模仿瞪眼、挑眉等表情
近期,慕尼黑工业大学等机构的研究团队成功开发了一项名为Gaussian Avatars的AI技术,能够在表情、姿态和视角上实现完全可控的逼真头部。这一技术引起了广泛关注,尤其是在复制人类面部极端表情和细节方面取得了显著进展。 张嘴、瞪眼、挑眉等表情,通过G...
-
文字序顺不响影GPT-4阅读理解,别的大模型都不行
研表究明,汉字序顺并不定一影阅响读(对于英文来说,则是每一个单词中的字母顺序)。 现在,日本东京大学的一项实验发现,这个“定理”居然也适合GPT-4。 比如面对这样一段“鬼画符”,几乎里面每一个单词的每一个字母都被打乱: oJn amRh wno het...
-
Stable Diffusion:使用Lora用二十张图片训了一个简易版薇尔莉特头像生成器(不作商用,纯纯个人兴趣,狗头保命)
目录 一、系统环境 二、数据准备及预处理 三、使用Stable Diffusion获取图像信息 四、安装训练图形化界面 五、参数设置及训练过程 六、 效果测试 七、常见报错处理 一、系统环境 同上一篇博客,云平台:CPU 1核,G...
-
LLaMA模型微调版本:斯坦福 Alpaca 详解
项目代码:https://github.com/tatsu-lab/stanford_alpaca 博客介绍:https://crfm.stanford.edu/2023/03/13/alpaca.html Alpaca 总览 Alpaca 是 L...
-
Unity中Shader指令优化(编译后指令解析)
文章目录 前言 一、我们先创建一个简单的Shader 二、编译这个Shader,并且打开 1、编译后注意事项 2、编译平台 和 编译指令数 3、顶点着色器用到的信息 4、顶点着色器计算的核心部分 5、片元着色器用到的信息 6、片元着色器核心部...
-
简单尝试:ChatGLM-6B + Stable diffusion管道连接
核心思想是: 1. 抛去算法设计方面,仅从工程角度考虑的话,Stable diffusion的潜力挖掘几乎完全受输入文字影响。 2. BLIP2所代表的一类多模态模型走的路线是"扩展赋能LLM模型",思路简单清晰,收益明显。LLM + Stable d...
-
辅助编程coding的两种工具:Github Copilot、Cursor
目录 Cursor 简介 下载地址: 使用技巧: CHAT: example 1: 注意: example 2: Github Copilot 官网 简介 以插件方式安装 pycharm 自动写代码 example 1:写一个mys...
-
探索AIGC人工智能(Midjourney篇)(四)
文章目录 Midjourney模特换装 Midjourney制作APP图标 Midjourney网页设计 Midjourney如何生成IP盲盒 Midjourney设计儿童节海报 Midjourney制作商用矢量插画 Midjou...
-
五种方法提升Midjourney的出图品质
本文基于B站UP主琥珀川Eric的《五种方法提升Midjourney出图品质》制作在此感谢大神的分享。 本文全面介绍以上五种提升Midjourney出图品质的方法,简单实用,马上就可以用上。Let's go!!! 方法一 使用相机参数创...
-
使用 RLHF 训练 LLaMA 的实践指南:StackLLaMA
由于LLaMA没有使用RLHF,后来有一个初创公司 Nebuly AI使用LangChain agent生成的数据集对LLaMA模型使用了RLHF进行学习,得到了ChatLLaMA模型,详情请参考:Meta开源的LLaMA性能真如论文所述吗?如果增加RLH...
-
使用LLM插件从命令行访问Llama 2
大家好,最近的一个大新闻是Meta AI推出了新的开源授权的大型语言模型Llama 2,这是一项非常重要的进展。Facebook最初的LLaMA模型于今年2月发布,掀起了开源LLM领域的创新浪潮——从微调变体到从零开始的再创造。 如果在Llama 2版本...
-
ChatGPT提示词新玩法「make it more」,文生图效果翻倍
ChatGPT 想来大家都不陌生了,但如何用好它却没有想象中的那么容易。尤其是在文生图任务中,提示上的一些技巧非常有用。 想要生成一张符合预期的图像,需要在输入提示词上「取巧」。 近日,网络上流行起了 ChatGPT 的「make it more」文生图...
-
通过 Amazon SageMaker JumpStart 部署 Llama 2 快速构建专属 LLM 应用
来自 Meta 的 Llama 2 基础模型现已在 Amazon SageMaker JumpStart 中提供。我们可以通过使用 Amazon SageMaker JumpStart 快速部署 Llama 2 模型,并且结合开源 UI 工具...
-
Redis内存空间预估与内存优化策略:保障数据安全与性能的架构实践AIGC/AI绘画/chatGPT/SD/MJ
推荐阅读 AI文本 OCR识别最佳实践 AI Gamma一键生成PPT工具直达链接 玩转cloud Studio 在线编码神器 玩转 GPU AI绘画、AI讲话、翻译,GPU点亮AI想象空间 资源分享 「java、pytho...
-
使用 LoRA 技术对 LLaMA 65B 大模型进行微调及推理
前几天,Meta 发布了 LIMA 大模型,在LLaMA-65B的基础上,无需使用 RLHF,只用了 1000 个精心准备的样本数据进行微调,就达到了和 GPT-4 相媲美的程度。这激发了我探索 LLaMA 65B 大模型的兴趣。 之前的一系列大模型相...