-
stable diffusion webui 搭建和初步使用
官方repo: GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI 关于stable-diffusion的介绍:Stable Diffusion|图解稳定扩散原理...
-
python调用GPT-4-API/gpt3.5-api/chatGML-API/llama2-API/文心一言ERNIE-BOT-API
目录 调用GPT-4进行单轮对话 调用GPT3.5 调用llama2-70B(百度接口) 调用chatGML 调用ERNIE-BOT 4.0 关于如何开通GPT-API服务,请参考这一篇文章 目前仅使用到单轮对话,记录一下,之后拓展需...
-
开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4
Grok-1官宣开源不过半月,新升级的Grok-1.5出炉了。 刚刚,马斯克xAI官宣,128K上下文Grok-1.5,推理能力大幅提升。 并且,很快就会上线。 11天前,Grok-1模型的权重和架构开源,展示了Xai在去年11月之前取得的进展。 Gr...
-
如何开始定制你自己的大型语言模型
2023年的大型语言模型领域经历了许多快速的发展和创新,发展出了更大的模型规模并且获得了更好的性能,那么我们普通用户是否可以定制我们需要的大型语言模型呢? 首先你需要有硬件的资源,对于硬件来说有2个路径可以选。高性能和低性能,这里的区别就是是功率,因为精...
-
Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文
之前引爆了AI圈的Mamba架构,今天又推出了一版超强变体! 人工智能独角兽AI21 Labs刚刚开源了Jamba,世界上第一个生产级的Mamba大模型! Jamba在多项基准测试中表现亮眼,与目前最强的几个开源Transformer平起平坐。 特别是...
-
首个基于SSM-Transformer混合架构,开源商业大模型Jamba
3月29日,知名AI研究实验室AI21在官网开源了,首个基于SSM-Transformer混合架构的商业大模型——Jamba。 目前,ChatGPT、Stable Difusion 、Lyria等产品使用的皆是Transformer架构,虽然在捕捉序列内长...
-
AIGC之入门之详细介绍
一、AIGC初识 AIGC,即Artificial Intelligence Generated Content,指的是生成式人工智能。它可以通过处理人的自然语言,对AI下达指令任务,从而自动生成图片、视频、音频等内容。 至于AIGC中的Stable...
-
RAG 修炼手册|RAG 敲响丧钟?大模型长上下文是否意味着向量检索不再重要
Gemini 发布后,由于其在处理长上下文方面表现出色,行业不乏“RAG 已死”的声音。RAG 到底有没有被杀死?向量数据库的还是 AI 应用开发者的最佳拍档吗?本文将一起探讨。 01.Gemini 发布后 AIGC 的迭代速度正以指数级的速度增长。G...
-
chatgpt和 github copilot chat哪个更强
chatgpt大家应该都不陌生 ChatGPT 是由 OpenAI 开发的一种基于 GPT(生成式预训练模型)的聊天机器人。它可以生成语言上下文相关的响应,从而进行自然语言对话。ChatGPT 利用大规模的语言数据进行预训练,并通过微调或在线学习来适应特...
-
铁了心要打败OpenAI!坚信开源打败闭源!这家知名数据厂商4个月打造最强开源大模型!性能超越Claude3,速度是羊驼2倍
撰稿 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 大模型领域,迭代的速度简直要以天计算。昨天,大家还在热议Claude3超大杯版Opus在Elo Rating榜单上取代GPT4-Turbo-1106成为了新王。今天大家又发现开源...
-
DBRX抢占开源大模型王座 编程、数学等领域超越GPT-3.5
最新开源大语言模型DBRX以其惊人的1320亿参数量成为业界新宠。该模型不仅在语言理解、编程和数学等方面超越了业内领先的开源模型,还在效率上有所突破。DBRX的基础和微调版本均已发布,为研究和商业应用提供了丰富的资源。 GitHub 链接:https:/...
-
理想汽车 Mind GPT 多模态认知大模型通过国家备案
今日,理想汽车宣布其全自研的多模态认知大模型——Mind GPT,已正式通过国家《生成式人工智能服务管理暂行办法》的备案。这一里程碑式的事件标志着理想汽车成为首个通过该备案的汽车厂商自研大模型。 Mind GPT,这款在汽车智能座舱中落地应用的大模型,其...
-
新开源之王来了!1320亿参数,逻辑数理全面打赢Grok,还比Llama2-70B快1倍
“最强”开源大模型之争,又有新王入局: 大数据巨头Databricks,刚刚发布MoE大模型DBRX,并宣称: 它在基准测试中击败了此前所有开源模型。 包括同为混合专家模型的Grok-1和Mixtral。 新王搅局,迅速引发了开源社区的热议。 毕竟,仅...
-
号称全球最强开源 AI 模型,DBRX 登场:1320 亿参数,语言理解、编程能力等均超 GPT-3.5
3 月 28 日消息,初创公司 Databricks 近日发布公告,推出了开源 AI 模型 DBRX,声称是迄今为止全球最强大的开源大型语言模型,比 Meta 的 Llama 2 更为强大。 DBRX 采用 transformer 架构,包含 1320...
-
20240202在Ubuntu20.04.6下使用whisper.cpp的显卡模式
20240202在Ubuntu20.04.6下使用whisper.cpp的显卡模式 2024/2/2 19:43 【结论:在Ubuntu20.04.6下,确认large模式识别7分钟中文视频,需要356447.78 ms,也就是356.5秒,需要大概5...
-
怎么调用文心一言的api接口生成一个简单的聊天机器人(python代码)
寒假在学习大模型,但也没弄出多少眉目,电脑性能还有点小问题,大模型总跑不起来,只会简单调用一下现有的大模型的接口,例如:文心一言,下面展示一下代码: import tkinter as tk import requests import json #此...
-
两分钟1200帧的长视频生成器StreamingT2V来了,代码将开源
广阔的战场,风暴兵在奔跑…… prompt:Wide shot of battlefield, stormtroopers running... 这段长达 1200 帧的 2 分钟视频来自一个文生视频(text-to-video)模型,尽管 AI 生成...
-
【wails】(8):发现一个用golang重写llama.cpp的llama.go项目,经测试支持f32模型,半年未更新,找到llama.cpp对应的版本,可以转换f32模型
1,项目地址 https://github.com/gotzmann/llama.go 项目最后的发布时间是2023年4月28日 项目是把 llama.cpp 的项目重写使用 golang 重写了下。 https://www.bilibili.co...
-
Claude 3反超GPT-4竞技场登顶!小杯Haiku成开发者新宠:性价比无敌
GPT-4真的被反超了! 大模型竞技场上,Claude 3大杯Opus新王登基,Elo分数来到榜首。 连小杯Haiku也跻身第二梯队,超过了GPT-4-0613这个型号,把GPT-3.5-turbo远远甩在身后。 Haiku的输入token价格,可...
-
详解Latte:去年底上线的全球首个开源文生视频DiT
随着 Sora 的成功发布,视频 DiT 模型得到了大量的关注和讨论。设计稳定的超大规模神经网络一直是视觉生成领域的研究重点。DiT [1] 的成功为图像生成的规模化提供了可能性。 然而,由于视频数据的高度结构化与复杂性,如何将 DiT 扩展到视频生成领...
-
AIGC专题:Sora实现文生视频跨越式突破,AIGC持续正反馈
今天分享的是AIGC专题系列深度研究报告:《AIGC专题:Sora实现文生视频跨越式突破,AIGC持续正反馈》。 (报告出品方:国联证券) 报告共计:16页 来源:人工智能学派 Sora 模型实现众多突破 2 月 16 日,OpenAI 发布了文...
-
用户群组分析Cohort、RFM分层模型、KMeans用户聚类模型对比实战
本文转载自微信公众号「 尤而小屋」,作者尤而小屋 。转载本文请联系尤而小屋公众号。 大家好,我是Peter~ 本文介绍用户群组分析Cohort analysis、RFM用户分层模型、Kmeans用户聚类模型的完整实施过程。 部分结果显示: (1)群组分析...
-
LLM大模型之基于SentencePiece扩充LLaMa中文词表实践
LLM大模型之基于SentencePiece扩充LLaMa中文词表实践 目前大模型的词表和分词器都是基于SentencePiece工具实现的,比如LLaMa,BLOOM,ChatGLM,Baichuan等,简单来说SentencePiece就是工程化的...
-
stable-diffusion-webui中stability的sdv1.5和sdxl模型结构config对比
sdv1.5 v1-inference.yaml model: base_learning_rate: 1.0e-04 target: ldm.models.diffusion.ddpm.LatentDiffusion params:...
-
400米2分34秒破纪录!伯克利双足机器人「接管」人类
UC伯克利的双足机器人,跑步又破纪录了! 最近,HYBRID ROBOTICS研究团队的Cassie,给我们来了一段惊艳的表演—— 以2分34秒的成绩,跑完了400米! 随后,它又在不需要额外训练的情况下,完成了1.4米的跳远。 是的,相信你已经注意到了...
-
突破性的百万级视频和语言世界模型:Large World Model~
本文经自动驾驶之心公众号授权转载,转载请联系出处。 在探索如何让AI更好地理解世界方面,最近的一项突破性研究引起了广泛关注。来自加州大学伯克利分校的研究团队发布了“Large World Model, LWM”,能够同时处理百万级长度的视频和语言序列,...
-
LLM(大语言模型)——Springboot集成文心一言、讯飞星火、通义千问、智谱清言
目录 引言 代码完整地址 入参 出参 Controller Service Service实现类 模型Service 入参转换类 文心一言实现类 讯飞星火实现类 通义千问实现类 智谱清言实现类 引言 本文将...
-
TensorFlow深度学习框架模型推理Pipeline进行人像抠图推理
概述 为了使ModelScope的用户能够快速、方便的使用平台提供的各类模型,提供了一套功能完备的Python library,其中包含了ModelScope官方模型的实现,以及使用这些模型进行推理,finetune等任务所需的数据预处理,后处理,效果...
-
通用图大模型HiGPT:一己之力建模任何图结构关系!来自港大数据智能实验室&百度
一个模型建模所有图结构关系—— 香港大学数据智能实验室最新图结构大模型来了。 它叫HiGPT,由GraphGPT原班人马打造。 后者是将图数据与大模型结合的代表方法之一: 通过用图指令微调将图数据与大模型对齐,在下游任务上一度彰显了惊人的泛化性(Zero...
-
CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术
视频理解的核心目标在于对时空表示的把握,这存在两个巨大挑战:短视频片段存在大量时空冗余和复杂的时空依赖关系。尽管曾经占主导地位的三维卷积神经网络 (CNN 和视频 Transformer 通过利用局部卷积或长距离注意力有效地应对其中之一的挑战,但它们在...
-
利用MindsDB和Anyscale微调Mistral 7B模型
在我们为面向客户的聊天应用制作大语言模型 (LLM 时,预训练模型往往是很好的起点,但随着时间的推移,您可能希望去控制该模型聊天的整体行为和给客户带去的“感觉”,而不仅仅由基本模型所能提供。对此,我们虽然可以通过提示工程(prompt engineeri...
-
3D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑
在最近的研究中,视觉-语言-动作(VLA,vision-language-action)模型的输入基本都是2D数据,没有集成更通用的3D物理世界。 此外,现有的模型通过学习「感知到动作的直接映射」来进行动作预测,忽略了世界的动态性,以及动作和动态之间的关...
-
一文告诉你如何用 Python 操作 ChatGPT
楔子 ChatGPT 相信大家都用过,你觉得它给你的工作带来了多少帮助呢?目前我们使用 ChatGPT 的方式是通过浏览器访问 chat.openai.com,然后输入问题,就像下面这样。 图片 除了网页之外,ChatGPT 还提供了 API...
-
讨论下一个token预测时,我们可能正在走进陷阱
自香农在《通信的数学原理》一书中提出「下一个 token 预测任务」之后,这一概念逐渐成为现代语言模型的核心部分。最近,围绕下一个 token 预测的讨论日趋激烈。 然而,越来越多的人认为,以下一个 token 的预测为目标只能得到一个优秀的「即兴表演艺...
-
剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器
论文链接:https://arxiv.org/abs/2402.08327 DEMO 链接:https://u60544-b8d4-53eaa55d.westx.seetacloud.com:8443/ 项目主页链接:https://preflm...
-
使用GaLore在本地GPU进行高效的LLM调优
训练大型语言模型(llm ,即使是那些“只有”70亿个参数的模型,也是一项计算密集型的任务。这种水平的训练需要的资源超出了大多数个人爱好者的能力范围。为了弥补这一差距,出现了低秩适应(LoRA 等参数高效方法,可以在消费级gpu上对大量模型进行微调。 G...
-
《宫保鸡丁》杀入全球AI音乐榜前十!音乐版ChatGPT被玩疯了
等等,用菜谱做歌词?! 当《宫保鸡丁》碰上音乐剧,瞬间高大上了起来~于是这首歌随即登上了全球AI音乐热门榜前十。 这两天,这个被称之为音乐版ChatGPT——Suno被玩疯了。 △图源网友@vigorxu 来听听这效果。 同时火的还有船新版《水调歌头》...
-
通用文档理解新SOTA,多模态大模型TextMonkey来了
最近,华中科技大学和金山的研究人员在多模态大模型 Monkey [1](Li et al., CVPR2024)工作的基础上提出 TextMonkey。在多个场景文本和文档的测试基准中,TextMonkey 处于国际领先地位,有潜力带来办公自动化、智慧教...
-
3140参数Grok-1推理加速3.8倍,PyTorch+HuggingFace版来了
马斯克说到做到开源Grok-1,开源社区一片狂喜。 但基于Grok-1做改动or商用,都还有点难题: Grok-1使用Rust+JAX构建,对于习惯Python+PyTorch+HuggingFace等主流软件生态的用户上手门槛高。 △图注:Grok登...
-
零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步
物体姿态估计在许多现实世界应用中起到至关重要的作用,例如具身智能、机器人灵巧操作和增强现实等。 在这一领域中,最先受到关注的任务是实例级别 6D 姿态估计,其需要关于目标物体的带标注数据进行模型训练,使深度模型具有物体特定性,无法迁移应用到新物体上。后来...
-
llama factory 参数体系EvaluationArguments、DataArguments、FinetuningArguments、FreezeArguments、LoraArgument
项目地址 https://github.com/hiyouga/LLaMA-Factory 模型层参数 这段代码是使用Python的dataclasses模块定义的一个数据类ModelArguments,用于管理和存储与模型微调相关的参数。这个类的设计是...
-
阿里、百度双双出手,大模型长文本时代终于到来?
AGI时代,越来越近了。 全民Long-LLM时代终于到来。 本月,中国初创AGI(通用人工智能)公司月之暗面宣布旗下大模型工具Kimi Chat正式升级到200万字参数量,与五个月前该大模型初次亮相时的20万字相比,提升十倍。Kimi Chat的升级彻底...
-
Stable Diffusion 商业变线与绘画大模型多场景实战讠果fx
Stable Diffusion 商业变现与绘画大模型多场景实战 扌并讠果:Ukoou·ㄷㅁΜ Stable Diffusion介绍 Stable Diffusion是2022年发布的深度学习文本到图像生成模型。 它主要用于根据文本的描述产生详细图像,尽...
-
Fastwhisper + Pyannote 实现 ASR + 说话者识别
文章目录 前言 一、faster-whisper简单介绍 二、pyannote.audio介绍 三、faster-whisper + pyannote.audio 实现语者识别 四、多说几句 前言 最近在研究ASR相关的业务,也...
-
申请Github Education获取免费Copilot权限(2024.3.18实测成功)
起因:旧帐户Copilot权限被封 我已经离开Github Copilot就无法独自耐着性子写代码了(懒惰+AI成瘾性),这两天Github Copilot不知道为什么在大规模封号,我不幸也被封号了(禁用掉了Github Copilot权限),具体表现为...
-
大模型之Llama系列- LlaMA 2及LLaMA2_chat(上)
LlaMA 2是一个经过预训练与微调的基于自回归的transformer的LLMs,参数从7B至70B。同期推出的Llama 2-Chat是Llama 2专门为对话领域微调的模型。 在许多开放的基准测试中Llama 2-Chat优于其他开源的聊天模型,此外...
-
【本地大模型部署与微调】ChatGLM3-6b、m3e、one-api、Fastgpt、LLaMA-Factory
本文档详细介绍了使用ChatGLM3-6b大模型、m3e向量模型、one-api接口管理以及Fastgpt的知识库,成功的在本地搭建了一个大模型。此外,还利用LLaMA-Factory进行了大模型的微调。 1.ChatGLM3-6b 2.m3e 3....
-
吴恩达:AI智能体工作流今年将有巨大进展,可能超过下一代基础模型
随着 ChatGPT、GPT-4、Sora 的陆续问世,人工智能的发展趋势引起了广泛关注,特别是 Sora 让生成式 AI 模型在多模态方面取得显著进展。人们不禁会问:人工智能领域下一个突破方向将会是什么? 今天,人工智能著名学者、斯坦福大学教授吴恩达指...
-
百度5款大模型上新,更小更便宜!还可1分钟零代码打造Agent应用
零代码1分钟,构建一个Agent应用。 做一个“英语作文批改小帮手”应用,只需在AppBuilder中输入应用名称或者希望开发的功能,平台就能自动生成应用。 再通过简单的调整角色指令、添加所需工作组件,即可生成应用。 发布后马上可使用,从创建到分发,...
-
符尧大佬一作发文,仅改训练数据,就让LLaMa-2上下文长度扩展20倍!
引言:探索语言模型的长上下文能力 近日,谷歌推出了Gemini Pro 1.5,将上下文窗口长度扩展到100万个tokens,目前领先世界。而其他语言模型也正在不断探索长上下文能力,也就是模型处理和理解超出其训练时所见上下文长度的能力。例如,一个模型可能...