-
大模型被偷家!CNN搞多模态不弱于Transfromer(腾讯&港中文)
本文经自动驾驶之心公众号授权转载,转载请联系出处。 腾讯AI实验室与港中文联合团队提出了一种新的CNN架构,图像识别精度和速度都超过了Transformer架构模型。 切换到点云、音频、视频等其他模态,也无需改变模型结构,简单预处理即可接近甚至超越SO...
-
大模型+机器人,详尽的综述报告来了,多位华人学者参与
大模型的出色能力有目共睹,而如果将它们整合进机器人,则有望让机器人拥有一个更加智能的大脑,为机器人领域带来新的可能性,比如自动驾驶、家用机器人、工业机器人、辅助机器人、医疗机器人、现场机器人和多机器人系统。 预训练的大型语言模型(LLM)、大型视觉 -...
-
超越BEVFusion!Lift-Attend-Splat:最新BEV LV融合方案
本文经自动驾驶之心公众号授权转载,转载请联系出处。 论文:Lift-Attend-Splat: Bird’s-eye-view camera-lidar fusion using transformers 链接:https://arxiv.org/pd...
-
LLaMa、Qwen、ChatGLM、ChatGLM2的区别
LLaMa、Qwen、ChatGLM、ChatGLM2的区别 以下比较的前提是首先和BERT(transfomer 的对比 感谢帮忙给我github repository的star,更多最新模型长期更新:https://github.com/zysN...
-
conda环境下RuntimeError: Couldn‘t determine Stable Diffusion‘s hash问题解决
1 问题描述 在部署stable-diffusion-webui项目时,出现RuntimeError: Couldn't determine Stable Diffusion's hash错误,错误信息如下: [root@localhost stab...
-
一文读懂常用的 “生成式 AI 库”
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI)生态领域相关的技术 - GenerativeAI Library(生成式 AI 库) ,本文将继续聚焦在针对 Gen AI Library 的技术进行解析,使得大家能够了解 G...
-
Chat、GPT-4 加上 Midjourney = 一个完美的团队?我可以使用这两种工具创建更好的 AI 图像吗?
每个使用 AI 的人都听说过 Chat GPT,我也听说过。当然,您可以将它用于不同的目的,但我立即想到将它用作 Midjourney 的文本提示编写器。 我在 openai 网站上用我的电子邮件和电话号码注册了一个新帐户,然后开始玩。 什么是“聊天...
-
挑战Transformer的Mamba是什么来头?作者博士论文理清SSM进化路径
在大模型领域,Transformer 凭一己之力撑起了整个江山。但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显,比如其自注意力机制的计算量会随着上下文长度的增加呈平方级增长。为了克服这些缺陷,研究者们开发出了很多...
-
LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention
Paper name LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention Paper Reading Note Paper URL: htt...
-
LLama Factory 安装部署实操记录(二)
1. 项目地址 GitHub - hiyouga/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM E...
-
Point Transformer V3:更简单、更快、更强!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:Point Transformer V3: Simpler, Faster, Stronger 论文链接:https://arxiv.org/pdf/2312.10035.pdf 代码链接:h...
-
大模型被偷家!腾讯港中文新研究修正认知:CNN搞多模态不弱于Transfromer
在Transformer占据多模态工具半壁江山的时代,大核CNN又“杀了回来”,成为了一匹新的黑马。 腾讯AI实验室与港中文联合团队提出了一种新的CNN架构,图像识别精度和速度都超过了Transformer架构模型。 切换到点云、音频、视频等其他模态,也无...
-
Llama 2 with langchain项目详解(三)
Llama 2 with langchain项目详解(三) 17.3 Llama 2 with langchain基础 本节讲解在LangChain中使用Llama 2模型的基础知识,展示如何运行LangChain的代码,及在云端运行Llama 2的700...
-
大火的AIGC是什么?能用到工作中哪些地方?
一.AIGC是什么? AIGC(即Artificial Intelligence Generated Content),中文译为人工智能生成内容。简单来说,就是以前本来需要人类用思考和创造力才能完成的工作,现在可以利用人工智能技术来替代我们完成。 在...
-
AI绘画中CLIP文本-图像预训练模型
介绍 OpenAI 在 2021 年提出了 CLIP(Contrastive Language–Image Pretraining)算法,这是一个先进的机器学习模型,旨在理解和解释图像和文本之间的关系。CLIP 的核心思想是通过大规模的图像和文本对进行...
-
零一万物回应「抄袭 LLaMA」;京东原副总裁试用可穿戴人工喉丨 RTE 开发者日报 Vol.85
开发者朋友们大家好: 这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE (Real Time Engagement) 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的...
-
【AIGC】baichuan-7B大模型
百川智能|开源可商用的大规模预训练语言模型baichuan-7B大模型 概述 baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持...
-
谷歌创始人亲自给Gemini写代码,很核心那种
身价1050亿美元,每天还在亲自动手敲代码!? 就连谷歌最新大招Gemini大模型的核心贡献者名单中,也有他的名字。 没错,他就是谷歌联合创始人谢尔盖·布林(Sergey Brin)。 千亿富翁大老板亲自下场敲代码已是少见,更何况频率是“几乎每天”,这事...
-
stable-diffusion安装和简单测试
参考:https://github.com/CompVis/stable-diffusion理解DALL·E 2, Stable Diffusion和 Midjourney的工作原理Latent Diffusion Models论文解读【生成式AI】淺談圖...
-
【AIGC】Chatglm2-lora微调
ChatGLM2介绍 ChatGLM2-6B源码地址:https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低...
-
Llama中文社区开源预训练Atom-7B-chat大模型体验与本地化部署实测(基于CPU,适配无GPU的场景)
一、模型简介 原子大模型Atom由Llama中文社区和原子回声联合打造,在中文大模型评测榜单C-Eval中位居前十(8月21日评测提交时间)。 Atom系列模型包含Atom-7B和Atom-...
-
ChatGPT vs Bard 背后的技术
自 2022 年 11 月推出以来,OpenAI 的 Chat GPT 引起了广泛关注。但现在,谷歌已经加强了 Bard AI,这是其最新发布的产品之一。 OpenAI 的Chat GPT是一种 AI 语言模型,能够以对话的方式执行文本摘要、语言翻译和问...
-
测试时领域适应的鲁棒性得以保证,TRIBE在多真实场景下达到SOTA
测试时领域适应(Test-Time Adaptation)的目的是使源域模型适应推理阶段的测试数据,在适应未知的图像损坏领域取得了出色的效果。然而,当前许多方法都缺乏对真实世界场景中测试数据流的考虑,例如: 测试数据流应当是时变分布(而非传统领域适应中...
-
最强英文开源模型LLaMA架构探秘,从原理到源码
导读:LLaMA 65B是由Meta AI(原Facebook AI)发布并宣布开源的真正意义上的千亿级别大语言模型,发布之初(2023年2月24日)曾引起不小的轰动。LLaMA的横空出世,更像是模型大战中一个搅局者。虽然它的效果(performance)...
-
LLMs-入门二:基于google云端Colab部署Llama 2
LLMs-入门二:基于google云端Colab部署Llama 2 1、访问网址 2、基础概念 3、选择最适合您的 Colab 方案 4、基于Colab部署开源模型Llama 2 1)在Colab上安装huggingface套件 2)申请调用...
-
stable-diffusion-webui环境部署
stable-diffusion-webui环境部署 1. 环境创建 2. 安装依赖库 3.下载底模 4. 获取lora参数文件 5.运行代码 6. 报错信息 报错1 报错2 1. 环境创建 创建虚拟环境 conda cr...
-
【Stable Diffusion/NovelAI Diffusion的AMD GPU加速推理探索】
测试机子配置: 1:AMD RX6600(显存8g +i5 12600KF 16g内存 (台式机 2:RTX 3070 laptop(显存8g +i7 10870H 32g内存 (HP暗夜精灵笔记本 两台电脑平均性能差不多,当然N卡肯定更好一点 这边...
-
【Bard】谷歌的人工智能工具—Bard初体验
文章目录 一、Bard介绍 二、Bard体验 1、加入Bard的候补名单 2、登入Bard篇 3、使用Bard篇 (1)提供三种预选方式✨ (2)创作生成各类文案 (3)无生成图画能力 (4)支持语音转文本输入✨ (5)支持部分代码生成...
-
基于MindSpore的llama微调在OpenI平台上运行
基于MindSpore的llama微调在OpenI平台上运行 克隆预训练模型 克隆chatglm-6b代码仓,下载分布式的模型文件 git lfs install git clone https://huggingface.co/openlm-...
-
whisper
Robust Speech Recognition via Large-Scale Weak Supervision 介绍 大规模弱监督的训练。先前的方法都是通过大量的无监督学习训练(无监督的数据容易收集,所以通过大量无监督的学习可以训练出一个质量...
-
LLaMA系列模型
1.LLama 1.1 简介 Open and Efficient Foundation Language Models (Open但没完全Open的LLaMA 2023年2月,Meta(原Facebook)推出了LLaMA大模型,使用了1.4...
-
chinese-stable-diffusion中文场景文生图prompt测评集合
我在git上新建了一个仓库,主要是总结一波了chainese-stable-diffusion的模型算法,非常欢迎关注: GitHub - leeguandong/Awesome-Chinese-Stable-Diffusion: 中文文生图stable...
-
一个算命准确度高达78%的AI,让网友都当上了赛博阎王
咱中国人爱算命这事,是刻在骨子里的执念。 出门前要看看黄历、办公室要讲风水、就连谈恋爱换工作也要算算领导和对象的星座和八字合不合适。 算命姿势也是无奇不有,用八字星座塔罗牌已属过去式,寺庙求签不够潮。 这不,有位中国人就在ChatGPT上训练了一个“算命专...
-
【前沿技术】文心一言 PK Chat Gpt
目录 写在前面 一、文心一言 二、Chat GPT 三、对比 四、总结 写在前面 随着人工智能技术的不断发展和普及,越来越多的智能应用走入了人们的日常生活,如智能语音助手、智能客服、机器翻译等等。在这些应用...
-
开源与闭源大模型之战:Llama 2 vs. GPT-4 vs. Claude-2
人工智能一直在以惊人的速度发展,特别是在自然语言处理(NLP)领域。这场革命的领跑者包括三种杰出的人工智能语言模型:Llama 2、GPT-4 和 Claude-2。在这篇博客中,我们将探索这些人工智能巨头,了解他们独特的能力以及他们对各个领域的潜在影响...
-
使用 PyTorch FSDP 微调 Llama 2 70B
引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelerate 和 TRL 库。我们还将展示如何在 SL...
-
开创全新通用3D大模型,VAST将3D生成带入「秒级」时代
生成式 AI 在3D 领域在很长一段时间内都在等待自己的「ChatGPT」时刻。 传统3D 建模涉及游戏、影视、建筑等多个行业,普遍依赖专业人员手动操作,生产周期短则几天,多则以月为单位,单个3D 模型的创建成本至少需要几千元。生成式 AI 技术在2D 图...
-
“Transformer挑战者”Mamba,用Macbook也能跑了!GitHub半天斩获500+星
“Transformer的挑战者”Mamba,用MacBook也能跑了! 有大佬在GitHub上共享了一份笔记,让人们可以用最简单的方式运行Mamba。 这份共享中,算上说明书一共只有三个文件,而且发布不到一天,就斩获了500+星标。 图片 Mamba是...
-
together.ai让AI模型训练快9倍,获NVIDIA参投1.025亿美元A轮融资
目前获得融资最多的两家大模型创业公司是OpenAI和Anthropic,而这两家公司最大的投资者分别是微软和亚马逊,他们投资的很大一部分不是资金,而是等值的云计算资源。这其实也就把这两家顶尖的闭源大模型公司“绑上了”科技巨头的“战车”。 在闭源大模型之外,...
-
LLM-项目详解-Chinese-LLaMA-AIpaca(一):LLM+LoRa微调加速技术原理及基于PEFT的动手实践:一些思考和mt0-large+lora完整案例
如何花费较少的算力成本来进行微调训练,十分重要,当前关于LLaMA、Alpaca、Instruct微调、LoRa微调等多个概念大家讲的很多,最近也在学习,也看到几个有趣的话题(主要参考于(https://github.com/ymcui/Chinese-L...
-
【踩坑指南】Stable Diffusion 服务器端部署笔记
文章目录 下载github文件 配置环境 ckpt文件权重下载 生成图像 NSFW检查(瑟图过滤) 下载github文件 https://github.com/CompVis/stable-diffusion 这个网址,下载压缩包...
-
ggerganov/llama.cpp 编译
ggerganov/llama.cpp - 编译出main可执行程序依赖以下的源代码文件 如果想在 Windows 系统编译出 llama.cpp 项目(这个是github上的仓库, ggerganov/llama.cpp ),需要在Visual St...
-
LLM实践-在Colab上使用免费T4 GPU进行Chinese-Llama-2-7b-4bit推理
一、配置环境 1、打开colab,创建一个空白notebook,在[修改运行时环境]中选择15GB显存的T4 GPU. 2、pip安装依赖python包 !pip install --upgrade accelerate !pip ins...
-
前OpenAI首席科学家Ilya: 只要能够预测下一个token,人类就能达到AGI
近日,Nature将前OpenAI首席科学家Ilya Sutskever评为「2023年10大科学人物」。 这位刚刚因为OpenAI巨变而远离聚光灯的「AI技术灯塔」,似乎并没有做好准备回到公众视野之中。 Nature在介绍他的长文中说「Ilya拒绝了N...
-
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
随着 ChatGPT 等大语言模型(LLM 的不断发展,越来越多的研究人员开始关注语言模型的应用。 其中,检索增强生成(Retrieval-augmented generation,RAG)是一种针对知识密集型 NLP 任务的生成方法,它通过在生成过程中...
-
大语言模型训练数据常见的4种处理方法
本文分享自华为云社区《浅谈如何处理大语言模型训练数据之一常见的数据处理方法》,作者: 码上开花_Lancer。 大语言模型训练需要数万亿的各类型数据。如何构造海量“高质量”数据对于大语言模型的训练具有至关重要的作用。虽然,截止到2023 年9 月为止,还...
-
AIGC大记事【2023-0625】【第五期】:《时代》专访ChatGPT之父:人工智能影响经济还需要很多年
大咖观点: 《时代》专访ChatGPT之父:人工智能影响经济还需要很多年 孙正义:我每天和ChatGPT聊天,一场巨大革命即将到来,软银“终将统治世界!” 刘慈欣谈 ChatGPT:人类的无能反而是人类最后的屏障 AI时代已来,吴恩达呼吁向每个孩...
-
DALL·E2(unCLIP)、Stable Diffusion、IS、FID要点总结
DALL·E 1 DALL·E 1可以看成是VQ-VAE和文本经过BPE编码得到的embedding AE(Auto Encoder) encoder decoder结构,AE在生成任务时只会模仿不会创造,所有有了后面的VAE VAE(Var...
-
2024 年八大生成式 AI 工具类别
需要为组织的开发项目提供特定于生成式 AI 的工具?探索这些工具所属的主要类别及其功能。 ChatGPT 等生成式AI 服务的普及激发了将这些新工具应用于实际企业应用的兴趣。如今,几乎每个企业应用程序都通过生成式 AI 功能进行了增强。 大多数 AI、...
-
大语言模型之四-LlaMA-2从模型到应用
最近开源大语言模型LlaMA-2火出圈,从huggingface的Open LLM Leaderboard开源大语言模型排行榜可以看到LlaMA-2还是非常有潜力的开源商用大语言模型之一,相比InstructGPT,LlaMA-2在数据质量、培训技术、能力...