-
谷歌DeepMind爆火动画18秒解释LLM原理,网友蒙圈!组团求GPT-4下场分析
Google DeepMind最近在自己的视频博客上上传了一段视频,「简单明了地」演示了大语言模型的工作原理,引发了网友的激烈讨论。 网友看了之后纷纷表示: 「终于,他们发了点普通人能看懂的东西了」。 「哦豁,这下懂了」 「对,就是这么简单!」 「太...
-
LLaMA系列 | LLaMA和LLaMA-2精简总结
文章目录 1、LLaMA 1.1、模型结构 1.2、训练方式 1.3、结论 2、LLaMA-2 2.1、相比LLaMA1的升级 2.3、模型结构 2.3.1、MHA, MQA, GQA区别与联系 2.4、训练方式 1、L...
-
Llama 2 with langchain项目详解(一)
Llama 2 with langchain项目详解(一) 2023年2月25日,美国Meta公司发布了Llama 1开源大模型。随后,于2023年7月18日,Meta公司发布了Llama 2开源大模型,该系列包括了70亿、130亿和700亿等不同参数规模...
-
文心一言:中国版“ChatGPT”测评
?导读:本文主要介绍chatgpt概念及相关产品,重点介绍文心一言,通过对比Chatgpt、新必应及文心一言进行测评,对比仅挑选几个例子,主要展示文心一言在各方面的能力,大家感兴趣可以去官网申请等待,欢迎关注! 一、ChatGPT简介 Chat...
-
AIGC专栏1——Pytorch搭建DDPM实现图片生成
AIGC专栏1——Pytorch搭建DDPM实现图片生成 学习前言 源码下载地址 网络构建 一、什么是Diffusion 1、加噪过程 2、去噪过程 二、DDPM网络的构建(Unet网络的构建) 三、Diffusion的训练思路 利用D...
-
【AIGC】1、爆火的 AIGC 到底是什么 | 全面介绍
文章目录 一、AIGC 的简要介绍 二、AIGC 的发展历程 三、AIGC 的基石 3.1 基本模型 3.2 基于人类反馈的强化学习 3.3 算力支持 四、生成式 AI(Generative AI) 4.1 单模态 4.1.1 生成式语...
-
科普神文,GPT背后的Transformer模型
上次《解读AI大模型,从了解token开始》一文中,我从最基础的概念“token”着手,跳过了复杂的算法逻辑,相信已经让大家建立起对AI大模型工作原理的清晰认知。 但如果仅仅只是依靠对文本的编码与数据分析,那人工智能时代应该早就到来了,为什么唯独是GPT...
-
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
国内大模型创业公司,正在技术前沿创造新的记录。 10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。 这相当于让大模型一次处理约 35 万个汉字,长度...
-
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构
图神经网络(Graph Neural Networks)已经成为分析和学习图结构数据的强大框架,推动了社交网络分析、推荐系统和生物网络分析等多个领域的进步。 图神经网络的主要优势在于它们能够捕获图数据中固有的结构信息和依赖关系。利用消息传递和聚合机制,图...
-
GraphAlign:通过图匹配增强多模态3D目标检测的准确特征对齐
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:GraphAlign: Enhancing Accurate Feature Alignment by Graph matching for Multi-Modal 3D Object Det...
-
首个多视角自动驾驶场景视频生成世界模型 | DrivingDiffusion: BEV数据和仿真新思路
笔者的一些个人思考 在自动驾驶领域,随着BEV-based子任务/端到端方案的发展,高质量的多视图训练数据和相应的仿真场景构建愈发重要。针对当下任务的痛点,“高质量”可以解耦成三个方面: 不同维度上的长尾场景:如障碍物数据中近距离的车辆以及切车过程中...
-
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数
只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?! 还是在只有70亿参数的LLaMA 2上。 要知道,即使是当前最火的Claude 2和GPT-4,支持上下文长度也不过10万和3.2万,超出这个范围大模型就会开始胡言乱语、记不...