-
Llama 2 with langchain项目详解(一)
Llama 2 with langchain项目详解(一) 2023年2月25日,美国Meta公司发布了Llama 1开源大模型。随后,于2023年7月18日,Meta公司发布了Llama 2开源大模型,该系列包括了70亿、130亿和700亿等不同参数规模...
-
文心一言:中国版“ChatGPT”测评
?导读:本文主要介绍chatgpt概念及相关产品,重点介绍文心一言,通过对比Chatgpt、新必应及文心一言进行测评,对比仅挑选几个例子,主要展示文心一言在各方面的能力,大家感兴趣可以去官网申请等待,欢迎关注! 一、ChatGPT简介 Chat...
-
LoRa模型训练教程(炼丹,Stable Diffusion)
1. lora介绍(Low Rank Adaption) 何为LoRA?LoRA并不是扩散模型专有的技术,而是从隔壁语言模型(LLM)迁移过来的,旨在解决避免将整个模型参数拷贝下来才能对模型进行调校的问题。因为大型语言模型的参数量过于恐怖,比如最近新出...
-
AIGC专栏1——Pytorch搭建DDPM实现图片生成
AIGC专栏1——Pytorch搭建DDPM实现图片生成 学习前言 源码下载地址 网络构建 一、什么是Diffusion 1、加噪过程 2、去噪过程 二、DDPM网络的构建(Unet网络的构建) 三、Diffusion的训练思路 利用D...
-
【AIGC】1、爆火的 AIGC 到底是什么 | 全面介绍
文章目录 一、AIGC 的简要介绍 二、AIGC 的发展历程 三、AIGC 的基石 3.1 基本模型 3.2 基于人类反馈的强化学习 3.3 算力支持 四、生成式 AI(Generative AI) 4.1 单模态 4.1.1 生成式语...
-
【原创】用 VisualGLM 进行AIGC多模识别和内容生成
最近几个月,整个AI行业的LLM(大语言模型)蓬勃发展,除了过去传统的纯文字的多模态能力的视觉语言模型,如 GPT-4,ImageBind等表现令人印象深刻。 ChatGLM-6B是中文用户使用非常舒服的一个开源中文LLM。2023年5月17日,智谱...
-
万字长文:Stable Diffusion 保姆级教程
万字长文:Stable Diffusion 保姆级教程 2022年绝对是人工智能爆发的元年,前有 stability.ai 开源 Stable Diffusion 模型,后有 Open AI 发布 ChatGPT,二者都是里程碑式的节点事件,其重要性不...
-
AIGC专栏7——EasyPhoto 人像训练与生成原理详解
AIGC专栏7——EasyPhoto 人像训练与生成原理详解 学习前言 源码下载地址 为什么是Lora EasyPhoto的训练流程 1、数据的预处理 a、人像排序 i、人脸特征向量提取过程 ii、人脸偏移角度计算 iii、人像排序 b...
-
文心一言Plugin实战来了,测试开发旅游攻略助手
刚刚过去的8月,百度WAVE SUMMIT 深度学习开发者大会上,重磅发布文心一言的五个原生插件:百度搜索、览卷文档(基于文档的交互)、E 言易图(数据洞察图表生成)、说图解画(基于图片的交互)、一镜流影(文字转视频)。 我们知道大模型的训练过程一般...
-
DeepMind指出「Transformer无法超出预训练数据实现泛化」,但有人投来质疑
距离马斯克的 xAI 公布 Grok 才过去一天,刚刚,xAI 又公布了另一款 AI 产品,一个可用于 prompt 工程和可解释性研究的集成开发环境:PromptIDE。 接连不断的新品发布,也让网友纷纷感叹:「xAI 团队的开发速度简直是疯了!」...
-
面向ADHD的利用HTC Vive采集手部运动数据的可行性研究
虚拟现实技术在辅助注意力缺陷伴多动障碍(Attention Deficit Hyperactivity Disorder,ADHD 的客观诊断中取得了一定成效。为了分析ADHD患者与正常儿童在虚拟环境中手部交互的运动差异,需要追踪被试的手部运动并对其进行...
-
脑电采集理论基础:脑电信号采集方式、分类及特点、伪迹、导联
此博客为个人博客,不涉及商业用途,仅提供学习参考,内容均来自个人原创以及互联网转载和摘录。 此博客上带有原创标识的文章、图片、文件等,未经本人允许,不得用于商业用途以及传统媒体。本文首发于CSDN,版权所有,禁止转载。如需转载,请在评论区留言或私信申请,经...
-
科普神文,GPT背后的Transformer模型
上次《解读AI大模型,从了解token开始》一文中,我从最基础的概念“token”着手,跳过了复杂的算法逻辑,相信已经让大家建立起对AI大模型工作原理的清晰认知。 但如果仅仅只是依靠对文本的编码与数据分析,那人工智能时代应该早就到来了,为什么唯独是GPT...
-
GPU推理提速4倍!FlashDecoding++技术加速大模型推理
推理大模型(LLM)是AI服务提供商面临的巨大经济挑战之一,因为运营这些模型的成本非常高。FlashDecoding++ 是一种新的技术,旨在解决这一问题,它通过提高LLM推理速度和降低成本,为使用大模型赚钱提供了新的可能性。 论文地址:https://...
-
大型语言模型(LLM)技术精要,不看亏了
哈喽,大家好。 今天分享一篇知乎高赞文章,作者是张俊林老师。 图片 读完收获很多,能帮大家更好地理解、学习大模型。原文有2.8w字,我提炼了核心要点,阅读需要10min。 ChatGPT的出现给很多人带来了惊喜和醒悟。有人惊喜地发现大型语言模型(LLM)...
-
2024年人工智能安全发展十大预测
本周三,包括英国、美国和中国在内的近30个国家(以及欧盟)在人工智能安全峰会上达成首个全球性人工智能安全协议,并发布了《人工智能安全宣言》,这标志着人工智能正式进入安全发展的强监管时代。 峰会期间,人工智能意见领袖们就人工智能安全风险的严重性判断产生重...
-
科普神文,一次性讲透AI大模型的核心概念
图片 令牌,向量,嵌入,注意力,这些AI大模型名词是否一直让你感觉熟悉又陌生,如果答案肯定的话,那么朋友,今天这篇科普神文不容错过。我将结合大量示例及可视化的图形手段,为你由浅入深一次性讲透AI大模型的核心概念。 引言 随着科技公司及国际竞争的不断推进,...
-
Nuscenes最新SOTA | DynamicBEV超越PETRv2/BEVDepth!
1. 论文信息 2. 引言 这篇论文介绍了一种新的3D object detection方法,这对于自动驾驶、机器人技术和监控等应用至关重要。传统的3D object detection方法使用鸟瞰视角(BEV)方法,将3D场景简化为2D表示。然而,常...
-
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
国内大模型创业公司,正在技术前沿创造新的记录。 10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。 这相当于让大模型一次处理约 35 万个汉字,长度...
-
图模型也要大?清华朱文武团队有这样一些观点
在大模型时代,图机器学习面临什么样的机遇和挑战?是否存在,并该如何发展图的大模型?针对这一问题,清华大学朱文武教授团队首次提出图大模型(Large Graph Model)概念,系统总结并梳理了图大模型相关的概念、挑战和应用;进一步围绕动态性和可解释性,...
-
科学春晚,还得是B站:稚晖君机械臂搭广寒宫,院士下半身直接消失
听闻B站要搞一场科学春晚——超级科学晚。 这种热闹,我们必然火速赶到第一现场来感受感受。 作为一场科学为主题的晚会,最值得关注的自然是在晚会中展示的一个个创意实验。 最令现场“wow”声一片的,是中国科学院院士褚君浩解释葫芦娃六娃的隐身秘诀。还原地演示了...
-
苹果文生图大模型亮相:俄罗斯套娃式扩散,支持1024x1024分辨率
在生成式 AI 时代,扩散模型已经成为图像、视频、3D、音频和文本生成等生成式 AI 应用的流行工具。然而将扩散模型拓展到高分辨率领域仍然面临巨大挑战,这是因为模型必须在每个步骤重新编码所有的高分辨率输入。解决这些挑战需要使用带有注意力块的深层架构,这使...
-
IDC FutureScape:人工智能将重塑IT行业和商业运营方式
IDC发布了其对2024年及以后全球信息技术行业的预测——FutureScape(未来景象)报告。这份报告揭示了IDC对IT行业未来的十大预测,以及随着组织寻求扩展其数字业务,“无处不在的人工智能”将如何影响技术决策。 今年的预测主要集中在人工智能(A...
-
AI视野:百川发布Baichuan2-192K大模型;DALL·E3新增种子功能;ChatGPT Plus会员可上传和分析文件;谷歌Bard支持实时生成回复
????大模型动态 百川智能发布Baichuan2-192K大模型,可处理35万汉字 百川智能发布了Baichuan2-192K大模型,拥有全球最长的上下文窗口,处理约35万个汉字,超越了Claude2。 百川大模型官网:https://top.aibas...
-
比Transformer更好,无Attention、MLPs的BERT、GPT反而更强了
从 BERT、GPT 和 Flan-T5 等语言模型到 SAM 和 Stable Diffusion 等图像模型,Transformer 正以锐不可当之势席卷这个世界,但人们也不禁会问:Transformer 是唯一选择吗? 斯坦福大学和纽约州立大学布法...
-
最好7B模型再易主!打败700亿LLaMA2,苹果电脑就能跑
花500刀“调教”的70亿参数模型,打败700亿参数的Llama 2! 且笔记本就能轻松跑,效果媲美ChatGPT。 重点:免费、不要钱。 HuggingFace H4团队打造的开源模型Zephyr-7B,鲨疯了。 其底层模型是前段时间爆火、由有着“欧...
-
新研究:鸽子解决问题的方式类似于人工智能
一项由美国俄亥俄州立大学和爱荷华大学的研究人员进行的研究发现,鸽子在解决问题时使用了一种类似于人工智能的“暴力算法”方法。 俄亥俄州立大学的心理学教授布兰登・特纳说,研究人员发现“有非常强的证据表明,鸽子的学习机制与现代机器学习和人工智能技术的原理相似...
-
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构
图神经网络(Graph Neural Networks)已经成为分析和学习图结构数据的强大框架,推动了社交网络分析、推荐系统和生物网络分析等多个领域的进步。 图神经网络的主要优势在于它们能够捕获图数据中固有的结构信息和依赖关系。利用消息传递和聚合机制,图...
-
GraphAlign:通过图匹配增强多模态3D目标检测的准确特征对齐
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:GraphAlign: Enhancing Accurate Feature Alignment by Graph matching for Multi-Modal 3D Object Det...
-
35年首次证明,NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4
【新智元导读】Nature刊登了纽约大学等机构的研究人员在人工智能领域最新突破,证明神经网络具有类似人类语言的泛化性能,再一次印证了AI发展的无限潜力! 35年来,认知科学、人工智能、语言学和哲学领域的研究人员一直在争论神经网络是否能实现类似人类的系统泛...
-
35年首次证明!NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4
35年来,认知科学、人工智能、语言学和哲学领域的研究人员一直在争论神经网络是否能实现类似人类的系统泛化。 具体来说,人们一直认为,AI无法像人类一样具有「系统泛化(systematic generalization)」能力,不能对没有经过训练的知识做到「...
-
让大模型看图比打字管用!NeurIPS 2023新研究提出多模态查询方法,准确率提升7.8%
大模型“识图”能力都这么强了,为啥还老找错东西? 例如,把长得不太像的蝙蝠和拍子搞混,又或是认不出一些数据集中的稀有鱼类…… 这是因为,我们让大模型“找东西”时,往往输入的是文本。 如果描述有歧义或太偏门,像是“bat”(蝙蝠还是拍子?)或“魔鳉”(Cy...
-
首个多视角自动驾驶场景视频生成世界模型 | DrivingDiffusion: BEV数据和仿真新思路
笔者的一些个人思考 在自动驾驶领域,随着BEV-based子任务/端到端方案的发展,高质量的多视图训练数据和相应的仿真场景构建愈发重要。针对当下任务的痛点,“高质量”可以解耦成三个方面: 不同维度上的长尾场景:如障碍物数据中近距离的车辆以及切车过程中...
-
物流领域高效利用GenAI的关键是理解用例
虽然一开始可能并不清楚GenAI如何应用于主要运输货物的功能,但我们的研究指出了将GenAI功能应用于物流目标的机会。在采用时,不要让你的团队一头扎进GenAI试点,企业领导今天应该把他们的注意力集中在用例的构思和优先级上。 构思和优先顺序 首先,...
-
HiLM-D:自动驾驶多模态大语言模型玩出花了
本文经自动驾驶之心公众号授权转载,转载请联系出处。 笔者个人的一些思考 不得不说,最近大模型在学术界火起来了,基于图文匹配的CLIP预训练模型成为近年来在多模态研究领域的经典之作。除此之外,大语言模型的蓬勃发展也进一步为多模态带来了性能提升。自动驾驶领...
-
人工智能迈入天文学的新纪元:由 AI 发现的新超新星
人工智能正在天文学领域迈出更大的步伐。近日,一个新的超新星被 AI 发现的消息引起了人们的关注。美国西北大学的天文学家带领团队开发出了世界上首个由 AI 驱动、全自动的超新星检测系统,该系统得以成功发现了这个新的超新星,这一过程有望为未来的恒星爆发研究提供...
-
人工智能迈入天文学的新纪元:由 AI 发现的新超新星
人工智能正在天文学领域迈出更大的步伐。近日,一个新的超新星被 AI 发现的消息引起了人们的关注。美国西北大学的天文学家带领团队开发出了世界上首个由 AI 驱动、全自动的超新星检测系统,该系统得以成功发现了这个新的超新星,这一过程有望为未来的恒星爆发研究提供...
-
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数
只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?! 还是在只有70亿参数的LLaMA 2上。 要知道,即使是当前最火的Claude 2和GPT-4,支持上下文长度也不过10万和3.2万,超出这个范围大模型就会开始胡言乱语、记不...