-
一文读懂 Arthur Bench LLM 评估框架
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - LLM 评估 。 众所周知,LLM 评估是人工智能领域的一个重要议题。随着 LLM 在各个场景中的广泛应用,评估它们的能力和局限性变得越来越重要。作为一款新兴...
-
AIGC全面介绍
随着人工智能技术的飞速发展,AIGC(Artificial Intelligence Generated Content)作为人工智能领域的重要分支,正逐渐崭露头角,成为推动人类社会进步的重要力量。本文将对AIGC进行全面介绍,包括其定义、发展历程、技术原...
-
LLM大模型推理加速实战:vllm、fastllm与llama.cpp使用指南
随着人工智能技术的飞速发展,大型语言模型(LLM)在诸如自然语言处理、智能问答、文本生成等领域的应用越来越广泛。然而,LLM模型往往具有庞大的参数规模,导致推理过程计算量大、耗时长,成为了制约其实际应用的关键因素。为了解决这个问题,一系列大模型推理加速工具...
-
LLaMA-Factory参数的解答(命令,单卡,预训练)
前面这个写过,但觉得写的不是很好,这次是参考命令运行脚本,讲解各个参数含义。后续尽可能会更新,可以关注一下专栏!! *这是个人写的参数解读,我并非该领域的人如果那个大佬看到有参数解读不对或者有补充的请请反馈!谢谢(后续该文章可能会持续更新) * LLaMA...
-
Hugging Face全攻略:轻松下载Llama 3模型,探索NLP的无限可能!【实操】
Hugging Face:自然语言处理的强大开源模型库 在数字化时代,自然语言处理(NLP)技术的崛起为人工智能的发展注入了新的活力。而Hugging Face,作为这一领域的佼佼者,凭借其强大的模型仓库、易用的API以及活跃的社区支持,成为无数NL...
-
Stable Diffusion Windows本地部署超详细教程(手动+自动+整合包三种方式)
一、 Stable Diffusion简介 2022年作为AIGC(Artificial Intelligence Generated Content)时代的元年,各个领域的AIGC技术都有一个迅猛的发展,给工业界、学术界、投资界甚至竞赛...
-
我们该如何看待AIGC(人工智能)
目录 AIGC的概述: AIGC的发展经历: AIGC的发展带来的机遇: 我们该如何去看待AIGC: AIGC的概述: @[TOC]( ?文章目录 ---AIGC全称为AI-Generated Content,指基于生成对抗网...
-
一文读懂主流领先的 SLM(小型语言模型)
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - SLM(小型语言模型 。 在 AI 狂卷的浪潮中,LLM(大型语言模型 无疑成为了整个互联网乃至科技界的焦点所在。以 GPT-3、BERT 等为代表的 LL...
-
LLM 评估新纪元:Arthur Bench 全方位解读
一、传统文本评估面临的挑战 近年来,随着大型语言模型(LLM)的快速发展和改进,传统的文本评估方法在某些方面可能已经不再适用。在文本评估领域,我们可能已经听说过一些方法,例如基于“单词出现”的评估方法,比如 BLEU,以及基于“预训练的自然语言处理模型”...
-
利用TimeGPT的深度学习能力实现预测分析的革新
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 人工智能对预测分析产生了根本性的影响,使得预测比以往任何时候都更加精确。各行各业都在充分利用人工智能的强大能力,以预测未来趋势并为即将...
-
综述!深度模型融合(LLM/基础模型/联邦学习/微调等)
23年9月国防科大、京东和北理工的论文“Deep Model Fusion: A Survey”。 深度模型融合/合并是一种新兴技术,它将多个深度学习模型的参数或预测合并为一个模型。它结合了不同模型的能力来弥补单个模型的偏差和错误,以获得更好的性能。然而...
-
十个大型语言模型(LLM)常见面试问题和答案解析
今天我们来总结以下大型语言模型面试中常问的问题 一、哪种技术有助于减轻基于提示的学习中的偏见? A.微调 Fine-tuning B.数据增强 Data augmentation C.提示校准 Prompt calibration D.梯度裁剪 Gra...
-
探索ChatGLM-LLaMA-chinese:新一代AI聊天机器人与多语言建模的创新实践
探索ChatGLM-LLaMA-chinese:新一代AI聊天机器人与多语言建模的创新实践 项目地址:https://gitcode.com/27182812/ChatGLM-LLaMA-chinese-insturct 在人工智能领域,语言模型的...
-
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
继16亿轻量级Stable LM 2推出之后,12B参数的版本在今天亮相了。 见状,不少网友纷纷喊话:干的漂亮!但,Stable Diffusion 3啥时候出啊? 总得来说,Stable LM 2 12B参数更多,性能更强。 120亿参数版本包含了...
-
VAR官网体验入口 自回归式AI视觉生成工具使用地址
VAR是一种新的视觉自回归建模方法,能够超越扩散模型,实现更高效的图像生成。它建立了视觉生成的幂律scaling laws,并具备零shots的泛化能力。VAR提供了一系列不同规模的预训练模型,供用户探索和使用。 点击前往VAR官网体验入口 谁可以从VA...
-
如何为制造业和自动化应用选择现人工智能技术
在工业自动化领域的生产和实验室之外的日常生活中,人工智能(AI 的定义差异很大。 “人工智能”指的是一门包含了几种不同技术和工程学科的科学,包括机器视觉、计算机视觉、机器学习和深度学习。当一个基于这些技术组合的系统设计得当时(从应用分析到最终验证 ,它...
-
无需训练,这个新方法实现了生成图像尺寸、分辨率自由
近期,扩散模型凭借其出色的性能已超越 GAN 和自回归模型,成为生成式模型的主流选择。基于扩散模型的文本到图像生成模型(如 SD、SDXL、Midjourney 和 Imagen)展现了生成高质量图像的惊人能力。通常,这些模型在特定分辨率下进行训练,以确...
-
生成型人工智能优化框架研究
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 简介 生成类似人类的文本和语音曾经只有在科幻小说中才成为可能。但是,GPT-3和PaLM等大型语言模型(LLM)的快速发展...
-
【讲解下如何Stable Diffusion本地部署】
?博主:程序员不想YY啊 ?CSDN优质创作者,CSDN实力新星,CSDN博客专家 ?点赞?收藏⭐再看?养成习惯 ✨希望本文对您有所裨益,如有不足之处,欢迎在评论区提出指正,让我们共同学习、交流进步! 目录 ?前言 ?前提条件 ?步骤...
-
AIGC学习笔记——DALL-E2详解+测试
它主要包括三个部分:CLIP,先验模块prior和img decoder。其中CLIP又包含text encoder和img encoder。(在看DALL·E2之前强烈建议先搞懂CLIP模型的训练和运作机制,之前发过CLIP博客) 论文地址:https...
-
Transformer引领AI百花齐放:从算法创新到产业应用,一文读懂人工智能的未来
一、引言 近年来,人工智能技术取得了举世瞩目的成果,其中,自然语言处理(NLP)和计算机视觉等领域的研究尤为突出。在这些领域,一种名为Transformer的模型逐渐成为研究热点,以其为核心的创新成果层出不穷。本文将从Transformer的原理、应用和...
-
【保姆级讲解如何Stable Diffusion本地部署】
?个人主页:程序员不想敲代码啊? ?CSDN优质创作者,CSDN实力新星,CSDN博客专家? ?点赞⭐评论⭐收藏 ?希望本文对您有所裨益,如有不足之处,欢迎在评论区提出指正,让我们共同学习、交流进步! Stable Diffusion本地部...
-
llama笔记:官方示例解析 example_chat_completion.py
1 导入库 from typing import List, Optional ''' 从typing模块中导入List和Optional。 typing模块用于提供类型注解的支持,以帮助明确函数预期接收和返回的数据类型。 List用于指定列表...
-
LLaMA-Factory参数的解答
打开LLaMA-Factory的web页面会有一堆参数 ,但不知道怎么选,选哪个,这个文章详细解读一下,每个参数到底是什么含义这是个人写的参数解读,我并非该领域的人如果那个大佬看到有参数不对请反馈一下,或者有补充的也可以!谢谢(后续该文章可能会持续更新)...
-
开源AI到底是什么?业界:超出开源软件范畴,需要重新界定
最近AI圈突然流行起开源概念。Meta承诺将会打造开源AI,马斯克起诉OpenAI,说它缺少开源模型。与此同时,一批科技领袖和科技企业纷纷为开源概念呐喊。不过科技界碰到一个难以解决的根本问题:它们对“开源AI”的概念无法达成共识。 照字面意思,开源A...
-
AIGC 实战:Ollama 和 Hugging Face 是什么关系?
HuggingFace(拥抱脸)和Ollama都与**大型语言模型(LLMs)**有关,但它们的用途不同: HuggingFace: HuggingFace 是一个知名的平台,提供各种预训练的LLMs,包括流行的模型如GPT-3、BERT和...
-
微软NaturalSpeech语音合成推出第三代,网友惊呼:超自然!实至名归
文本到语音合成(Text to Speech,TTS)作为生成式人工智能(Generative AI 或 AIGC)的重要课题,在近年来取得了飞速发展。在大模型(LLM)时代下,语音合成技术能够扩展大模型的语音交互能力,更是受到了广泛的关注。 多年来,微...
-
CMU朱俊彦、Adobe新作:512x512图像推理,A100只用0.11秒
简笔素描一键变身多风格画作,还能添加额外的描述,这在 CMU、Adobe 联合推出的一项研究中实现了。 作者之一为 CMU 助理教授朱俊彦,其团队在 ICCV 2021 会议上发表过一项类似的研究:仅仅使用一个或数个手绘草图,即可以自定义一个现成的 GA...
-
AIGC狂飙对于普通人意味着什么?
AIGC 人工智能生成内容,相对更早的内容生产模式分别为专家生产内容 PGC 和用户生产内容 UGC。而随着 AIGC 出现,内容生产率变成指数级上升。那么AIGC发展对于普通人来说到底意味着什么? 先回顾一下时间轴, 2015年7月,谷歌推出 De...
-
快手程一笑:快意大模型或在半年内达 GPT4.0 水平
今日,快手公司发布了其2023年第四季度及全年业绩报告,数据显示,快手在2023年全年实现了显著的收入增长,总收入高达1134.7亿元,同比增长了20.5%。更值得一提的是,经过调整后,快手的净利润首次突破了百亿元大关,达到了102.7亿元。 在随后的业绩...
-
快手CEO程一笑:自研大模型有信心半年内达GPT4.0水平
快科技3月20日消息,今日,快手发布2023年第四季度及全年业绩,2023全年总收入达1134.7亿元,同比增长20.5%,经调整净利润首次超百亿达102.7亿元。 据媒体报道,在快手业绩电话会上,快手创始人兼CEO程一笑透露,2023年公司启动AI战略后...
-
一文读懂大型语言模型微调技术挑战与优化策略
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI 生态领域相关的技术 - LLM Fine-Tuning ,本文将继续聚焦在针对 LLM Fine-Tuning 技术进行剖析,使得大家能够了解 LLM Fine-Tuning...
-
华为天才少年谢凌曦:关于视觉识别领域发展的个人观点!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 最近,我参加了几个高强度的学术活动,包括CCF计算机视觉专委会的闭门研讨会和VALSE线下大会。经过与其他学者的交流,我产生了许多想法,千头万绪,便希望把它们整理下来,供自己和同行们参考。当然,受限于...
-
巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数
传统的时空预测模型通常需要大量数据支持才能取得良好效果。 然而,由于城市发展水平不均衡和数据收集政策的差异,许多城市和地区的时空数据(如交通和人群流动数据)受到了限制。在这种情况下,模型在数据稀缺情况下的可迁移性变得尤为重要。 现有研究主要利用数据丰富的...
-
LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力
合成数据持续解锁大模型的数学推理潜力! 数学问题解决能力一直被视为衡量语言模型智能水平的重要指标。通常只有规模极大的模型或经过大量数学相关预训练的模型才能有机会在数学问题上表现出色。 近日,一项由 Swin-Transformer 团队打造,来自西安交通...
-
能说会看会行动,OpenAI机器人,一出手就是王炸
「借助 OpenAI 的能力,Figure 01 现在可以与人全面对话了!」 本周三,半个硅谷都在投的明星机器人创业公司 Figure,发布了全新 OpenAI 大模型加持的机器人 demo。 这家公司在 3 月 1 日刚刚宣布获得 OpenAI 等公...
-
如何本地部署Stable Diffusion:详细步骤与指南
Stable Diffusion作为一种前沿的深度学习图像生成技术,在艺术创作、设计、科学可视化等领域展现出巨大的潜力。若您希望在自己的本地环境中部署Stable Diffusion,以下是一份详细的步骤与指南,帮助您成功搭建并运行该模型。 一、准备环境...
-
DALL·E 2 文生图模型实践指南
前言:本篇博客记录使用dalle2模型进行推断时借鉴的相关资料和DEBUG流程。 相关博客:超详细!DALL · E 文生图模型实践指南 目录 1. 环境搭建和预训练模型准备 环境搭建 预训练模型下载 2. 代码 3. B...
-
关于大语言模型LLM相关的数据集、预训练模型、提示词、微调的文心一言问答
文章目录 关于大语言模型LLM相关的数据集、预训练模型、提示词、微调的文心一言问答 先总结一下 Q:LLM模型预训练前与提示词关系,LLM模型预训练后与提示词关系 Q:预训练用的数据集与提示词有什么异同 Q:为什么我看到的数据集结构和提示词结...
-
关于AI智能生成(AIGC),整理一下你该知道这些
什么是AIGC 生成式人工智能(Artificial Intelligence Generated Content) 定义 百度百科 生成式人工智能AIGC(Artificial Intelligence Generated Content)...
-
印度宣布向 AI 领域投资 1037 亿卢比,强化对大语言模型的开发
3 月 8 日消息,印度政府宣布已批准国家级“ IndiaAI 使命”项目,旨在实现“让 AI 在印度扎根”和“让 AI 为印度服务”两大目标,预算达 1037.192 亿卢比(当前约 90.13 亿元人民币)。 据介绍,该项目将由数字印度公司(DI...
-
研究人员推新AI框架CyberDemo:通过视觉观察让机器人模仿学习
加利福尼亚大学圣地亚哥分校(UCSD)和南加利福尼亚大学(USC 的研究人员最近推出了一种名为 CyberDemo 的新型人工智能框架,旨在通过视觉观察进行机器人模仿学习。 传统的模仿学习方法通常需要大量高质量的示范数据来教导机器人完成复杂任务,特别是对...
-
【AIGC】Gemma和ChatGLM3-6B使用体验
近期,谷歌发布了全新的开源模型Gemma,同时智谱AI和清华大学KEG实验室合作推出了ChatGLM3-6B。这两个模型都是先进的对话预训练模型,本文将对它们进行对比,并分享使用体验。 先上效果 ChatGLM3-6B: ChatG...
-
通义千问1.5(Qwen1.5)大语言模型在PAI-QuickStart的微调与部署实践
作者:汪诚愚(熊兮)、高一鸿(子洪)、黄俊(临在) Qwen1.5(通义千问1.5)是阿里云最近推出的开源大型语言模型系列。作为“通义千问”1.0系列的进阶版,该模型推出了多个规模,从0.5B到72B,满足不同的计算需求。此外,该系列模型还包括了Base...
-
AIGC 实战:如何使用 Ollama 开发自定义的大模型(LLM)
虽然 Ollama 提供了运行和交互式使用大型语言模型(LLM)的功能,但从头开始创建完全定制化的 LLM 需要 Ollama 之外的其他工具和专业知识。然而,Ollama 可以通过微调在定制过程中发挥作用。以下是细分说明: 预训练模型选择: Oll...
-
DUSt3R官网体验入口 3D重建工具AI应用免费使用下载地址
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种...
-
华为云盘古大模型通过金融大模型标准符合性验证
据华为官方消息,2023年12月,在中国信通院组织的可信AI大模型标准符合性验证中,华为云盘古大模型成功完成了金融大模型的验证,并获得了优秀级(4+级)评分。这一成绩不仅突显了华为云盘古大模型在金融领域的卓越性能,还使其成为首批通过金融大模型及行业大模型标...
-
清华、哈工大提出OneBit方法:可把大模型压缩到1bit 保持 83% 性能
近期,清华大学和哈尔滨工业大学联合发布了一篇论文,成功将大模型压缩到1bit,仍保持83% 的性能。这一成果标志着量化模型领域的一次重大突破。过去,2bit 以下的量化一直是研究人员难以逾越的障碍,而这次的1bit 量化尝试,引起了国内外学术界的广泛关注。...
-
如何基于 Arthur Bench 进行 LLM 评估 ?
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - LLM 评估 。 一、传统文本评估面临的挑战 近年来,随着大型语言模型(LLM 的快速发展和改进,传统的文本评估方法在某些方面可能已经不再适用。在文本评估...
-
大模型的未来:如何推动AIGC技术的进一步发展
1.背景介绍 人工智能(AI 和大数据技术的发展已经进入了一个新的高潮,尤其是自然语言处理(NLP 和计算机视觉(CV 等领域的突破性进展。随着大模型(such as GPT-3, DALL-E, and CLIP 的出现,人工智能生成(AIGC...