-
AIGC产业研究报告 2023——图像生成篇
易观:今年以来,随着人工智能技术不断实现突破迭代,生成式AI的话题多次成为热门,而人工智能内容生成(AIGC)的产业发展、市场反应与相应监管要求也受到了广泛关注。为了更好地探寻其在各行业落地应用的可行性和发展趋势,易观对AIGC产业进行了探索并将发布AIG...
-
文心一言初次体验,说说感觉~
文心一言,被称为国内版ChatGPT,一直被寄予厚望。 在未出来前,网络上都是各种调侃。 甚至还用ChatGPT来调侃。 但是在发布会的时候,感觉李彦宏关于文心一言讲了很多东西。 但是吧,又感觉啥也没讲,说话底气还不足,又加上还...
-
颠覆Transformer霸权!CMU普林斯顿推Mamba新架构,解决致命bug推理速度暴增5倍
深度学习进入新纪元,Transformer的霸主地位,要被掀翻了? 2017年6月12日横空出世,让NLP直接变天,制霸自然语言领域多年的Transformer,终于要被新的架构打破垄断了。 Transformer虽强大,却有一个致命的bug:核心注意力...
-
大模型版“5年高考3年模拟”来了!6141道数学题,还是多模态的那种
大模型的“5年高考3年模拟”数学题来了,还是加强强强版! 微软、加州大学洛杉矶分校(UCLA)、华盛顿大学(UW)联合打造全新多模态数学推理基准数据集。 名为“MathVista”。 涵盖各种题型共6141个问题,来源于28个现有的多模态数据集和3个新标...
-
NLP(自然语言处理)任务必备:六个顶级Python库推荐
本文将介绍用于自然语言处理任务的6个最佳Python库。无论是初学者还是经验丰富的开发人员,都能从中获得启发和帮助,提升在NLP领域的实践能力。 1. Pynlpir Pynlpir是一个非常优秀的 Python 中文自然语言处理库。它提供了一系列功能...
-
大模型应用设计的十个思考
技术不是万能的,但没有技术却可能是万万不能的,对于大模型可能也是如此。基于大模型的应用设计需要聚焦于所解决的问题,在自然语言处理领域,大模型本身在一定程度上只是将各种NLP任务统一成了sequence 到 sequence 的模型。利用大模型, 我们是在...
-
小红书推搜场景下如何优化机器学习异构硬件推理突破算力瓶颈!
本文将分享小红书推搜场景下,全 GPU 化建设过程中的模型服务、GPU 优化等相关工作。 一、前言 近年来,机器学习领域的视频、图像、文本和推广搜等应用不断发展,其模型计算量和参数量远远超过了 CPU 摩尔定律的增长速度。在此背景下,GPU 的算力发展...
-
通过Whisper模型将YouTube播放列表中的视频转换成高质量文字稿的项目
项目简介 一个通过Whisper模型将YouTube播放列表中的视频转换成高质量文字稿的项目。 这个基于 Python 的工具旨在将 YouTube 视频和播放列表转录为文本。它集成了多种技术,例如用于转录的 Fast-Whisper、用于自然语言处理...
-
阿里通义千问、百度文心一言、ChatGPT与GPT-4大比拼
各个大模型的研究测试传送门 阿里通义千问传送门: https://tongyi.aliyun.com/chat 百度文心一言传送门: https://yiyan.baidu.com/ ChatGPT传送门(免墙,可直接注册测试): https...
-
AIGC:【LLM(四)】——LangChain+ChatGLM:本地知识库问答方案
文章目录 一.文件加载与分割 二.文本向量化与存储 1.文本向量化(embedding 2.存储到向量数据库 三.问句向量化 四.相似文档检索 五.prompt构建 六.答案生成 LangChain+ChatGLM项目(http...
-
AIGC时代,大模型微调如何发挥最大作用?
人工智能的快速发展推动了大模型的广泛应用,它们在语言、视觉、语音等领域的应用效果已经越来越好。但是,训练一个大模型需要巨大的计算资源和时间,为了减少这种资源的浪费,微调已经成为一种流行的技术。微调是指在预训练模型的基础上,通过在小数据集上的训练来适应新的任...
-
AIGC系列:1.chatgpt可以用来做哪些事情?
上图的意思:神器轩辕剑 那么,在现在AI盛行的信息时代, 你是否知道如何获得和利用ChatGPT这一把轩辕剑来提升你的攻击力和生存能力呢? 故事 程序员小张: 刚毕业,参加工作1年左右,日常工作是CRUD 架构师老李: 多个大型项目经验...
-
SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法
自SAM「分割一切」模型推出之后,二创潮就开始了,有想法有行动!飞桨AI Studio开发者会唱歌的炼丹师就创作出SAM进化版,将SAM、Stable Diffusion集成,实现「分割」、「生成」能力二合一,并部署为应用,支持在线使用! 在线免费...
-
文心一言与GPT-4比对测试!
Waitlist了三个星期,今天下午终于拿到了百度文心一言的体验资格,于是立刻展开测试。 根据文心一言网页端信息显示,目前最新发版是4月1号的版本,版本号是v1.0.3,应该是从上个月16号发布会以后又做了两版迭代。根据文心一言自己的回答,...
-
Copilot 是否会侵犯开发者的隐私?
作为一个基于人工智能的代码自动生成工具,GitHub Copilot在推出时引发了众多用户的关注。其中最令人担忧的问题之一是 Copilot 在使用过程中是否会侵犯开发者的隐私。在这篇文章中,我们将分析 Copilot 的隐私政策,并讨论它如何保护用户的隐...
-
我们在职场必备AI课,用AI办公提效和AI绘画商业级别的实战的心得分享
职场中必备的AI课程,其中包括AI办公提效和AI绘画商业级别的实战经验和心得分享。通过学习这门课程,你将了解如何运用人工智能技术来提升办公效率,并使用AI创作出高质量的绘画作品。我们还将提供具体的代码示例和实际操作步骤,帮助你快速上手。 正文: 1....
-
[玩转AIGC]sentencepiece训练一个Tokenizer(标记器)
目录 一、前言 二、安装 三、自己训练一个tokenizer 四、模型运行 五、拓展 六、补充 一、前言 前面我们介绍了一种字符编码方式【如何训练一个中英翻译模型】LSTM机器翻译seq2seq字符编码(一) 这种方式是对一个一个...
-
AI绘画站上被告席
“我们的案件情况和AI图被盗的案子完全不同,我们告的是小红书的AI模型库侵权。” 近日关于AI绘画侵权的风波不止,除了侵犯AI绘画图片著作权的案件一审宣判,还有AI模型数据库侵权案立案。 日前,据“九派财经”报道,画师“正版青团子”与小红书关于作品著作权侵...
-
解读Lawyer LLaMA,延申专业领域大模型微调:数据集构建,模型训练
解读Lawyer LLaMA,延申自己领域大模型微调:数据集构建,模型训练 项目地址link 自己领域的大模型微调,实现思路大都和这篇文章是一样的,有的是基于LLaMA,或者有的是基于Chinese-LLaMA,或者是其他开源的大模型,本文基于自己训...
-
百度商业AI 技术创新大赛赛道二:AIGC推理性能优化TOP10之经验分享
朋友们,AIGC性能优化大赛已经结束了,看新闻很多队员已经完成了答辩和领奖环节,我根据内幕人了解到,比赛的最终代码及结果是不会分享出来的,因为办比赛的目的就是吸引最优秀的代码然后给公司节省自己开发的成本,相当于外包出去了,应该是不会公开的。抱着技术共享及开...
-
百度CTO王海峰:全栈AI技术加持,打造新一代大语言模型文心一言
3月16日,百度在北京总部召开新闻发布会,百度创始人、董事长兼首席执行官李彦宏和百度首席技术官王海峰出席,李彦宏展示了新一代知识增强大语言模型文心一言在文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成五个使用场景中的综合能力,王海峰解读了文心一言...
-
网络安全领域的12个大语言模型用例
网络安全是人工智能最大的细分市场,过去几年网络安全厂商纷纷宣称整合了人工智能技术(当然也有很多仅仅是炒作),其中大部分是基于基线和统计异常的机器学习。 随着ChatGPT和类似生成式人工智能技术的飞速发展,基于大语言模型的生成式人工智能安全用例已经成为...
-
聊一聊大模型 | 京东云技术团队
事情还得从ChatGPT说起。 2022年12月OpenAI发布了自然语言生成模型ChatGPT,一个可以基于用户输入文本自动生成回答的人工智能体。它有着赶超人类的自然对话程度以及逆天的学识。一时间引爆了整个人工智能界,各大巨头也纷纷跟进发布了自家的大模...
-
LLaMA 的学习笔记
LLaMA 是一种用于自然语言处理的深度学习模型,它的全称是 Language Learning with Adaptive Multi-task Architecture。它的主要特点是能够根据不同的任务自适应地调整模型结构和参数,从而提高模型的泛化能力...
-
斯坦福美女博士创业项目爆火!AI视频生成出道即顶流
斯坦福华人博士休学搞创业,直接火爆AI圈! 新产品瞄准AI视频生成,刚出道就成行业顶流,引来一众大佬围观评价。 OpenAI大牛Andrej Karpathy转发,并激情附上长文一段: 每个人都能成为多模态梦境的导演,就像《盗梦空间》里的筑梦师一样。...
-
大模型部署实战(一)——Ziya-LLaMA-13B
❤️觉得内容不错的话,欢迎点赞收藏加关注???,后续会继续输入更多优质内容❤️ ?有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)? 博主原文链接:https://www.yo...
-
Keras 3.0正式发布 引入全新的大模型训练和部署功能
Keras3.0的发布标志着一次重大的更新迭代,经过5个月的努力,该版本在多个方面带来了显著的改进。首先,Keras3.0全面支持了TensorFlow、JAX和PyTorch框架,这意味着用户现在可以选择在不同框架上运行他们的Keras工作流。这种灵活性...
-
人工智能十大基础术语
这里有10个关键的术语,每个人工智能爱好者都应该知道并了解。 人工智能(AI 已经成为各行各业的变革力量,塑造了我们与技术和周围世界互动的方式。对于那些深入人工智能领域的人而言,理解基础术语至关重要。 1、人工智能(AI :人工智能的核心是指开发能够执...
-
Copilot 工作原理
Copilot 是如何工作的?它的背后算法是什么? Copilot 的工作原理可以大致分为两个阶段:第一阶段是从海量代码库中抽取出有效的代码段和语句,这些代码段用于训练AI模型;第二阶段则是谷歌的自然语言处理技术和深度神经网络技术,将文本解析成进一步的代...
-
AIGC零基础30天学习——CLIP模型
1. 模型架构 Contrastive Language-Image Pre-training(以下简称“CLIP”)是OpenAI 在 2021 年初发布的用于匹配图像和文本的预训练神经网络模型,可以说是近年来在多模态研究领域的...
-
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
项目设计集合(人工智能方向):助力新人快速实战掌握技能、自主完成项目设计升级,提升自身的硬实力(不仅限NLP、知识图谱、计算机视觉等领域):汇总有意义的项目设计集合,助力新人快速实战掌握技能,助力用户更好利用 CSDN 平台,自主完成项目设计升级,提升自身...
-
谷歌:LLM找不到推理错误,但能纠正它
今年,大型语言模型(LLM)成为 AI 领域关注的焦点。LLM 在各种自然语言处理(NLP)任务上取得了显著的进展,在推理方面的突破尤其令人惊艳。但在复杂的推理任务上,LLM 的表现仍然欠佳。 那么,LLM 能否判断出自己的推理存在错误?最近,剑桥大学和...
-
中文版LLaMA:Chinese-LLaMA-Alpaca
GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs 以ChatGPT、GP...
-
PubMedBERT:生物医学自然语言处理领域的特定预训练模型
今年大语言模型的快速发展导致像BERT这样的模型都可以称作“小”模型了。Kaggle LLM比赛LLM Science Exam 的第四名就只用了deberta,这可以说是一个非常好的成绩了。所以说在特定的领域或者需求中,大语言模型并不一定就是最优的解决...
-
【多模态】3、CLIP | OpenAI 出品使用 4 亿样本训练的图文匹配模型
文章目录 一、背景 二、方法 2.1 使用自然语言来监督训练 2.2 建立一个超大数据集 2.3 选择预训练的方式——对比学习而非预测学习 2.4 模型缩放和选择 三、效果 四、思考 论文:Learning Transferabl...
-
LLMLingua:集成LlamaIndex,对提示进行压缩,提供大语言模型的高效推理
大型语言模型(llm 的出现刺激了多个领域的创新。但是在思维链(CoT 提示和情境学习(ICL 等策略的驱动下,提示的复杂性不断增加,这给计算带来了挑战。这些冗长的提示需要大量的资源来进行推理,因此需要高效的解决方案,本文将介绍LLMLingua与专有的...
-
如何利用人工智能挖掘会话式客户体验的潜力
企业可以依靠人工智能工具来部署对话式客户体验计划,从而积极影响客户忠诚度并增加利润。 支持人工智能的虚拟助理已成为塑造现代客户体验(CX 的变革力量。这些技术工具重新定义了客户期望和交互的格局,并为所谓的会话式客户体验奠定了基础。对话式客户体验的范围广...
-
看百度文心一言实力,再聊ChatGPT触类旁通的学习能力如何而来?
图文原创:亲爱的数据 美国大模型水平领先,国内大模型蓄势而发。 国内大模型参与者众多,百度文心一言第一个有勇气站出来发布。 此处应有掌声。 事前事后,中国网友的呐喊声不绝于耳:“文心一言到底什么水平啊?” 其实网友更想知道:国内A...
-
AI绘画的崛起与多平台对比
目录 引言 AI绘画技术的发展历程 主流AI绘画平台概览 DeepArt.io Prisma NVIDIA Canvas 对比分析与评价 画风迁移能力 创造力和创新性 使用便利性和用户体验 是否开源与社区互动 引言...
-
本地免费GPT4?Llama 2开源大模型,一键部署且无需硬件要求教程
目前扎克布格带来了最新的Llama 2开源NLP大模型,目前有三个版本分别是70亿参数量,130亿参数量和700亿参数量,庞大的数据集和参数量保证了模型的强大,官网宣称性能与gpt4相比不落下风,又因为开源使得我们可以实现本地化gpt4的梦...
-
大模型的实践应用6-百度文心一言的基础模型ERNIE的详细介绍,与BERT模型的比较说明
大家好,我是微学AI,今天给大家讲一下大模型的实践应用6-百度文心一言的基础模型ERNIE的详细介绍,与BERT模型的比较说明。在大规模语料库上预先训练的BERT等神经语言表示模型可以很好地从纯文本中捕获丰富的语义模式,并通过微调的方式一致地提高各种NLP...
-
大模型之Bloom&LLAMA----Pre-Training(二次预训练)
0. 简介 随着chatgpt的爆火,最近也有很多大模型在不断地出现,比如说Bloom系列以及以LLAMA为基础的ziya和baichuan。这些模型相较于chatglm来说,更加具有发展前景,因为其是完全可商用,并可以不断迭代更新的。最近作者在跟着h...
-
2 天:我用文字 AI-ChatGPT 写了绘画 AI-Stable Diffusion 跨平台绘画应用
文本 AI - ChatGPT 和绘画 AI - Stable Diffusion,平地惊雷,突然进入寻常百姓家。 如果时间可以快进,未来的人们对于我们这段时光的历史评价,大概会说: 当时的人们在短时间连续经历了这几种情感。从不信,去试试看;到远超预期...
-
数字人系列四:Motionverse 接入chatgpt、文心一言等国内外大语言模型
1. 下载插件:motionverse官网地址:概述 · Motionverse 接口文档 (deepscience.cn 2. 按照官方文档新建Unity工程:对接说明 · Motionverse 接口文档 (deepscience.cn ...
-
使用QLoRA对Llama 2进行微调的详细笔记
使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。 导入库...
-
要点初见:Stable Diffusion NovelAI模型优质文字Tag汇总与实践【魔咒汇总】
目前贴吧、B站上有大量Stable Diffusion的模型资源、TAG、TAG生成器分享,其中居然有不少试图靠信息差把这些开源资源卖钱的。加上目前网上相关的TAG整理贴极少,不少TAG也是以图片的形式存在,故博主打算在此专门整理一下网友们实践过的成套的“...
-
Hugging Face最受欢迎15大AI机构出炉!清华第五,OpenAI第十,冠军竟是它?
【新智元导读】Hugging Face作为开源AI社区的代表,总结了社区最欢迎的前15个公司和机构。让我们看看在开源社区眼里,哪些机构对于开源AI贡献最大。 Hugging Face上最受欢迎的15个AI公司出炉了! 目前的冠军,是Stability AI...
-
以Llama-2为例,在生成模型中使用自定义StoppingCriteria
以Llama-2为例,在生成模型中使用自定义StoppingCriteria 1. 前言 2. 场景介绍 3. 解决方法 4. 结语 1. 前言 在之前的文章中,介绍了使用transformers模块创建的模型,其generate...
-
历数5年89篇研究,这篇综述告诉我们深度学习中的代码数据增强怎么样了
当今深度学习以及大模型的飞速发展,带来了对创新技术的不断追求。在这一进程中,代码数据增强技术显现出其不可忽视的价值。 最近,由蒙纳士大学、新加坡管理大学、华为诺亚方舟实验室、北京航空航天大学以及澳大利亚国立大学联合进行的对近 5 年的 89 篇相关研究调...
-
AIGC技术周报|ChatDoctor:哪里不舒服;HuggingGPT:连接大模型和机器学习社区;ChatGPT真的鲁棒吗?
AIGC通过借鉴现有的、人类创造的内容来快速完成内容创作。ChatGPT、Bard等AI聊天机器人以及Dall·E 2、Stable Diffusion等文生图模型都属于AIGC的典型案例。「AIGC技术周报」将为你带来最新的paper、博客等前瞻性研究。...