-
离职谷歌的Transformer作者创业,连发3个模型(附技术报告)
去年 8 月,两位著名的前谷歌研究人员 David Ha、Llion Jones 宣布创立一家人工智能公司 Sakana AI,总部位于日本东京。其中,Llion Jones 是谷歌 2017 年经典研究论文《Attention is all you n...
-
使用GaLore在本地GPU进行高效的LLM调优
训练大型语言模型(llm ,即使是那些“只有”70亿个参数的模型,也是一项计算密集型的任务。这种水平的训练需要的资源超出了大多数个人爱好者的能力范围。为了弥补这一差距,出现了低秩适应(LoRA 等参数高效方法,可以在消费级gpu上对大量模型进行微调。 G...
-
清华微软开源全新提示词压缩工具,长度骤降80%!GitHub怒砍3.1K星
在自然语言处理中,有很多信息其实是重复的。 如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。 现有的信息熵方法是通过删除某些词或短语来减少这种冗余。 然而,作为依据的信息熵仅仅考虑了文本的单向上下文,进而可能会遗漏对于压缩至关...
-
微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本
微软研究发布了名为 LLMLingua-2的模型,用于任务不可知的提示压缩。该模型通过智能地去除长提示中的不必要词语或标记,同时保留关键信息,使得提示长度可减少至原长度的20%,从而降低成本和延迟。研究团队写道:“自然语言存在冗余,信息量不尽相同。” LL...
-
LLM 技术图谱(LLM Tech Map)& Kubernetes (K8s) 与AIGC的结合应用
文章目录 1、简介 2、基础设施 3、大模型 3、AI Agent(LLM Agent) 4、AI 编程 5、工具和平台 6、算力 7、Kubernetes (K8s 与人工智能生成内容 (AIGC 的结合应用 7.1、摘要 7.2、介绍...
-
AIGC 实战:Ollama 和 Hugging Face 是什么关系?
HuggingFace(拥抱脸)和Ollama都与**大型语言模型(LLMs)**有关,但它们的用途不同: HuggingFace: HuggingFace 是一个知名的平台,提供各种预训练的LLMs,包括流行的模型如GPT-3、BERT和...
-
阿里、百度双双出手,大模型长文本时代终于到来?
AGI时代,越来越近了。 全民Long-LLM时代终于到来。 本月,中国初创AGI(通用人工智能)公司月之暗面宣布旗下大模型工具Kimi Chat正式升级到200万字参数量,与五个月前该大模型初次亮相时的20万字相比,提升十倍。Kimi Chat的升级彻底...
-
LangChain+llama.cpp+llama-cpp-python工程学习笔记(一)
LangChain 是一个开发由语言模型驱动的应用程序的框架,有以下特性。 数据感知 : 将语言模型连接到其他数据源 具有代理性质 : 允许语言模型与其环境交互 pip install langchain 报错ERROR: Could not...
-
Stable diffusion,AI绘画入门,秋叶大佬整合包(附网盘链接)
第一篇:SD安装和显卡要求 最近一段时间,AI绘画很火热,是不是感到对AI绘画很好奇,那么接下来介绍一下如何安装部署。让读者也能快速上手。进入AI绘画的世界。 最简单最容易入手的便是直接使用秋叶大佬的整合包,链接如下: 我用夸克网盘分享了「sd-we...
-
一图揽尽全球LLM崛起之路;LLM概念速查清单;DALL·E提示词红宝书·在线版;fast.ai新课带你从零实现Stable Diffusion | ShowM
👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 👀 LLM 崛起之路:全球大语言模型「规模增长」可视化交互图 informationisbeautiful.net/visualizati…...
-
1月无代码资讯 | 两项低代码无代码行业报告相继重磅发布;GitHub Copilot Chat全面开放使用
栏目导读:无代码资讯栏目从全球视角出发,带您了解无代码相关最新资讯。 TOP3 大事件 1、ResearchAndMarkets.com "低代码无代码开发平台市场—— 2018-2028 年全球行业规模、份额、趋势、机遇及预测"报告发布...
-
申请Github Education获取免费Copilot权限(2024.3.18实测成功)
起因:旧帐户Copilot权限被封 我已经离开Github Copilot就无法独自耐着性子写代码了(懒惰+AI成瘾性),这两天Github Copilot不知道为什么在大规模封号,我不幸也被封号了(禁用掉了Github Copilot权限),具体表现为...
-
对大型语言模型的安全性能进行基准测试,谁更胜一筹?
大型语言模型(LLM)机器学习技术正在迅速发展,催生了多个相互竞争的开源和专有架构。除了与ChatGPT等平台相关的生成式文本任务外,LLM还被证实在许多文本处理应用程序中具有实用价值,可以协助编写代码以及对内容进行分类。 SophosAI研究了许多在网...
-
大模型之Llama系列- LlaMA 2及LLaMA2_chat(上)
LlaMA 2是一个经过预训练与微调的基于自回归的transformer的LLMs,参数从7B至70B。同期推出的Llama 2-Chat是Llama 2专门为对话领域微调的模型。 在许多开放的基准测试中Llama 2-Chat优于其他开源的聊天模型,此外...
-
LLM、RAG虽好,但XGBoost更香!
编译 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 数据&AI企业家、投资人Oliver Molander 近日在LinkedIn上的帖子中打趣道:“如果你在2022年[ChatGPT推出]之前问人工智能专家什么是LL...
-
吴恩达:AI智能体工作流今年将有巨大进展,可能超过下一代基础模型
随着 ChatGPT、GPT-4、Sora 的陆续问世,人工智能的发展趋势引起了广泛关注,特别是 Sora 让生成式 AI 模型在多模态方面取得显著进展。人们不禁会问:人工智能领域下一个突破方向将会是什么? 今天,人工智能著名学者、斯坦福大学教授吴恩达指...
-
基于LLM的Unity游戏开发利器——LLMUnity
在本文中,我们将向您展示如何在Unity引擎中使用LLM(大型语言模型)。我们将使用LLMUnity包(https://github.com/undreamai/LLMUnity)展示如何仅用几行代码即可搭建一个交互对话的实例! 免责声明:我本人是LLM...
-
Windows下安装BigDL-LLM的总结(附Whisper加速环境需求)
1. 下载安装Anaconda 2. 新建Python虚拟环境 在Windows下启动Anaconda PowerShell Prompt,输入以下命令新建名为bigdl-llm的虚拟环境 conda create -n bigdl-llm p...
-
实施稳健的AI治理以实现数据民主化
根据Gartner的数据,到2026年,超过80%的企业将使用GenAI API和模型,或在生产中部署启用GenAI的应用程序,而去年这一比例不到5%。GenAI的自然语言界面允许非技术用户,从部门负责人到一线工作人员,更轻松地访问和使用数据。这...
-
使用 QLoRA 进行微调Llama 2 和 Mistral的初学者指南
本指南适用于任何想要为自己的项目定制强大的语言模型(如 Llama 2 和 Mistral)的人。使用 QLoRA,我们将逐步完成...
-
为何大语言模型不会取代码农?
译者 | 布加迪 审校 | 重楼 生成式人工智能(GenAI)会取代人类程序员吗?恐怕不会。不过,使用GenAI的人类可能会取代程序员。但是如今有这么多的大语言模型(LLM),实际效果不一而足。 如果您在努力跟上所有LLM,并非只有您一个人。我们目睹一...
-
奥特曼回应一切:GPT-5、董事会宫斗、Ilya当时看到了什么
今年 2 月随着 Sora 的横空出世,大家再一次把目光聚集到 OpenAI。 不仅如此,去年亮相的 ChatGPT、GPT-4,更是把 AI 直接带入到生成式人工智能领域。作为一家引领科技潮流的机构,大家自然对其方方面面都产生好奇。 在最近的一次采访中...
-
如何从头开始编写LoRA代码,这有一份教程
LoRA(Low-Rank Adaptation)作为一种用于微调 LLM(大语言模型)的流行技术,最初由来自微软的研究人员在论文《 LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS 》中提出。不同于其...
-
一文读懂大型语言模型微调技术挑战与优化策略
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI 生态领域相关的技术 - LLM Fine-Tuning ,本文将继续聚焦在针对 LLM Fine-Tuning 技术进行剖析,使得大家能够了解 LLM Fine-Tuning...
-
肯睿Cloudera 推出多项集成NVIDIA微服务的功能:解锁数据潜力,加速企业生成式AI应用
肯睿Cloudera亚太区高级副总裁Remus Lim表示:“NVIDIA在人工智能计算领域的领先地位与Cloudera在数据管理领域深厚的专业积累相得益彰。通过这次合作,我们将赋能客户创建出能够产出高度精确数据和见解的模型。这些模型得到企业的信赖,并能...
-
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
「这不是演唱会。你们是来参加开发者大会的!」老黄出场时,现场爆发出了巨大的欢呼声。 今天凌晨四点,加州圣何塞,全球市值第三大公司英伟达一年一度的 GTC 大会开始了。 今年的 GTC 大会伴随着生成式 AI 技术爆发,以及英伟达市值的暴涨。相对的是,算...
-
基于Google Vertex AI 和 Llama 2进行RLHF训练和评估
Reinforcement Learning from Human Feedback 基于Google Vertex AI 和 Llama 2进行RLHF训练和评估 课程地址:https://www.deeplearning.ai/short-cou...
-
全球首个AI程序员当老板!IOI金牌得主全部工作AI掌盘,技术细节报告公开
AI程序员Devin竟可以做老板的工作了?! 最近,Cognition AI的首席执行官Steven Hao给了Devin访问自己帐户的权限,然后Devin便开始为他工作了... 比如,「他」向初创公司Modal支持团队写了一封邮件,是询问关于其产品S...
-
AIGC元年大模型发展现状手册
零、AIGC大模型概览 AIGC大模型在人工智能领域取得了重大突破,涵盖了LLM大模型、多模态大模型、图像生成大模型以及视频生成大模型等四种类型。这些模型不仅拓宽了人工智能的应用范围,也提升了其处理复杂任务的能力。a. LLM大模型通过深度学习和自然语...
-
谷歌AI推出新型评分器Cappy 助力多任务语言模型性能提升
在最新的研究论文中,谷歌研究人员引入了一种名为Cappy的预训练评分器模型,旨在增强和超越大型多任务语言模型的性能。这项研究旨在解决大型语言模型(LLM)所面临的挑战,其中包括高昂的计算资源成本和效率低下的训练和推理过程。 目前,多任务法学硕士如T0、F...
-
一道题告诉你为什么GPT4被封神!横向测评大模型的推理能力:ChatGPT、Claude、Gemini、文心一言、讯飞星火、通义千问、天工、智谱清言、Kimi Chat!
大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效...
-
llama_index 官方文档阅读笔记 (持续更新版)
llama 0.10.17🦙版本 阅读 链接: LlamaIndex 🦙 v0.10.17 LlamaIndex 是一个基于 LLM 的应用程序的数据框架,它受益于上下文增强。这种LLM系统被称为RAG系统,代表“检索-增强生成”。LlamaIndex...
-
NVIDIA大语言模型落地的全流程解析
包括三部分内容: 第一部分是关于 NeMo Framework。NeMo Framework 是 NVIDIA 大语言模型的全栈解决方案,它通过不同组件完成生成式 AI 各个环节的任务,包括数据预处理、分布式训练、模型微调、模型推理加速及部署(Ten...
-
Devin第一手使用体验:完成度很高,开始编码就停不下来,但要替代程序员还很远
由10枚IOI金牌在手的创业团队Cognition AI开发的全球首个AI程序员智能体Devin,一发布就让科技圈坐立不安。 在演示中,Devin几乎已经可以独立完成很多人类程序员需要大量时间才能完成的工作,效果一点不比普通程序员差。 但是,产品能力的边...
-
大模型增速远超摩尔定律!MIT最新研究:人类快要喂不饱AI了
我们人类可能要养不起AI了! 近日,来自MIT FutureTech的研究人员发表了一项关于大模型能力增长速度的研究, 结果表明:LLM的能力大约每8个月就会翻一倍,速度远超摩尔定律! 论文地址:https://arxiv.org/pdf/2403.0...
-
LLM4Decompile官网体验入口 AI代码反编译工具免费使用下载地址
LLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM(大型语言模型),并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Code...
-
AI大模型控制红绿灯,港科大(广州)智慧交通新成果已开源
大模型“上路”,干起了交通信号控制(TSC)的活~ 模型名为LightGPT,以排队及不同区段快要接近信号灯的车辆对路口交通状况分析,进而确定最好的信号灯配置。 该模型由香港科技大学(广州)的研究团队提出,其背后关键是一个名为LLMLight的框架。...
-
微调大型语言模型进行命名实体识别
大型语言模型的目标是理解和生成与人类语言类似的文本。它们经过大规模的训练,能够对输入的文本进行分析,并生成符合语法和语境的回复。这种模型可以用于各种任务,包括问答系统、对话机器人、文本生成、翻译等。 命名实体识别(Named Entity Recogn...
-
大模型能自己优化Prompt了,曾经那么火的提示工程要死了吗?
2022 年底,ChatGPT 上线,同时引爆了一个新的名词:提示工程(Prompt Engineering)。 简而言之,提示工程就是寻找一种编辑查询(query)的方式,使得大型语言模型(LLM)或 AI 绘画或视频生成器能得到最佳结果或者让用户能绕...
-
大模型“路由器”OpenRouter 为LLM何其他AI模型提供统一接口
OpenRouter是一个创新性的项目,它为大语言模型(LLM)和其他AI模型提供了一个统一的接口。通过这个接口,用户可以直接访问和使用几十种AI模型,包括GPT、LLama、Claude、Command-R等80多个模型,未来还将扩展到数百种。 Open...
-
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
说到做到,马斯克承诺的开源版大模型 Grok 终于来了! 今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言...
-
超详细!AIGC面试系列 大模型基础(1)
关于我 从2022年末开始接触AIGC,便一直紧跟最近技术与实践落地。期间参与copilot项目研发,落地了多个垂类AIGC大模型应用,熟悉各种AIGC相关技术如Agent,Langchain,chatdoc,向量数据库等。 关于本系列 请你认真看完...
-
时间序列预测+NLP大模型新作:为时序预测自动生成隐式Prompt
今天给大家介绍一篇最新的大模型+时间序列预测工作,由康涅狄格大学发表,提出了一种将时间序列在隐空间和NLP大模型对齐,并利用隐空间prompt提升时间序列预测效果的方法。 论文标题:S2IP-LLM: Semantic Space Informed P...
-
【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
学习笔记:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU 前言 1 下载并编译llama.cpp 1.1 git下载llama.cpp仓库源码 1.2 编译源码(make) 1.2.1 选择一:仅在CPU上...
-
重磅!谷歌正式推出开源大语言模型 Gemma,声称超越 Meta Llama-2 竞品
击上方关注 “终端研发部” 设为“星标”,和你一起掌握更多数据库知识 AI 开源之战打响! 作为曾经AI领域扛把子的谷歌,这两年多来,风头几度被抢,一直处于被压着打的境地,,昨天Gemma的发布,预示着谷歌登上开源大模型“铁王...
-
国产大模型最近挺猛啊!使用Dify构建企业级GPTs;AI阅读不只是「总结全文」;我的Agent自媒体团队;Nijijourney官方AI绘画课完结啦! | ShowMeAI日报
👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 👀 大模型近期重大进展:百川、讯飞、智源发布新模型,GLM-4、DeepSeek上线开放平台,Google Bard 反超,Mixtral medium 泄...
-
GPT3.5+文心一言+chatGLM 计算和代码生成能力简单对比
chatGLM3刚发布(10.27),打算尝试一下其code和计算能力。 共选取三个问题,难度从中等,偏困难,到困难。测试内容是正好手头上在做的事想让LLM来完成(偷懒),之前都是直接使用GPT,这次正好对比测试一下。 测试产品包括GPT3.5、文心一...
-
全球学术圈险被ChatGPT论文攻陷!知名出版商紧急撤稿,AI插图笑翻网友
学术圈,已经抵御不住LLM的入侵了! 最近,世界知名出版集团爱思唯尔旗下的几篇论文接连被质疑。 比如下面这篇锂电池的论文,在「介绍」部分的第一句,就暴露了可疑的痕迹—— 「当然可以,这里是您的主题可能需要的介绍」。 一开口就是老ChatGPT了。 图片...
-
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM
时间序列预测在零售、金融、制造业、医疗保健和自然科学等各个领域无处不在:比如说在零售场景下中,「提高需求预测准确性」可以有显著降低库存成本并增加收入。 深度学习(DL)模型基本上垄断了「多变量时间序列预测」任务,在各个竞赛、现实应用中的表现都非常好。 与...
-
刷榜「代码生成」任务!复旦等发布StepCoder框架:从编译器反馈信号中强化学习
大型语言模型(LLMs)的发展极大地推动了代码生成领域的发展,之前有工作将强化学习(RL)与编译器的反馈信号集成在一起,用于探索LLMs的输出空间,以提高代码生成质量。 但当下还存在两个问题: 1. 强化学习探索很难直接适配到「复杂的人类需求」,即要求L...