-
苹果OpenAI曝出「数十亿美元」合作,微软急了!纳德拉紧急约谈奥特曼
OpenAI和苹果已经确定联手,微软急了! 根据外媒The Information的报道,OpenAI和苹果的交易已经完成。而苹果将在多大程度上使用OpenAI的技术,目前尚不清楚。 业界猜测,这项交易,可能价值数十亿美元! 不过,微软对此就没那么高兴了...
-
告别手动复制!Jina AI Reader可一键从网页抓取PDF
Jina AI 宣布其 Reader 工具现在能够从任意 URL 读取 PDF 文件,并快速解析成文本,供下游的语言模型(LLM)使用。以下是关于 Jina AI Reader 工具的详细介绍: Jina AI Reader 功能亮点: 任意 URL 读...
-
国产大模型全阵容,中文大模型竞技场推出!
LMSYS Org推出的大模型竞技场Chatbot Arena,已成为海外最具公信力的大模型榜单之一,但该榜单中文化程度相对不足。近日,上海人工智能实验室联合魔搭社区推出中国大语言模型评测竞技场Compass Arena,首度集齐国内主流大模型全阵容,阿...
-
You.com推自定义助手功能,允许用户自行创建个性化AI助手
总部位于帕洛阿尔托的初创公司You.com今天宣布推出“自定义助手”,这是一项突破性的功能,允许用户使用GPT-4o、Llama3和Claude3等顶级语言模型 (LLM) 创建个性化的 AI 助手,所有功能都在一个界面内完成。对话式 AI 的这一重大飞跃...
-
【AIGC调研系列】llama 3与GPT4相比的优劣点
Llama 3与GPT-4相比,各有其优劣点。以下是基于我搜索到的资料的详细分析: Llama 3的优点: 更大的数据集和参数规模:Llama 3基于超过15T token的训练,这相当于Llama 2数据集的7倍还多[1][3]。此外,它拥有40...
-
麻省理工科技评论称:数据是生成式AI的基础
预训练的大型语言模型(LLM)如 GPT-4和 Gemini 备受组织关注,他们渴望利用 LLM 构建聊天机器人、副驾驶等应用。根据麻省理工科技评论的最新报告,名为 “C 级领导人的 AI 准备情况”,该报告是代表 ETL 供应商 Fivetran 进行的...
-
LLMs之RAG:只需四步骤—基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用
LLMs之RAG:基于Ollama后端框架(配置phi3/LLaMA-3模型 结合Dify前端框架(设置知识库文件+向量化存储+应用发布 创建包括实现本地知识库问答/翻译助手等多个应用 目录 基于Ollama后端框架(配置phi3/LLaMA-...
-
【最新】生成式人工智能(AIGC)与大语言模型(LLM)学习资源汇总
基本概念学习 a Andrej Karpathy 的 - 大型语言模型简介:https://www.youtube.com/watch?v=zjkBMFhNj_g 该视频对 LLMs 进行了一般性和高级的介绍,涵盖推理、缩放、微调、安全问题和提示注入...
-
啥,字节扣子Bot通过API调用百度文心一言?
4月1号扣子上新啦!! 扣子插件在线IDE 扣子丰富的插件功能和灵活的Workflow深受开发者的好评,这不,扣子又推出了插件IDE,无需使用自己的IDE、无需使用自己的服务器就可以更好的写自己的插件(之前已经支持在Worflow中直接添加代码节点)。...
-
北航发布LlamaFactory,零代码大模型微调平台,一键快速实现大模型训练/微调/评估
“LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models” 在大模型发展如火如荼的今天,训练和微调一个大模型对于绝大部分普通工程师来说仍然是一个难题。为了降低大模型训练、...
-
大模型应用开发之业务架构和技术架构(从AI Embedded 到 Copilot,再到Agent)
前言 本文我们重点讲的就是伴随着大模型的广泛应用,这些概念是在什么体系和场景下衍生的;换句话说,基于LLM,目前大家在做的应用,他主流的业务架构和技术架构都是什么样子的,我们在了解之后,可以根据依据我们现实的业务需求,来选择自己的技术路线。 技术往...
-
用自然语言来编程GitHub Copilot;提高代码质量开源工具GPTLint;LLMs开源医学Meditron
✨ 1: GitHub Copilot Workspace 以Copilot 为中心的创新开发者环境,让开发者能用自然语言从构思到编码再到软件开发。 GitHub Copilot Workspace是一个以Copilot为中心的开发者环境,...
-
【记录】LangChain|Ollama结合LangChain使用的速通版(包含代码以及切换各种模型的方式)
官方教程非常长,我看了很认可,但是看完了之后呢就需要一些整理得当的笔记让我自己能更快地找到需求。所以有了这篇文章。【写给自己看的,里面半句废话的解释都没有,如果看不懂的话直接看官方教程再看我的】 ollama是个平台,里面一大堆开源模型,llama...
-
被追捧的AI Agent,如何避开落地应用的这些坑?
从OpenAI推出系列GPTs,到国内众多大厂和初创企业从应用层、平台层、开发层、运营层等多个方向布局Agent,必须承认,Agent正在以异乎寻常的势头发展,也呈现出百花齐放的产品形态。 “agent”,中文意思是代理人。以此类推,所谓AI agent...
-
AI大牛karpathy点赞SEAL榜单,LLM评估的状况过去是非常糟糕的!
lmsys.org的一个严肃的竞争对手已经加入了对LLMs(大型语言模型)评估的讨论中:SEAL Leaderboards——对领先前沿模型进行的私密、专家评估。 SEAL Leaderboards的设计原则: ?私密 + 无法被利用。在评估上不会过度拟...
-
OpenAI与《大西洋月刊》和The Verge发行商Vox Media达成合作
人工智能公司 OpenAI 近日宣布与美国杂志《大西洋月刊》和数字媒体公司 Vox Media 达成合作协议。根据协议,OpenAI 将获得许可使用两家公司的内容,用于训练其大型语言模型(LLMs)和多媒体 AI 模型(如 GPT-4o,Sora 。 图...
-
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
大型语言模型(llm 是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在培训结束时被“具体化”。在预训练结束时,模型实际上停止学习。 对模型进行对齐或进行指令调优,让模型学习...
-
LLMs之LLaMA-3:Llama-3-70B-Gradient-1048k-adapter的简介、源代码解读merge_adapters.py(仅需58行代码)合并多个PEFT模型(LoRA技术)
LLMs之LLaMA-3:Llama-3-70B-Gradient-1048k-adapter的简介、源代码解读merge_adapters.py(仅需58行代码 合并多个PEFT模型(LoRA技术 将LLaMA-3扩展到100万/1048k上下文——解析...
-
AIGC从入门到实战:ChatGPT 日均算力运营成本的推算
1. 背景介绍 1.1 AIGC的兴起与ChatGPT的突破 近年来,人工智能生成内容(AIGC)技术取得了显著进展,其中以ChatGPT为代表的大型语言模型(LLM)展现出强大的内容生成能力,在对话系统、文本创作、代码生成等领域取得了突破性成果,掀起...
-
27岁华裔天才少年对打UC伯克利,首发SEAL大模型排行榜!Claude 3 Opus数学封神
前段时间,由27岁的华裔创始人Alexandr Wang领导的Scale AI刚刚因为融资圈了一波关注。 今天,他又在推特上官宣推出全新LLM排行榜——SEAL,对前沿模型开展专业评估。 SEAL排行榜主打三个特色: - 私有数据 Scale AI的专...
-
每天都看模型评分,但你真的了解吗?OpenAI研究员最新博客,一文读懂LLM评估
上周六,OpenAI研究院Jason Wei在个人网站上发表了一篇博客,讨论了他眼中「成功的语言模型评估」应该具备哪些因素,并总结出了阻碍好的评估在NLP社区获得关注的「七宗罪」。 Jason Wei在最近的斯坦福NLP研讨会上展示了这篇文章,Open...
-
保姆级零基础微调大模型(LLaMa-Factory,多卡版)
此处非常感谢https://github.com/hiyouga/LLaMA-Factory这个项目。 看到网上的教程很多都是教如何用webui来微调的,这里出一期命令行多卡微调教程~ 1. 模型准备 模型下载比较方便的方法: 1. modelsc...
-
Windows11(非WSL)安装Installing llama-cpp-python with GPU Support
直接安装,只支持CPU。想支持GPU,麻烦一些。 1. 安装CUDA Toolkit (NVIDIA CUDA Toolkit (available at https://developer.nvidia.com/cuda-downloads 2...
-
如何将大型语言模型(LLM)转换为嵌入模型
译者 | 李睿 审校 | 重楼 实验证明,LLM2Vec模型在嵌入任务上具有更好的性能,它可以为组织开辟新的场所,并以非常低的成本快速创建专门的嵌入模型。 嵌入模型已经成为大型语言模型(LLM 应用的重要组成部分,可以实现检测文本相似度、信息检索和聚类...
-
简单几步微调Llama 3大模型,小白轻松上手
这是面向小白用户的一个超级简单的微调大模型示例,通过这个例子将得到一个速度翻倍,并可以包含自己业务知识数据的微调后llama3模型,可用于本地部署构建私有化的AI智能体。very 的 nice 首先请准备好google账号和网络环境,这个示例基于gool...
-
超详细!AIGC面试系列 大模型进阶(2)
本期问题快览 1. 如何让大模型处理更长的文本? 2. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存? 3. 什么是有监督微调SFT 4. SFT 指令微调数据如何构建? 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘...
-
详解各种LLM系列|LLaMA 2模型架构、 预训练、SFT内容详解 (PART1)
作者 | Sunnyyyyy 整理 | NewBeeNLP https://zhuanlan.zhihu.com/p/670002922 大家好,这里是 NewBeeNLP。之前我们分享了详解各种LLM系列|...
-
一文速览Llama 3及其微调:从如何把长度扩展到100万到如何微调Llama3 8B
前言 4.19日凌晨正准备睡觉时,突然审稿项目组的文弱同学说:Meta发布Llama 3系列大语言模型了,一查,还真是 本文以大模型开发者的视角,基于Meta官方博客的介绍:Introducing Meta Llama 3: The most capa...
-
详解生成式人工智能的开发过程
译者 | 晶颜 审校 | 重楼 开发生成式人工智能应用程序与开发传统的机器学习应用程序非常不同,以下是步骤详解。 回到机器学习的“古老”时代,在您可以使用大型语言模型(LLM 作为调优模型的基础之前,您基本上必须在所有数据上训练每个可能的机器学习模型,...
-
数据驱动与 LLM 微调:打造 E2E 任务型对话 Agent
作者 | Thought Agent 社区 在对话系统的设计和实现中,传统的基于 Rasa-like 框架的方法往往需要依赖于多个模块的紧密协作,例如我们在之前的文章中提到的基于大模型(LLM)构建的任务型对话 Agent,Thought Agent,其...
-
OpenAI Whisper 语音转文本实验
为了实现语音方式与大语言模型的对话,需要使用语音识别(Voice2Text)和语音输出(Text2Voice)。感觉这项技术已比较成熟了,国内也有许多的机构开发这项技术,但是像寻找一个方便测试的技术居然还不容易。Google 墙了,微...
-
Meta AI的首席执行官LeCun:不要从事LLM工作
出品 | 51CTO技术栈(微信号:blog51cto) 在巴黎举行的初创企业年度技术大会VivaTech上,Meta AI的首席执行官Yann LeCun建议希望在AI生态系统中工作的学生不要从事LLM(大型语言模型)方面的工作。 “如果你是对构建下一...
-
GPT-5倒计时!奥特曼踢走Ilya得逞,宫斗惊人内幕再曝光
「OpenAI下一代前沿模型,正在训练中」。 经历了几周前Ilya、安全团队负责人Jan Leike离职后,超级对齐团队也被OpenAI解散。 今天,奥特曼领衔的OpenAI全新的「安全与保障委员会」官宣成立。 不仅如此,OpenAI预计,正在训练的下...
-
【ollama】(2):在linux搭建环境,编译ollama代码,测试qwen大模型,本地运行速度飞快,本质上是对llama.cpp 项目封装
关于 ollama 项目 https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2...
-
当前都在堆长窗口,还需要 RAG 吗?
自从谷歌的 Gemini 1.5 Pro 发布后,行业内就有不少人在背后“蛐蛐” RAG。 一方面是因为,Gemini 的表现确实亮眼。根据官方发布的技术报告,Gemini 1.5 Pro 能够稳定处理高达100 token,相当于1小时的视频、11小时...
-
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
如今,想训个SOTA的大模型,不仅缺数据和算力,甚至连电都不够用了。 最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。 Grok 3及更高版本,甚至需要10万个H100,按每台H100售价3万美元来算,仅芯片就要花...
-
和GPT4等大模型玩狼人杀 人类因讲话没深度被3票出局
最近,一位昵称为「Tore Knabe」的网友在X平台发布的一段视频引发了人们的讨论。视频中,四个AI NPC与一个人类坐在一起,按照“乘务员”的要求互相试探,找出其中隐藏的人类。每个NPC都对应着一款大模型,而五位扮演者分别被赋予了一个历史知名人物作为角...
-
OpenAI正训练GPT-4的继任者,GPT-5或将带来三个重大升级
虽然 OpenAI 最近推出的模型 GPT-4o 在大型语言模型(LLM)领域有了重大突破,但该公司已经开始着手研发下一个旗舰模型 GPT-5。许多人在 GPT-4o 发布前期就期待着 OpenAI 推出备受瞩目的 GPT-5。为了澄清这种猜测,首席执行官...
-
和GPT-4这些大模型玩狼人杀,人类因太蠢被票死,真·反向图灵测试
「你看,人类一败涂地了」 这是一次「反向图灵测试」,几个全球最先进的大模型坐在一起,坐着火车唱着歌,但其中混进了人类: 而 AI 的任务,是把这个人类揪出来。 最近,一位昵称「Tore Knabe」的网友在 X 平台发布的一段视频引发了人们的讨论。在视频中...
-
一文带你了解大模型:智能体(Agent)
作者 | lucasgftang 大语言模型 vs 人类 大语言模型很强大,就像人类的大脑一样拥有思考的能力。如果人类只有大脑,没有四肢,没有工具,是没办法与世界互动的。如果我们能给大模型配备上四肢和工具呢?大模型是不是就会打破次元壁,从数字世界走向现实...
-
硅谷“鲁迅”开喷!AI大佬LeCun狂怼马斯克、OpenAI
硅谷正经历着一场由人工智能引发的激烈辩论。引领这一风潮的不是别人,正是机器学习之父、图灵奖得主、Meta首席人工智能科学家Yann LeCun。LeCun以其直言不讳的风格,在AI领域掀起了一场舌战风暴,从马斯克到OpenAI,全都被他毫不客气地“怼”了一...
-
MIT最新力作:用GPT-3.5解决时间序列异常检测问题
今天给大家介绍一篇MIT上周发表的文章,使用GPT-3.5-turbo解决时间序列异常检测问题,初步验证了LLM在时间序列异常检测中的有效性。整个过程没有进行finetune,直接使用GPT-3.5-turbo进行异常检测,文中的核心是如何将时间序列转换...
-
AI模型竟然也有偏好的数字 GPT-3.5Turbo非常喜欢47
最近,人们发现了一个有趣的现象,即AI模型在选择数字时表现出类似人类的购买和避好行为,这证明了模型在回答问题时重复训练数据中的常见内容。这种行为具有确定“人性化”的特点,虽然模型本身并不具备人类的认知能力。 在实验中,一些工程师要求几个主要的LLM聊天机器...
-
硅谷有了自己的鲁迅!AI大佬LeCun连续暴走,从马斯克到OpenAI,全被怼了个遍
当地时间 5 月 26 日,马斯克旗下的人工智能初创公司xAI宣布完成B轮 60 亿美元融资。主要的投资者包括 Valor Equity Partners、Vy Capital、Andreessen Horowitz、红杉资本等。 xAI2023 年 7...
-
【AIGC】Mac Intel 本地 LLM 部署经验汇总(CPU Only)
书接上文,在《【AIGC】本地部署 ollama(gguf 与项目整合》章节的最后,我在 ollama 中部署 qwen1_5-14b-chat-q4_k_m.gguf 预量化模型,在非 Stream 模式下需要 89 秒才完成一轮问答,响应速度实在是太...
-
华信永道联合智谱AI发布“智道奇点”政务大模型SagesrvGLM
近日,由华信永道(北京)科技股份有限公司与北京智谱华章科技有限公司(智谱AI 联手打造的政务服务人工智能大模型——智道奇点SagesrvGLM,在北京盛大发布。这一创新产品不仅吸引了众多政府官员、企业代表和媒体的眼球,更以其卓越的技术特性和深远的行业影响,...
-
使用文心一言进行图像内容理解
接上篇文章,这期使用文心一言图像识别API,对本地图片以及在线视频图片进行内容理解。 该请求用于图像内容理解,支持输入图片和提问信息,可对输入图片进行理解,输出对图片的一句话描述,同时可针对图片内的主体/文字等进行检测与识别,支持返回图片内多主体/文字的...
-
大模型培训老师叶梓 AI编程的未来:GitHub Copilot的创新之旅与实践智慧
GitHub Copilot 是一个由 GitHub 开发的先进工具,它利用大语言模型(LLM)来辅助开发者编写代码。这个工具的开发和成功部署为其他希望构建企业级 LLM 应用的团队提供了宝贵的经验。以下是根据提供的文献,对 GitHub Copilot...
-
文心一言4.0、智谱清言、MoonshotAI实测对比(上)
前言 前两天看到这张图,又刚好拿到了文心一言的4.0内测号,就想着把新版国内御三家横向对比测评一下。 文末领取免费领取AI学习基地 +AI交流群 前一段时间也一直在研究复杂提示词(结构化提示词)向国内大模型迁移适配的问题,索性一起做了。...
-
使用 LLaMA Factory 微调 Llama-3 中文对话模型
原文:https://colab.research.google.com/drive/1d5KQtbemerlSDSxZIfAaWXhKr30QypiK?usp=sharing#scrollTo=gf60HoT633NY 请申请一个免费 T4 GPU 来...