-
Harvey公司与OpenAI合作 为法律专业人士打造定制训练的案例法模型
近日,Harvey公司与OpenAI宣布合作,共同为法律专业人士打造了一款定制训练的案例法模型。这款AI系统不仅具备复杂的推理能力,还能够处理广泛的法律领域知识,并具备超越单一模型调用的能力。 它能够起草法律文件、回答复杂的诉讼场景问题,甚至识别数百份合同...
-
Yuan2.0大模型,联合向量数据库和Llama-index,助力检索增强生成技术
1. 背景 在大模型爆发的时代,快速准确地从大量数据中检索出有价值的信息变得至关重要。检索增强生成(RAG)技术,结合了传统的信息检索和最新的大语言模型(LLM),不仅能够回答复杂的查询,还能在此基础上生成信息丰富的内容。 RAG技术的核心在于其能够将...
-
实施稳健的AI治理以实现数据民主化
根据Gartner的数据,到2026年,超过80%的企业将使用GenAI API和模型,或在生产中部署启用GenAI的应用程序,而去年这一比例不到5%。GenAI的自然语言界面允许非技术用户,从部门负责人到一线工作人员,更轻松地访问和使用数据。这...
-
一文读懂大型语言模型微调技术挑战与优化策略
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI 生态领域相关的技术 - LLM Fine-Tuning ,本文将继续聚焦在针对 LLM Fine-Tuning 技术进行剖析,使得大家能够了解 LLM Fine-Tuning...
-
llama_index 官方文档阅读笔记 (持续更新版)
llama 0.10.17🦙版本 阅读 链接: LlamaIndex 🦙 v0.10.17 LlamaIndex 是一个基于 LLM 的应用程序的数据框架,它受益于上下文增强。这种LLM系统被称为RAG系统,代表“检索-增强生成”。LlamaIndex...
-
大模型“路由器”OpenRouter 为LLM何其他AI模型提供统一接口
OpenRouter是一个创新性的项目,它为大语言模型(LLM)和其他AI模型提供了一个统一的接口。通过这个接口,用户可以直接访问和使用几十种AI模型,包括GPT、LLama、Claude、Command-R等80多个模型,未来还将扩展到数百种。 Open...
-
扩散模型如何构建新一代决策智能体?超越自回归,同时生成长序列规划轨迹
设想一下,当你站在房间内,准备向门口走去,你是通过自回归的方式逐步规划路径吗?实际上,你的路径是一次性整体生成的。 近期的研究表明,采用扩散模型的规划模块能够同时生成长序列的轨迹规划,这更加符合人类的决策模式。此外,扩散模型在策略表征和数据合成方面也能为...
-
谷歌云数据库增加更多人工智能功能
谷歌云正在加强其分析和事务数据库,包括BigQuery, AlloyDB和Spanner,旨在推动其客户生成人工智能应用程序的开发。 BigQuery是谷歌云的顶级数据库,用于支持分析和人工智能工作负载,它开发了几项人工智能增强功能。首先,该公司推出了...
-
花旗高管表示:生成式AI在银行业具有变革性,但在客户支持方面存在风险
在花旗银行,生成式人工智能(Gen AI)已经在推动数据驱动决策方面取得了积极而深远的影响。花旗银行的首席分析技术与创新负责人Promiti Dutta表示,Gen AI的出现引起了银行内部的一场大变革,将数据和分析置于所有事务的前沿。 Dutta在VB的...
-
Cohere 与埃森哲合作加速企业 AI 应用
Cohere 很高兴宣布与 埃森哲合作,旨在将我们最先进的 Command 和 Embed 模型以及业界领先的检索增强生成(RAG)功能带给企业,助力企业跨部门推广生成式人工智能的应用。这两家公司将联手为企业提供由 Cohere 的旗舰专有生成 LLM 模...
-
倪光南院士探讨RAG技术、AI代理及AI伦理挑战
中国工程院院士倪光南在第二届北京人工智能产业创新发展大会上,分享了他对人工智能发展的看法和体会。 倪光南表示:由人工智能引领的新一轮科技革命和产业变革正在全球范围内蓬勃兴起。当前世界各国都在作出重大部署,将人工智能领域作为提升国家竞争的科创高地。不久前...
-
让GenAI提供更好答案的诀窍
GenAI作为一种界面提供了巨大的潜力,使用户能够以独特的方式查询你的数据,以接收针对他们的需求的答案,例如,作为查询助手,GenAI工具可以帮助客户使用简单的问答格式更好地导航广泛的产品知识库。 但在使用GenAI回答有关数据的问题之前,重要的是首先...
-
金融分析多模态LLM FinTral:基于Mistral-7B模型 得分接近GPT-4
近日,来自不列颠哥伦比亚大学和Invertible AI的研究人员推出了一款具有突破性的大型语言模型(LLM)——FinTral,专为金融领域量身定制。FinTral采用了多模态方法,能够处理文本、数字、表格和视觉数据,以应对金融文件的复杂性。该模型引入了...
-
掌握商业人工智能:使用 RAG 和 CRAG 构建企业级人工智能平台
通过我们的指南了解如何为您的企业释放人工智能的力量。了解 RAG 和 CRAG 集成、矢量嵌入、LLM 和提示工程。非常适合负责任地拥抱人工智能的企业。 为企业打造AI-Ready平台 企业在引入生成式人工智能时,会遇到许多需要战略管理的业务风险。这...
-
企业数据在生成人工智能中的关键作用
大量基于GenAI的工具和应用涌入市场。其中一些应用非常聪明且富有创意,但它们大多是ChatGPT等应用背后的大型语言模型(LLM 的包装器。这并不是要贬低LLM的语言、概念和单词关系知识可以提供新的效率和生产力的数千种潜在场景。 但LLM和ChatGP...
-
GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况
众所周知,大型语言模型(LLM)的推理通常需要使用自回归采样,这个推理过程相当缓慢。为了解决这个问题,推测解码(Speculative Decoding)已经成为 LLM 推理的一种新型采样方法。这种方法在每个采样步骤中,会先预测几个可能的 token,...
-
Nomic AI 发布首个完全开源的长文本嵌入模型,超越 OpenAI Ada-002在各项基准测试中的表现
在自然语言处理(NLP)领域不断发展的背景下,理解和处理广泛的文本内容至关重要。最近的一些进展显著提升了语言模型的能力,特别是通过文本嵌入的发展。这些嵌入成为许多应用的基础,包括大型语言模型(LLMs 的检索增强生成和语义搜索。它们将句子或文档转换为低维向...
-
使用LlamaIndex和ChatGPT的无代码检索增强生成(RAG)
检索增强生成(RAG 是使用大型语言模型(LLM 的关键工具。RAG使LLM能够将外部文档合并到它们的响应中,从而更紧密地与用户需求保持一致。这个功能在传统上使用LLM犹豫不决的领域尤其有益,尤其是在事实很重要的时候。 自从ChatGPT和类似的LLM推...
-
揭开向量索引概念的神秘面纱
自从ChatGPT公开发布以来,人们几乎没有一天不讨论LLM(大型语言模型)、RAG(检索增强生成:Retrieval Augmented Generation)和向量数据库的新内容。技术世界充斥着LLM的可能性,LLM被视为将改变我们生活的最新技术:...
-
用通俗易懂的方式讲解:使用Llama-2、PgVector和LlamaIndex,构建大模型 RAG 全流程
近年来,大型语言模型(LLM)取得了显著的进步,然而大模型缺点之一是幻觉问题,即“一本正经的胡说八道”。其中RAG(Retrieval Augmented Generation,检索增强生成)是解决幻觉比较有效的方法。 本文,我们将深入研究使用trans...
-
AI视野:通义千问发布Qwen1.5;背景分割开源模型RMBG v1.4来了;OpenAI 为 DALL-E3添加新水印;苹果图片项目MGIE上线试玩
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 🤖📱💼AI应用 通义千问团队发布...
-
生成式AI公司Galileo推出检索增强生成工具
生成式AI公司Galileo最近推出了一项新的工具,旨在帮助企业开发可信赖的人工智能(AI)解决方案。这项名为检索增强生成(RAG 和代理分析的解决方案旨在应对RAG系统的复杂性,该系统已成为大型语言模型(LLMs 开发者越来越受欢迎的工具。 RAG系统通...
-
GPT-4/Gemini大翻车,做旅行攻略成功率≈0%!复旦OSU等华人团队:Agent不会复杂任务规划
AI智能体,是目前学界炙手可热的前沿话题,被众多专家视为大模型发展的下一个方向。 然而,最近复旦、俄亥俄州立大学、宾夕法尼亚州立大学、Meta AI的研究者们发现,AI智能体在现实世界的规划能力还很差。 他们对GPT-4 Turbo、Gemini Pro...
-
开源版GPTs人人免费用!Hugging Face发布定制个人助手,点两下轻松创建
去年,OpenAI发布GPTs之后,短短几个月,全网诞生了300万+个GPT。 而现在,「开源低配版」的GPTs来了! 最近,世界最大的开源社区Hugging Face推出了开源、可定制的AI 助手——Hugging Chat Assistants。 图...
-
AI「导师」进哈佛!7x24小时辅导CS课程,RAG或成AI教育最后一块拼图
去年,哈佛大学做了件大事。 他们在自己的CS50课程中引入了一整套AI工具,堪称学生个人的个性化「导师」。 一开始,这套工具服务的对象是70来个上暑校的学生。后来逐渐开放,数千名线上学生也得以拥有属于自己的学习导师。 到了秋季,AI工具又面向了几百位本校...
-
击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了
一周前,OpenAI 给广大用户发放福利,在下场修复 GPT-4 变懒的问题后,还顺道上新了 5 个新模型,其中就包括更小且高效的 text-embedding-3-small 嵌入模型。 我们知道,嵌入是表示自然语言或代码等内容中概念的数字序列。嵌入使...
-
Prompt 驱动架构设计:探索复杂 AIGC 应用的设计之道?
你是否曾经想过,当你在 Intellij IDEA 中输入一个段代码时,GitHub 是如何给你返回相关的结果的?其实,这背后的秘密就是围绕 Prompt 生成而构建的架构设计。 Prompt 是一个输入的文本段落或短语,用于引导 AI...
-
AIGC内容分享(三):AIGC应用:基于RAG构建个人知识库
目录 前言 Collect (收集 收集是什么? Organize (组织 组织信息 Distill (提炼 提炼信息 Express (表达 表达见解 Finetune调优 调整输出内容 总结一下 前言 在信息爆炸的...
-
无需人工标注!LLM加持文本嵌入学习:轻松支持100种语言,适配数十万下游任务
文本嵌入(word embedding)是自然语言处理(NLP)领域发展的基础,可以将文本映射到语义空间中,并转换为稠密的矢量,已经被广泛应用于各种自然语言处理(NLP)任务中,如信息检索(IR)、问答、文本相似度计算、推荐系统等等, 比如在IR领域,第...
-
让知识图谱成为大模型的伴侣
大型语言模型(LLM 能够在短时间内生成非常流畅和连贯的文本,为人工智能的对话、创造性写作和其他广泛的应用开辟了新的可能性,然而,LLM也有着一些关键的局限性。它们的知识仅限于从训练数据中识别出的模式,这意味着缺乏对世界的真正理解。同时,推理能力也是有限...
-
GPT-4不偷懒了!OpenAI连甩五个大模型,价格最低打两折
OpenAI深夜更新!一口气连甩五个大模型: 新的GPT-4 Turbo预览模型 新的GPT-3.5 Turbo型号 新的文本审核模型 两种新文本嵌入模型 实打实地来了个加量又减价,甚至有模型直接来了个骨折价——降到了原来的五分之一。 开发者狂喜!...
-
OpenAI深夜推出5个模型更新,价格打骨折!
编辑 | 言征 当地时间,1月25日,OpenAI发布了新的模型,同时降低了GPT-3.5 Turbo的价格,并为开发人员引入了管理API密钥和了解API使用情况的新方法。 新模型包括:两个新的嵌入模型、一个更新的GPT-4 Turbo预览模型、一个...
-
GPT-4「变懒」bug被修复,价格暴降80%!OpenAI连更5款新模型,性能狂飙
GPT-4又双叒叕变强了! 今天,OpenAI正式发布了更新版的GPT-4 Turbo——gpt-4-0125-preview。 不仅大幅改善了模型「偷懒」的情况,而且还极大地提升了代码生成的能力。 图片 与此同时,OpenAI还发布了一系列模型和API...
-
Oracle推出云生成式AI服务 帮助企业部署和微调语言模型
数据库巨头Oracle近日推出了Oracle Cloud Infrastructure Generative AI服务,发布的同时推出了各种创新技术,使大型企业能够利用生成式AI技术的最新成果。 这次推出的OCI Generative AI服务是一项全...
-
2024 年,3 项技术将为生成式人工智能提供帮助
随着 ChatGPT 惊艳的首年即将落幕,生成式人工智能(genAI)与大型语言模型(LLM)无疑已成为引人瞩目的技术焦点。然而,在企业的黄金时期,它们是否已具备投入使用的能力呢?ChatGPT 所遭遇的挑战众所周知,其在回答问题时的准确性尚待提高。尽...
-
RAG实战 7 - 使用llama_index实现多模态RAG
LLM之RAG实战(七)| 使用llama_index实现多模态RAG 文章目录 LLM之RAG实战(七)| 使用llama_index实现多模态RAG 一、多模态RAG 二、多模态LLM 三、多模态嵌入 四、多模态索引与检索 五、多...
-
北京国际电影节AIGC电影单元;提示工程最佳实践;手把手教你构建基于RAG的LLM应用;多伦多大学AI对齐最新课程;国产大模型行研能力测评 | ShowMeAI日报
👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 🉑 Runway AIFF 2024 | 第二届AI电影节,作品提交进入50天倒计时 https://aiff.runwayml.com...
-
LLM之RAG实战(十六)| 使用Llama-2、PgVector和LlamaIndex构建LLM Rag Pipeline
近年来,大型语言模型(LLM)取得了显著的进步,然而大模型缺点之一是幻觉问题,即“一本正经的胡说八道”。其中RAG(Retrieval Augmented Generation,检索增强生成)是解决幻觉比较有效的方法。本文,我们将深入研究使用...
-
甲骨文的 OCI 生成式 AI 服务现已推出
Oracle 宣布了 Oracle Cloud Infrastructure(OCI)Generative AI 服务的普遍可用性,以及使企业更轻松地利用生成 AI 的最新进展的新创新。 OCI Generative AI 服务是一项完全托管的服务,无缝集...
-
你对AI未来的数据战略是什么?
随着企业变得更加数据驱动,古老的计算谚语垃圾输入,垃圾输出(GIGO 从未像现在这样正确。将AI应用于许多业务流程只会加速确保所用数据的准确性和及时性的需要,无论是内部生成的数据还是外部来源的数据。不良数据的代价 Gartner估计,企业因使用质量不佳...
-
无需训练实现价值观实时动态对齐:上交开源价值观对齐方法OPO,闭源与开源大模型均适用
随着人工智能技术的发展,以 GPT-4 为代表的大语言模型依靠其强大的能力正在对社会产生深远的影响。与此同时,大模型本身的安全性问题也变得尤为重要。如何确保大语言模型可以和人类的价值、真实的意图相一致,防止模型被滥用、输出有害的信息,这是大模型安全治理的...
-
傅盛发布猎户星空大模型Orion-14B 拥有140亿参数规模
1月21日,猎户星空在傅盛2024开年 AI 大课暨猎户星空大模型发布会上发布了猎户星空大模型(Orion-14B)。这是一款由猎户星空研发的预训练多语言大语言模型,拥有140亿参数规模,覆盖了常见语言和专业术语,并在多个第三方测试集上取得了同级别模型的最...
-
哈佛大学基于GPT开发AI辅助教学工具CS50.ai
在 ChatGPT 刚出来的时候,很多大学就禁止使用 ChatGPT、GitHub Copilot 等 AI 辅助工具,防止学生作弊。而哈佛大学意识到,如果不利用 AI 的强大潜力来丰富学生的学习过程,那将错失一个宝贵机遇,这是非常可惜的。因此,他们积极地...
-
英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大
昨天,Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,从而在 Llama 2 70B 的迭代微调后超越了 GPT-4。今天,英伟达的全新对话 QA 模型「ChatQA-70B」在不使用任何 GPT 模型数据的情况下,在 10...
-
大型语言模型中最大的瓶颈:速率限制
作者 | Matt Asay策划 | 言征 速率限制意味着每个人都在等待更好的计算资源或不同的生成人工智能模型。 大型语言模型(LLM),如OpenAI的GPT-4和Anthropic的Claude 2,凭借其生成类人文本的能力,吸引了公众的想象力。...
-
字节跳动基础架构SRE-Copilot获得2023 CCF国际AIOps挑战赛冠军
近日,2023 CCF国际AIOps挑战赛决赛暨“大模型时代的AIOps”研讨会在北京成功举办,活动吸引了来自互联网、运营商、科研院所、高校、软硬件厂商等领域多名专家学者参与,为智能运维的前沿学术研究、落地生产实践打开了新思路。决赛中,从初赛两百多支...
-
大型语言模型检索增强生成利器——向量搜索引擎
译者 | 朱先忠 审校 | 重楼 简介 随着大型语言模型(LLM)席卷全球,向量搜索引擎也紧随其后。同时,向量数据库也构成大型语言模型长期记忆系统的基础。 通过有效的算法找到相关信息并使其作为上下文传递给语言模型,向量搜索引擎可以提供超出训练截止值的最...
-
2024年数据技术趋势:基础模型和机密计算
也许塑造当代数据领域的最大力量,就是基础模型的普遍存在。这些模型在生成人工智能的部署中表现得最为明显,其正在影响从外部客户交互到内部员工与数据系统的接口等各个方面。 因此,存储和检索数据、应用和从基础模型中产生价值,以及强调数据驱动流程(如数据安全和数...
-
软件开发人员指南:在自己的数据上训练ChatGPT
译者 | 李睿 审校 | 重楼 出品 | 51CTO技术栈(微信号:blog51cto) OpenAI公司推出的ChatGPT对于对话式人工智能具有革命性意义。虽然其开箱即用的功能令人印象深刻,但ChatGPT的功能本质上受到2021年固有训练数据的...
-
使用CLIP和LLM构建多模态RAG系统
在本文中我们将探讨使用开源大型语言多模态模型(Large Language Multi-Modal 构建检索增强生成(RAG 系统。本文的重点是在不依赖LangChain或LLlama index的情况下实现这一目标,这样可以避免更多的框架依赖。 什么...