-
【AIGC调研系列】CogVLM2:第二代视觉大模型
CogVLM2是智谱AI推出的新一代多模态大模型,继承并优化了上一代模型的经典架构。CogVLM2采用了一个拥有50亿参数的强大视觉编码器,并创新性地在大语言模型中整合了一个70亿参数的视觉专家模块[1]。这一设计使得CogVLM2在视觉和语言理解方面实现...
-
人工智能AI和数字化世界走向何方
2024 年 5 月 23 日,美国众议院外交事务委员会以压倒性多数投票提交了一项法案,该法案将使拜登政府更容易限制 AI 系统的出口。该法案还将赋予美国商务部明确的权力,禁止美国人与外国人合作开发对美国国家安全构成威胁的 AI 系统。 路透社本月报...
-
如何在本地搭建集成大语言模型Llama 2的聊天机器人并实现无公网IP远程访问
文章目录 1. 拉取相关的Docker镜像 2. 运行Ollama 镜像 3. 运行Chatbot Ollama镜像 4. 本地访问 5. 群晖安装Cpolar 6. 配置公网地址 7. 公网访问 8. 固定公网地址 随着ChatGPT...
-
一文读懂 Arthur Bench LLM 评估框架
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - LLM 评估 。 众所周知,LLM 评估是人工智能领域的一个重要议题。随着 LLM 在各个场景中的广泛应用,评估它们的能力和局限性变得越来越重要。作为一款新兴...
-
英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元
最近几年,随着大语言模型的飞速发展与迭代,科技巨头们都竞相投入巨额财力打造超级计算机(或大规模 GPU 集群)。他们认为,更强大的计算能力是实现更强大 AI 的关键。 早在 2022 年,Meta 即宣布与英伟达共同打造大型 AI 研究超级计算机「AI...
-
披萨上涂胶水、建议用户吃石头、毒蘑菇……谷歌又被大模型带沟里
继「把马斯克画成黑人」后,谷歌 AI 再度闯祸。 近日,有网友使用谷歌的 AI Overview 功能进行搜索,却得到了一堆离谱的回答。例如,告诉用户在披萨上涂胶水,或者建议他们吃石头等。谷歌 AI「满嘴跑火车」的回答迅速在社交媒体上发酵,甚至有网友发...
-
Hinton揭秘Ilya成长历程:Scaling Law是他学生时代就有的直觉
2003年夏天的一个周日,AI教父Hinton在多伦多大学的办公室里敲代码,突然响起略显莽撞的敲门声。 门外站着一位年轻的学生,说自己整个夏天都在打工炸薯条,但更希望能加入Hinton的实验室工作。 Hinton问,你咋不预约呢?预约了我们才能好好谈谈。...
-
多模态预训练模型在 OPPO 端云场景的落地实践
一、端侧图文检索技术研究 1. 解决了什么问题? 首先来介绍图文检索技术。以前在手机端相册搜索照片,都是基于标签来搜索。从 CLIP 模型出现后开始做自然语言搜索。目前正在解决端侧性能、搜索效果、安全等问题。技术难度并不大,重点在于提高搜索速度。并...
-
免费AI出图神器:StableStudio——定义AI作画新前景
StableStudio:探索艺术与科技的无限交界,StableStudio引领AI智能创作新浪潮! - 精选真开源,释放新价值。 概览 ChatGPT大语言模型AI的诞生引爆了对AIGC的讨论。AIGC 又称生成式 AI (Generat...
-
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型
为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些...
-
港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体
当前,多模态大模型 (MLLM)在多项视觉任务上展现出了强大的认知理解能力。 然而大部分多模态大模型局限于单向的图像理解,难以将理解的内容映射回图像上。 比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。 定位能力的缺失直接限制了多模态...
-
模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了
TinyLLaVA 项目由清华大学电子系多媒体信号与智能信息处理实验室 (MSIIP 吴及教授团队和北京航空航天大学人工智能学院黄雷老师团队联袂打造。清华大学 MSIIP 实验室长期致力于智慧医疗、自然语言处理与知识发现、多模态等研究领域。北航团队长期...
-
CoT提出者Jason Wei:大模型评估基准的「七宗罪」
在 CV 领域,研究者一直把李飞飞等人创建的 ImageNet 奉为模型在下游视觉任务中能力的试金石。 在大模型时代,我们该如何评估 LLM 性能?现阶段,研究者已经提出了诸如 MMLU、GSM8K 等一些评估基准,不断有 LLM 在其上刷新得分。 但这...
-
OpenAI 有望在两到三年内成为价值万亿美元的公司
中国投资者和连续创业者李开复最近表示,他看好 OpenAI 在两到三年内成为一家万亿美元的公司。 李开复在最近接受《财富》杂志采访时表示:“OpenAI 很可能在不久的将来(两到三年)成为一家价值万亿美元的公司。”“我对 OpenAI 的未来非常乐观...
-
离大模型落地应用最近的工程化技术(RAG)
虽然大规模语言模型(LLM)在自然语言处理(NLP)方面表现出了其强大的文本生成和理解能力,但是它们在实际应用中仍然面临一些挑战,如处理大规模知识库和实时获取最新信息的能力,并且会产生幻觉。为了解决这些问题,检索增强生成(Retrieval-Augmen...
-
只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调
自 2010 年起,AI 技术历经多个重大发展阶段,深度学习的崛起和 AlphaGo 的标志性胜利显著推动了技术前进。尤其是 2022 年底推出的 ChatGPT,彰显了大语言模型(LLM)的能力达到了前所未有的水平。自此,生成式 AI 大模型迅速进入高...
-
GPT-4被证实有人类心智!网友:连AI都可以看出他在嘲讽你了
Nature杂志上发表的最新研究显示,GPT-4在心智理论(Theory of Mind, ToM)方面的表现与人类相当,甚至在某些方面超过了人类。这项研究由James W. A. Strachan等人进行,他们通过一系列测试来评估GPT-4、GPT-3....
-
谷歌 CEO 承认 AI 摘要功能存在“幻觉”问题:尚无解决方案
5 月 26 日消息,谷歌搜索新推出的“AI 摘要(AI Overviews)”功能近日备受诟病,原因是该功能经常提供严重错误的搜索结果信息,例如,该功能曾建议用户使用胶水来防止披萨上的奶酪滑落。 本周早些时候,据科技媒体 The Verge 报道,谷...
-
一文深度剖析 ColBERT
近年来,向量搜索领域经历了爆炸性增长,尤其是在大型语言模型(LLMs)问世后。学术界开始重点关注如何通过扩展训练数据、采用先进的训练方法和新的架构等方法来增强 embedding 向量模型。 在之前的文章中,我们已经深入探讨了各种类型的 embeddin...
-
尴尬!谷歌手动删除搜索中奇怪的 AI 回答
谷歌的 AI Overview 产品最近推出后,社交媒体上涌现了一些怪异的回答,例如建议用户在披萨上涂胶水或吃石头。这个失误导致谷歌不得不手动禁用特定搜索的 AI Overviews,因为各种有趣的回答很快就被发布到社交网络上。 谷歌的发言人梅根・法恩斯沃...
-
Meta LlaMA 3模型深度解析
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 拉玛的故事 “在安第斯山脉崎岖的山区,生活着三种非常美丽的生物——里约、洛基和塞拉。它们有着光泽的皮毛和闪闪发光的眼睛,是力量和韧性的...
-
人工智能辅导应用在美国学生中炙手可热 多款来自中国AI厂商开发
美国学生正热衷于使用基于人工智能的家庭作业应用进行课后辅导。这些应用利用大型语言模型如ChatGPT为学生提供个性化、按需的学习帮助,从解答数学题到写作论文无所不包。 休斯顿高中生埃文就是其中一例。他曾请私人家教辅导,时薪高达60美元。现在他改用名为Ans...
-
为何说小语言模型是AI界的下一大热门?
译者 | 布加迪 审校 | 重楼 在AI领域,科技巨头们一直在竞相构建越来越庞大的语言模型,如今出现了一个令人惊讶的新趋势:小就是大。随着大语言模型(LLM)方面的进展出现了停滞的迹象,研究人员和开发人员日益开始将注意力转向小语言模型(SLM)。这种紧凑...
-
LLM大模型推理加速实战:vllm、fastllm与llama.cpp使用指南
随着人工智能技术的飞速发展,大型语言模型(LLM)在诸如自然语言处理、智能问答、文本生成等领域的应用越来越广泛。然而,LLM模型往往具有庞大的参数规模,导致推理过程计算量大、耗时长,成为了制约其实际应用的关键因素。为了解决这个问题,一系列大模型推理加速工具...
-
Llama大型语言模型原理详解
Llama大型语言模型是一种基于深度学习的自然语言处理模型,它在文本生成、问答、摘要等多种NLP任务中展现出强大的性能。本文将详细解析Llama模型的原理,包括其结构、训练过程以及工作机制,帮助读者深入理解这一先进的模型。 一、模型结构 Llama模型...
-
在个人 Linux 机器 (GPU/CPU) 上本地运行 LLaMA-3(Docker+Ollama+Open WebUI+LLama3教程含详细步骤)
在当今快速发展的人工智能环境中,部署开源大型语言模型 (LLM 通常需要复杂的计算基础设施。然而,Ollama 的创新平台正在改变这一规范,支持在标准个人计算机上使用这些强大的模型,支持CPU和GPU配置。本指南介绍了如何使用 Ollama 在您自己的设...
-
本地环境运行Llama 3大型模型:可行性与实践指南
简介: Llama 是由 Meta(前身为 Facebook)的人工智能研究团队开发并开源的大型语言模型(LLM),它对商业用途开放,对整个人工智能领域产生了深远的影响。继之前发布的、支持4096个上下文的Llama 2模型之后,Meta 进一步推出了性...
-
Shortened LLaMA:针对大语言模型的简单深度剪枝法
🍉 CSDN 叶庭云:https://yetingyun.blog.csdn.net/ 论文标题 & 发表会议:Shortened LLaMA: A Simple Depth Pruning for Large Language Model...
-
Llama模型下载
最近llama模型下载的方式又又变了,所以今天简单更新一篇文章,关于下载的,首先上官网,不管在哪里下载你都要去官网登记一下信息:https://llama.meta.com/llama2 然后会出现下面的信息登记网页: 我这里因为待业所以or...
-
在Mac电脑上本地部署Llama大型语言模型
Llama大型语言模型以其出色的性能和广泛的应用场景,吸引了众多NLP研究者和开发者的关注。在Mac电脑上本地部署Llama模型,可以让我们更加便捷地利用这一强大工具进行各种NLP任务。本文将详细介绍在Mac电脑上本地部署Llama模型的步骤和注意事项。...
-
AI大模型日报#0418:Stable Diffusion 3开放API、Meta新研究让AI Agent理解物理世界
导读: 欢迎阅读《AI大模型日报》,内容基于Python爬虫和LLM自动生成。目前采用“文心一言”生成了每条资讯的摘要。标题: 微软刚发布了VASA-1 这个人工智能可以让单张图像具有生动的说话和歌唱能力 摘要: 微软发布了VASA-1人工智能,...
-
阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B!
本文原文来自DataLearnerAI官方网站:阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B! | 数据学习者官方网站(Datalearner https://www...
-
如何本地运行Llama 2大语言模型并实现无公网IP远程访问
文章目录 1. 拉取相关的Docker镜像 2. 运行Ollama 镜像 3. 运行Chatbot Ollama镜像 4. 本地访问 5. 群晖安装Cpolar 6. 配置公网地址 7. 公网访问 8. 固定公网地址 随着ChatGPT...
-
知识分享系列五:大模型与AIGC
大模型(LLM,Large Language Mode)是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的深度学习模型。大模型主要用于进行自然语言相关任务,给模型一些文本输入,它能返回相应的输出,完成的具体任务包括生成、分类、总结、改写...
-
llama-factory/peft微调千问1.5-7b-chat
目标 使用COIG-CQIA数据集和通用sft数据集对qwen1.5-7b-chat进行sft微调,使用公开dpo数据集进行dpo对齐。学习千问的长度外推方法。 一、训练配置 使用Lora方式, 将lora改为full即可使用全量微调。具体的参数...
-
AIGC提示(prompt)飞升方法:走向专家之路
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
文心一言4.0 VS ChatGPT4.0 图片生成能力大比拼!
大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效...
-
【优质书籍推荐】AIGC时代的PyTorch 深度学习与企业级项目实战
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
李飞飞:大模型不具备知觉,参数再多也不行
大模型已经具备知觉? AI教母李飞飞的最新回答旗帜鲜明:No。 她和斯坦福逻辑学家、哲学家John Etchemendy刚刚发表一篇合著文章,标题很直接: 文章中还写道: 这与图灵奖得主Yann LeCun的最新观点不谋而合。LeCun的言论还要更...
-
使用LM Studio与Anything LLM基于Llama-3高效构建本地知识库系统
本文详细介绍了如何使用LM Studio和Anything LLM工具来构建和部署本地知识库。文中首先解释了安装和配置大模型的步骤,随后展示了如何将模型部署为后台服务,并通过API进行调用。此外,文章还涉及了如何使用这些工具快速构建知识库应用,包括知识库的...
-
李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行
「空间智能是人工智能拼图中的关键一环。」知名「AI 教母」李飞飞曾这样表示。 近段时间,李飞飞开始把目光瞄准到这一领域,并为此创建了一家初创公司。她曾表示,「大自然创造了一个以空间智能为动力的观察和行动的良性循环。」她所在的斯坦福大学实验室正在尝试教计...
-
马斯克预测AI世界:人类无需再为生计奔波 工作将变成爱好
快科技5月24日消息,近日,埃隆马斯克在巴黎的欧洲科技创新展览会上分享了他对未来人工智能世界的预测。 他认为,随着AI技术的快速发展,未来社会将能够按需提供所有商品和服务。 在这样的环境下,人们将不再为了生计而工作,而是根据个人兴趣和爱好选择职业,更多地去...
-
生成式AI赋能零售银行产业:发掘潜力空间,规避业务陷阱
银行业领导者,对于生成式AI(GenAI)重塑客户体验和优化运营的潜力感到兴奋。麦肯锡的一项调查发现,生成式AI每年可增加2000亿至3400亿美元价值,推动收入增长2.8%至4.7%。零售银行业务成为银行业的第二大盈利部门,创造了540亿美元的新价值...
-
微软Build 2024:Azure生成式AI开发工具库获得大量更新
微软近日对其开发者工具进行了大量更新,试图让生成式AI开发者的工作更轻松。 软件和云巨头微软表示,这些更新将有助于团队构建能力更强的、知识更丰富的AI模型,包括专门的Copilot,可以完成更广泛的企业相关任务。这次微软在Microsoft Buil...
-
LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略
LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略 导读:2024年4月18日,Meta 重磅推出了Meta Llama 3,本文章主要介绍了Meta推出的新的开源大语言模型Meta Llama 3。模型架构 Llam...
-
LLaMA Factory多卡微调的实战教程
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
详解苹果和微软的AI集成策略
当OpenAI在其春季更新会议上宣布推出macOS的ChatGPT桌面应用时,人们不禁疑惑为什么它没有先从Windows开始,毕竟,微软是OpenAI的主要投资者,理应最早获得新ChatGPT功能的访问权限。 现在我们知道原因了,在Build会议上宣布...
-
利用大语言模型增强网络抓取:一种现代化的方法
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 本文将探讨大语言模型(LLMs 与网络抓取的集成,以及如何利用LLMs高效地将复杂的HTML转换为结构化的JSON。 作为一名数据工程...
-
LLaMA Factory单机微调的实战教程
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
字节携港大南大升级 LLaVA-NeXT:借 LLaMA-3 和 Qwen-1.5 脱胎换骨,轻松追平 GPT-4V
文 | 王启隆 出品 | 《新程序员》编辑部 2023 年,威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学的研究人员共同开发的 LLaVA 首次亮相,彼时它被视为一个端到端训练的大型多模态模型,展现了在视觉与语言融合领域的潜力。今年...