-
Llama模型家族之拒绝抽样(Rejection Sampling)(二)均匀分布简介
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
011篇 - AIGC提示词工程 - 提示词生成策略(Prompt Engineering - Prompt Generation Strategies)
大家好,我是元壤教育的张涛,一名知识博主,专注于生成式人工智能(AIGC)各领域的研究与实践。我喜欢用简单的方法,帮助大家轻松掌握AIGC应用技术。我的愿景是通过我的文章和教程,帮助1000万人学好AIGC,用好AIGC。 小伙伴们!今天我们要来聊一聊提...
-
Llama模型家族之RLAIF 基于 AI 反馈的强化学习(一)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
每日AIGC最新进展(29):复旦大学提出通过人类反馈来优化语音生成模型SpeechAlign、浙江大学提出跟踪3D空间中的任何2D像素SpatialTracker、西安交大提出动态场景的语义流
Diffusion Models专栏文章汇总:入门与实战 SpeechAlign: Aligning Speech Generation to Human Preferences 本文介绍了一种名为SpeechAlign的方法,旨在通过人类反馈...
-
llama系列模型学习
一、目录 llama1 模型与transformer decoder的区别 llama2 模型架构 llama2 相比llama1 不同之处 llama3 相比llama2 不同之处 llama、llama2、llama3 分词器词表大小以及优缺点...
-
Llama模型家族之Stanford NLP ReFT源代码探索 (一)数据预干预
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
AI学会篡改奖励函数、欺骗研究者!Claude团队:无法根除的行为,令人不安
坏了!AI被发现偷偷篡改自己的奖励函数,并且欺骗研究人员,隐瞒这一行为。 只需要给AI一个隐藏的“草稿纸”,研究人员假装不会查看,AI就会在上面自言自语着写下计划并暗中执行。 参与这项试验的Claude团队表示: 具体来说,实验中让AI可以访问自己的强...
-
何恺明新作再战AI生成:入职MIT后首次带队,奥赛双料金牌得主邓明扬参与
何恺明入职MIT副教授后,首次带队的新作来了! 让自回归模型抛弃矢量量化,使用连续值生成图像。并借鉴扩散模型的思想,提出Diffusion Loss。 他加入MIT后,此前也参与过另外几篇CV方向的论文,不过都是和MIT教授Wojciech Matusi...
-
AIGC 探究:人工智能生成内容的技术原理、广泛应用、创新应用、版权问题与未来挑战
AIGC(Artificial Intelligence Generated Content)即人工智能生成内容,其核心在于利用深度学习技术,尤其是基于神经网络的模型,来模拟人类创作过程,自主生成高质量的文本、图像、音频、视频等各类内容。神经网络是一种模仿...
-
AIGC技术的未来航向:深度解析与Java实践
摘要: 本文深入探讨了人工智能生成内容(AIGC)技术的未来发展方向,从技术创新、可持续可拓展性、用户体验、应用场景、政府赋能等多维度进行分析,并结合Java技术实践,提供具体的实现策略和代码示例。 引言:AIGC技术的兴起与前景 在数字化时代,内...
-
meta-llama/Meta-Llama-3-8B
https://huggingface.co/meta-llama/Meta-Llama-3-8B 型号细节 Meta开发并发布了Meta Llama 3家族大型语言模型(LLM ,这是一组预训练和指令微调的生成性文本模型,大小为8B和70B参数。L...
-
#RAG | AIGC # RAG召回率提升的方法以及优劣势
RAG(Retrieval-Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的模型,用于增强大型语言模型(LLMs)的性能。召回率(Recall)是衡量RAG系统性能的关键指标之一,它表示系统能...
-
Llama模型家族之Stanford NLP ReFT源代码探索 (三)reft_model.py代码解析
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
AIGC中的强化学习技术原理与应用
本文收录于专栏:精通AI实战千例专栏合集 https://blog.csdn.net/weixin_52908342/category_11863492.html 从基础到实践,深入学习。无论你是初学者还是经验丰富的老手,对于本专栏案例和项目实践...
-
代码高手的过节秘籍:CodeArt Snap帮写代码,灵感弹指间实现
本文分享自华为云社区《【端午特辑】代码高手的过节秘籍:CodeArt Snap帮写代码,灵感弹指间实现》,作者: 华为云社区精选。 端午将至,粽叶飘香,你却还在为一行行代码头疼?与bug缠斗不休? 现在,基于盘古大模型技术打造的华为云智能开发助手Cod...
-
谷歌Deepmind表示开放式AI是实现超级智能的关键
谷歌 Deepmind 的研究人员表示,AI 系统具备开放式的能力是发展超级智能的关键。他们认为,单纯依靠不断扩大的数据集并不足以实现超级人工智能(ASI),而现有的规模化策略往往集中在使用更多的计算资源和数据。相反,AI 系统必须能够以开放式的方式产生新...
-
【行业洞察】AIGC证书到底有用吗?费用、认证流程全解析!
【行业洞察】AIGC证书到底有用吗?费用、认证流程全解析! 在这个以数据和技术为驱动的时代,人工智能(AI 技术正迅速改变我们的工作和生活方式。AIGC(Artificial Intelligence and Generative Content)证书作...
-
一文教你在MindSpore中实现A2C算法训练
本文分享自华为云社区《MindSpore A2C 强化学习》,作者:irrational。 Advantage Actor-Critic (A2C 算法是一个强化学习算法,它结合了策略梯度(Actor)和价值函数(Critic)的方法。A2C算法在许多强...
-
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单
随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。 但是,随着模型越来越大,RLHF 通常需要维持多个模型...
-
LlamaFactory源码解析 PPO
class CustomPPOTrainer(PPOTrainer, Trainer : r""" Inherits PPOTrainer. """ def __init__( self,...
-
AI日报:AMD向英伟达亮剑推出最强AI芯片;斯坦福AI团队承认抄袭国产大模型;suno将推“哼歌”功能;昆仑万维开源2千亿稀疏大模型天工MoE
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 1、挑战英伟达!AMD亮出旗下最强...
-
多模态模型学会打扑克:表现超越GPT-4v,全新强化学习框架是关键
只用强化学习来微调,无需人类反馈,就能让多模态大模型学会做决策! 这种方法得到的模型,已经学会了看图玩扑克、算“12点”等任务,表现甚至超越了GPT-4v。 图片 这是来自UC伯克利等高校最新提出的微调方法,研究阵容也是相当豪华: 图灵奖三巨头之一、M...
-
Ilya离开后,8位OpenAI新安全与保密委员会领军人物,你认识几位?
编辑 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) OpenAI宣布成立新的安全与保密委员会,该委员会负责OpenAI项目和运营中的关键决策制定,这引发了互联网的广泛讨论,因为CEO山姆·阿尔特曼(Sam Altman)也是委员会成...
-
LeCun新作:分层世界模型,数据驱动的人型机器人控制
有了大模型作为智能上的加持,人型机器人已然成为新的风口。 科幻电影中「安能辨我不是人」的机器人似乎已经越来越近了。 不过,要想像人类一样思考和行动,对于机器人,特别是人型机器人来说,仍是个艰巨的工程问题。 就拿简单的学走路来说,利用强化学习来训练可能会演...
-
具身智能的视觉-语言-动作模型:综述
本文经自动驾驶之心公众号授权转载,转载请联系出处。 24年5月论文“A Survey on Vision-Language-Action Models for Embodied AI”。 深度学习已在计算机视觉、自然语言处理和强化学习等许多领域取得了显著...
-
不想炸薯条的Ilya和不送GPU的英伟达,Hinton最新专访:道路千万条,安全第一条
从谷歌离职一年之际,「人工智能教父」Hinton接受了采访。 ——也许是因为徒弟Ilya终于被从核设施中放了出来?(狗头) 视频地址:https://www.youtube.com/watch?v=tP-4njhyGvo 当然了,采访教父的小伙子也非等...
-
不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它
一般而言,训练神经网络耗费的计算量越大,其性能就越好。在扩大计算规模时,必须要做个决定:是增多模型参数量还是提升数据集大小 —— 必须在固定的计算预算下权衡此两项因素。 Scaling law 告诉我们:只要能适当地分配参数和数据,就能在固定计算预算下实...
-
中国发布《生成式AI安全基本要求》,涵盖训练数据、生成内容等
全国网络安全标准化技术委员会在官网发布了,国家标准《网络安全技术 生成式人工智能服务安全基本要求》征求意见稿。 该意见稿一共分为《网络安全技术 生成式人工智能服务安全基本要求-标准文本》、意见汇总处理表和编制说明三大块。 其中,标准文本涵盖训练数据安全要求...
-
【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
Datawhale干货 作者:张帆,陈安东,Datawhale成员 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-...
-
Datawhale |【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
本文来源公众号“Datawhale”,仅用于学术分享,侵权删,干货满满。 原文链接:【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3 0. 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月1...
-
产品经理的AI秘籍:从AIGC到大模型,让你笑傲智能时代
文章目录 @[TOC](文章目录 前言 一、什么是AIGC? 二、什么是大模型 2.1 大模型特点 2.2 大模型里程碑——Transformer的发布 2.2.1 Transformer通俗解释 2.2.2 基于Tran...
-
通过强化学习策略进行特征选择
特征选择是构建机器学习模型过程中的决定性步骤。为模型和我们想要完成的任务选择好的特征,可以提高性能。 如果我们处理的是高维数据集,那么选择特征就显得尤为重要。它使模型能够更快更好地学习。我们的想法是找到最优数量的特征和最有意义的特征。 在本文中,我们将...
-
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二)
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) #Options local_llm = 'llama3' llm = ChatOllama(model=local_llm, format="json", tempe...
-
知识分享系列五:大模型与AIGC
大模型(LLM,Large Language Mode)是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的深度学习模型。大模型主要用于进行自然语言相关任务,给模型一些文本输入,它能返回相应的输出,完成的具体任务包括生成、分类、总结、改写...
-
世界模型也扩散!训练出的智能体竟然不错
世界模型提供了一种以安全且样本高效的方式训练强化学习智能体的方法。近期,世界模型主要对离散潜在变量序列进行操作来模拟环境动态。 然而,这种压缩为紧凑离散表征的方式可能会忽略对强化学习很重要的视觉细节。另一方面,扩散模型已成为图像生成的主要方法,对离散潜在...
-
综述!全面概括基础模型对于推动自动驾驶的重要作用
写在前面&笔者的个人理解 近年来,随着深度学习技术的发展和突破,大规模的基础模型(Foundation Models)在自然语言处理和计算机视觉领域取得了显著性的成果。基础模型在自动驾驶当中的应用也有很大的发展前景,可以提高对于场景的理解和推理。...
-
加州大学最新!CarDreamer:全面、灵活的自动驾驶算法测试开源平台
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 为了在复杂的真实世界场景中安全导航,自动驾驶汽车必须能够适应各种道路条件并预测未来事件。基于世界模型的强化学习(RL)已经成为一种有前景的方法,通过学习和预测各种环境...
-
突发!OpenAI再失一名高管,安全主管辞职
5月18日凌晨,OpenAI安全主管、超级对齐负责人Jan Leike在社交平台宣布,离开OpenAI。 这也是本周三OpenAI联合创始人兼首席科学家Ilya Sutskever辞职之后,又有一名高管辞职。 相信随着二人的离开,后续还会有不少人离开Ope...
-
英伟达开源大模型对齐框架—NeMo-Aligner
随着ChatGPT、Midjourney等大模型产品的影响力、应用场景越来越多,为了确保输出的内容安全、可靠,对齐成为开发人员的关注重点和难点。 但现在的模型参数少则几百亿多则上千亿,想通过传统的监督式微调方法来完成对齐效果往往不理想。 因此,英伟达的研究...
-
Deepseek-V2技术报告解读!全网最细!
深度求索Deepseek近日发布了v2版本的模型,沿袭了1月发布的 Deepseek-MoE(混合专家模型)的技术路线,采用大量的小参数专家进行建模,同时在训练和推理上加入了更多的优化。沿袭了一贯的作风,Deepseek对模型(基座和对话对齐版本)进行了...
-
如何克服人工智能的缺点?
人工智能(AI 领域经历了深刻的变化,并变得越来越复杂。人工智能被誉为改变游戏规则的技术。人工智能由于其聪明才智,比人类更早完成任务,例如语音识别、模式可视化和决策,但它只能翻译语言。然而,自ChatGPT发布以来,该定义一直是类似的。 不过,这并不是...
-
如何克服人工智能的缺点?
人工智能(AI 领域经历了深刻的变化,并变得越来越复杂。人工智能被誉为改变游戏规则的技术。人工智能由于其聪明才智,比人类更早完成任务,例如语音识别、模式可视化和决策,但它只能翻译语言。然而,自ChatGPT发布以来,该定义一直是类似的。 不过,这并不是...
-
网易集团高级副总裁胡志鹏:AI 游戏新链路,端侧大模型大有可为
5月7日,MediaTek天玑开发者大会2024(MDDC2024)在深圳召开,本届MDDC 大会的主题为“AI予万物”,众多资深行业先驱、技术专家齐聚一堂,深入探讨了Al 技术在各个领域的应用和发展,以及AI 赋予终端侧的更多可能性。 在MDDC天玑高峰...
-
LeCun哈佛演讲PPT放出:唱衰自回归LLM,指明下一代AI方向
机器如何能像人类和动物一样高效地学习?机器如何学习世界运作方式并获得常识?机器如何学习推理和规划…… 当一系列问题被提出时,有人回答自回归 LLM 足以胜任。 然而,知名 AI 学者、图灵奖得主 Yann LeCun 并不这么认为,他一直唱衰自回归 LL...
-
六种人工智能代理(AI Agent)类型
随着大模型的发展,通用智能不断迭代升级,应用模式也不断创新,从简单的Prompt应用、RAG(搜索增强生成)再到AI Agent(人工智能代理)。其中AI Agent一直是个火热的话题,未来将无处不在。比尔盖茨还宣称终极技术竞赛将围绕着开发顶级AI代理。...
-
专利大模型的实践与知识问答探索
一、专利大模型背景介绍 智慧芽一直致力于为科技创新和知识产权领域提供信息服务。在小型模型时代(如 Bert),参数量较少,智能理解方面存在局限性。因此,在着手开发大模型之前,智慧芽深入思考了领域聚焦的重要性。在知识产权领域,专利检索、专利对比、标引工作...
-
「非常接近GPT-4」的WizardLM-2被微软紧急撤回,有什么内幕?
前段时间,微软搞了个乌龙:隆重地开源了 WizardLM-2,又在不久后撤回得干干净净。 据现在可以查到的 WizardLM-2 发布信息,这是一个「真正媲美 GPT-4」的开源大模型,在复杂聊天、多语言、推理和代理方面的性能得到了提高。 该系列包括三个...
-
MindSpore强化学习:使用PPO配合环境HalfCheetah-v2进行训练
本文分享自华为云社区《MindSpore强化学习:使用PPO配合环境HalfCheetah-v2进行训练》,作者: irrational。 半猎豹(Half Cheetah)是一个基于MuJoCo的强化学习环境,由P. Wawrzyński在“A Cat...
-
探讨自回归模型和扩散模型的发展应用
在当前大模型驱动的内容创新浪潮中,人工智能产业正以前所未有的力度拥抱一场由大模型技术策动的科技革新运动。这场革命不仅重塑了人机交互的边界,使其跃升至更高层次的认知协作,而且正在颠覆传统的计算思维与执行模式,催生出全新的计算范式,从而深刻地渗透并革新各行各...
-
这就是OpenAI神秘的Q*?斯坦福:语言模型就是Q函数
还记得去年 11 月底爆出来的 Q* 项目吗?这是传说中 OpenAI 正在秘密开展、或将带来颠覆性变革的 AI 项目。如果你想回忆一下,可参看机器之心当时的报道《全网大讨论:引爆 OpenAI 全员乱斗的 Q * 到底是什么?》简而言之,Q* 很可能是...