-
南洋理工推80亿参数多模态大模型OtterHD
最近,南洋理工华人团队提出的80亿参数多模态大模型 OtterHD 引起了人们的关注。与其他模型相比,OtterHD 具有处理高分辨率图像的能力,并且具有通用性,能够应对各种推理需求。团队通过在 Fu...
-
腾讯披露最新大模型训练方法:Angel框架升级 效率提升2.6倍
在当前大模型参数规模呈指数级增长的情况下,腾讯近日披露了混元大模型训练的最新方法,通过升级自研机器学习框架Angel,成功提升大模型训练效率。这一升级使得千亿级大模型训练可以节省高达50%的算力成本,...
-
更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%
关于大模型注意力机制,Meta又有了一项新研究。 通过调整模型注意力,屏蔽无关信息的干扰,新的机制让大模型准确率进一步提升。 而且这种机制不需要微调或训练,只靠Prompt就能让大模型的准确率上升2...
-
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等)及其评估
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等 及其评估基准(...
-
本地免费GPT4?Llama 2开源大模型,一键部署且无需硬件要求教程
目前扎克布格带来了最新的Llama 2开源NLP大模型,目前有三个版本分别是70亿参数量,130亿参数量和700亿参数量,庞大的数据集和参数量保证了模型的强大,官网宣称性能与gpt4相...
-
使用 LoRA 技术对 LLaMA 65B 大模型进行微调及推理
前几天,Meta 发布了 LIMA 大模型,在LLaMA-65B的基础上,无需使用 RLHF,只用了 1000 个精心准备的样本数据进行微调,就达到了和 GPT-4 相媲美的程度。这激发了我探索 LL...
-
大模型的实践应用6-百度文心一言的基础模型ERNIE的详细介绍,与BERT模型的比较说明
大家好,我是微学AI,今天给大家讲一下大模型的实践应用6-百度文心一言的基础模型ERNIE的详细介绍,与BERT模型的比较说明。在大规模语料库上预先训练的BERT等神经语言表示模型可以很好地从纯文本中...
-
「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?
「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?...
-
李沐大模型公司细节曝光,项目GitHub空仓标星超500
AI大神李沐大模型创业方向,终于“水落石出”: 利用大模型能力,做游戏引擎,且是面向4A游戏。 关于4A游戏这个概念,目前业内没有统一的“名词解释”,但通常理解为比3A游戏更强大一点的游戏(doge)...
-
理想L系列车型将迎史上最大更新:全自研大模型Mind GPT上车
此次升级将带来全新的全场景智能驾驶(NOA)、全场景辅助驾驶(LCC)、以及全自研的Mind GPT大模型。 详细来看,此次升级,理想汽车将带来全自研的大模型Mind GPT,支持用车助手、出行助手...