-
微软大幅扩展 Azure AI Studio,将 Llama 2、GPT-4 Turbo with Vision 纳入其中
微软是迄今为止生成式人工智能热潮的最大赢家之一,这要归功于其早期支持 OpenAI并整合了后者初创公司的技术进入 Bing、Azure 和各种其他服务,其显然一直在努力避免将所有人工智能鸡蛋放在一个篮子里。 图片来自 Microsoft 如今,该公司宣布...
-
2023.12.12最新源码及资源:使用Python构建与百度大模型(包括文心一言在内的18个语言模型)的交互式界面!!
#ps:12.12修复bug,部分模型不能回应的问题,资源已更新! 在当前人工智能领域,通过与机器进行智能对话的能力变得越来越重要。本文将介绍如何使用Python编程语言和Tkinter库构建一个交互式界面,使用户能够与百度大模型进行智能对话,展...
-
llama.cpp 部署 llama-2-7b 测试 Llama 2
首先进入这里 https://github.com/facebookresearch/llama 点击下载 填写注册信息 接受后继续 上面的按钮点击后,应该邮箱就收到链接了,几乎是很快的 把下面的链接复制后备用,注意24小时后会失效...
-
Mistral AI宣布与Google Cloud合作,并发布新的开源LLM
巴黎的人工智能初创公司Mistral AI宣布与Google Cloud签署战略合作,实现了一次重大突破。根据双方的非独占性协议,Mistral AI将利用Google Cloud的AI优化基础设施分发其开源LLM及优化的专有语言模型。谷歌云法国区总经理I...
-
使用LLama和ChatGPT为多聊天后端构建微服务
微服务架构便于创建边界明确定义的灵活独立服务。这种可扩展的方法使开发人员能够在不影响整个应用程序的情况下单独维护和完善服务。然而,若要充分发挥微服务架构的潜力、特别是针对基于人工智能的聊天应用程序,需要与最新的大语言模型(LLM,比如Meta LLama ...
-
Chinese-LLaMA-AIpaca 指令精调
文章目录 一、继续训练 Chinese-AIpaca 模型的 LoRA权重 二、基于中文Chinese-LLaMA训练全新的指令精调LoRA权重 1、合并 2、基于中文 Chinese-LLa...
-
LLM__llama-7B模型试验
llama模型已经开源很久了,所以拿做小的模型做了个简单尝试 一、服务器购买与配置 1.1 服务器购买 因为做简单尝试并不打算长期持有,所以以便宜、够用、好退货为主要参考依据购买阿里云服务器、 我看7B的模型权重大小就13GB,所以先购入一个 3...
-
微软小模型击败大模型:27亿参数,手机就能跑
上个月,微软 CEO 纳德拉在 Ignite 大会上宣布自研小尺寸模型 Phi-2 将完全开源,在常识推理、语言理解和逻辑推理方面的性能显著改进。 今天,微软公布了 Phi-2 模型的更多细节以及全新的提示技术 promptbase。这个仅 27 亿参...
-
Hugging News #0814: Llama 2 学习资源大汇总
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣...
-
Together AI发布AI模型StripedHyena-7B 性能超越Llama-27B
Together AI最新发布了StripedHyena-7B,这一人工智能模型领域的创新力量引起了广泛关注。该模型的基础版本为StripedHyena-Hessian-7B(SH7B),同时还推出了聊天模型StripedHyena-Nous-7B(SH-...
-
LLaMA-Factory使用V100微调ChatGLM2报错 RuntimeError: “addmm_impl_cpu_“ not implemented for ‘Half‘
微调命令 CUDA_VISIBLE_DEVICES=0 python /aaa/LLaMA-Factory/src/train_bash.py \ --stage sft \ --model_name_or_path /aaa/LLaMA...
-
消息称 Meta 无视自家律师警告,使用盗版书籍训练 AI 模型
12 月 13 日消息,据路透社报道,根据一起版权侵权诉讼的新文件显示,Meta Platforms 在明知使用数千本盗版书籍训练其 AI 模型存在法律风险的情况下,仍然一意孤行。 据IT之家了解,该诉讼由喜剧演员 Sarah Silverman、普...
-
AI视野:Midjourney正式上线Alpha网页版;OpenAI恢复会员注册;腾讯发布视频生成模型AnimateZero;微软发布小语言模型AI Phi-2
???AI应用 Midjourney正式上线Alpha网页版!支持已生成图片设置参数回填 Midjourney Alpha全新升级,生成用户界面更便捷,成功生成1万张图片即可获得权限,可视化图像参数支持点击回填到提示词输入框,提升生成体验。 截图自归藏...
-
全方位、无死角的开源,邢波团队LLM360让大模型实现真正的透明
开源模型正展现着它们蓬勃的生命力,不仅数量激增,性能更是愈发优秀。图灵奖获得者 Yann LeCun 也发出了这样的感叹:「开源人工智能模型正走在超越专有模型的路上。」 专有模型在技术性能和创新能力上展现了非凡的力量,但是它们不开源的性质成为 LLM 发...
-
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
大模型现在真的是越来越卷了! 11月OpenAI先是用GPTs革了套壳GPT们的命,然后再不惜献祭董事会搏了一波天大的流量。 谷歌被逼急了,赶在年底之前仓促发布了超大模型Gemini,卷起了多模态,甚至不惜「视频造假」。 就在今天,微软正式发布了曾在11...
-
微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型
微软发布了一款名为Phi-2的人工智能模型,该模型表现出了不凡的能力,其性能可媲美甚至超越规模是其25倍的、更大、更成熟的模型。 微软在近日的一篇博文中宣布,Phi-2是一个拥有27亿参数的语言模型,与其他基础模型相比,它在复杂的基准测试中表现出了 "先...
-
通义千问72B模型荣登大模型评测平台OpenCompass榜首
中国权威的大型模型评估平台OpenCompass最近更新其排名,通义千问72B模型以67.1的高分荣登榜首。 OpenCompass是由上海人工智能实验室推出的开源大型模型评估平台,其评估范围涵盖学科、语言、知识、理解和推理五个维度,能够全面评估大型模型的...
-
微软发文:27 亿参数的 Phi-2 AI 模型性能优于谷歌 32 亿参数的 Gemini Nano-2
12 月 13 日消息,微软公司今天发布新闻稿,表示旗下的 Phi-2 2.7B 模型,在多个方面都优于谷歌发布的 Gemini Nano-2 3.2B。 Phi-2 2.7B 模型 IT之家今年 11 月报道,微软在 Ignite 2023 大会上,宣...
-
LLaMA及其子孙模型概述
文章目录 LLaMA Alpaca Vicuna Koala Baize (白泽 骆驼(Luotuo BELLE Guanaco LLaMA 与原始transformer的区别: 预归一化[GPT3]。为了提高训练稳定性,对...
-
微软发布小型语言 AI 模型 Phi-2,性能优于 Llama 2、Mistral 7B
微软研究院当地时间周二宣布其 Phi-2 小型语言模型(SML),这是一款文本到文本的人工智能程序,据 X 平台的一篇帖子称,它「足够小,可以在笔记本电脑或移动设备上运行」。 Phi-2 拥有 27 亿参数,性能堪比其他更大的模型,包括 Meta 的 L...
-
llama.cpp部署通义千问Qwen-14B
llama.cpp是当前最火热的大模型开源推理框架之一,支持了非常多的LLM的量化推理,生态比较完善,是个人学习和使用的首选。最近阿里开源了通义千问大语言模型,在众多榜单上刷榜了,是当前最炙手可热的开源中文大语言模型。今天在github上看到前几天llam...
-
LLM-LLaMA中文衍生模型:Chinese-LLaMA-Alpaca【扩充词表、Lora部分参数预训练、微调】
GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs 中文LLaMA模型...
-
【Video-LLaMA】增强LLM对视频内容的理解
Paper:《Video-LLaMA : An Instruction-tuned Audio-Visual Language Model for Video Understanding》 Authors: Hang Zhang, Xin Li, Lid...
-
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_pt_with_peft.py文件)—模型训练前置工作(参数解析+配置日志)→模型初始化(检测是否存在训练过的chec
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_pt_with_peft.py文件 —模型训练前置工作(参数解析+配置日志 →模型初始化(检测是否存在训练过的checkpoint+加载预训练模型和tokenizer →数据...
-
训练自己的Llama 2!大模型微调技术介绍
训练自己的Llama 2!大模型微调技术介绍 趋动云 趋动云是面向 AI 算法工程师的开发平台,为工程师提供模型开发、模型训练、数据和代码管理等功能。 近期有不少粉丝问算力君,趋动云是否支持大模型的训练?当然支持! 最近大火的Llama...
-
马斯克摊上事了!Grok AI被爆疑似抄袭ChatGPT??
大家好,我是二狗。 马斯克今天摊上事了! X(推特)一名网友爆料,马斯克旗下xAI公司研发的Grok AI疑似“抄袭”ChatGPT。 Grok 在回答网友的一个问题时,做出了令人震惊的“承认”: “恐怕我无法满足该请求,因为它违反了OpenAI的用例政...
-
LLaMA(大规模机器学习和分析)
LLaMA(大规模机器学习和分析 是一个先进的软件平台,是Meta 推出 AI 语言模型 LLaMA,一个有着 上百亿数量级参数的大语言模型用于大规模部署和管理机器学习模型。借助LLaMA,组织可以高效地在大型数据集上训练和部署模型,缩短投放市场的...
-
ChatGPT的训练数据可以通过“偏离攻击”进行泄露
ChatGPT等大语言模型(LLM)使用来自图书、网站及其他来源的海量文本数据进行训练,通常情况下,训练它们所用的数据是一个秘密。然而,最近的一项研究揭示:它们有时可以记住并反刍训练它们所用的特定数据片段。这个现象名为“记忆”。 随后,来自谷歌Deep...
-
2024年AI趋势看这张图,LeCun:开源大模型要超越闭源
2023 年即将过去。一年以来,各式各样的大模型争相发布。当 OpenAI 和谷歌等科技巨头正在角逐时,另一方「势力」悄然崛起 —— 开源。 开源模型受到的质疑一向不少。它们是否能像专有模型一样优秀?是否能够媲美专有模型的性能?迄今为止,我们一直还只能说...
-
开源大模型超越GPT-3.5!爆火MoE实测结果出炉,网友:OpenAI越来越没护城河了
一条神秘磁力链接引爆整个AI圈,现在,正式测评结果终于来了: 首个开源MoE大模型Mixtral 8x7B,已经达到甚至超越了Llama 2 70B和GPT-3.5的水平。 (对,就是传闻中GPT-4的同款方案。) 并且由于是稀疏模型,处理每个toke...
-
构建更好的基于LLM的应用程序的四大秘诀
作者 | Adrien Treuille 译者 | 布加迪 审校 | 重楼 出品 | 51CTO技术栈(微信号:blog51cto) 自从OpenAI发布首个ChatGPT模型以来,人们对生成式AI的兴趣激增。基于大语言模型(LLM)的应用程序现处于企业...
-
467亿参数MoE追平GPT-3.5!爆火开源Mixtral模型细节首公开,中杯逼近GPT-4
今天,Mistral AI正式放出了Mixtral 8x7B的技术细节—— 在大多数基准测试中,Mixtral的表现不仅优于Llama 2 70B,而且推理速度提高了整整6倍! 尤其是,它在大多数标准基准测试上与GPT-3.5打平,甚至略胜一筹。 新开源...
-
MiniGPT-4 and LLaMA 权重下载
MiniGPT-4 权重文件下载 权重文件下载 官方下载 https://huggingface.co/docs/transformers/main/model_doc/llama 填写表单,等待申请 磁力下载 磁力 magnet:...
-
技术报告:Efficient and Effective Text Encoding for Chinese LLaMA AND Alpaca
技术报告:Efficient and Effective Text Encoding for Chinese LLaMA AND Alpaca Introduction Chinese LLaMA Chinese Alpaca Lora-Fin...
-
LLM之Prompt(二):清华提出Prompt 对齐优化技术BPO
论文题目:《Black-Box Prompt Optimization: Aligning Large Language Models without Model Training》 论文链接:https://arxiv.org/abs/2311.041...
-
ChatGPT 已经成为过去,在您的笔记本电脑中免费运行 Llama 2(源码含模型)
指示: 现在您可以在计算机本地运行 ChatGPT 和 LLaMA-2。Meta刚刚发布了这个拥有700亿参数的模型,比任何其他Open模型都要好,甚至击败了Falcon 40B! 为此,您需要打开终端,转到项目文件夹,然后 git clone ll...
-
零一万物Yi-34B-Chat微调模型上线,登陆多个权威榜单
最近,业内众多大模型基准又迎来了一轮 “实力值” 更新。 继 11 月初零一万物发布 Yi-34B 基座模型后,Yi-34B-Chat 微调模型在 11 月 24 日开源上线 ,短时间登陆了全球多个英文、中文大模型权威榜单,再度获得了全球开发者的关注。...
-
胜率达94.08%!李开复Yi-34B最新成绩超过LLaMA2等主流大模型
近期,李开复的Yi-34B-Chat模型在多个评测中大放异彩。其94.08%的胜率超越了LLaMA2和ChatGPT等主流大模型,尤其在加州大学伯克利分校主导的LMSYS ORG排行榜中,以1102的Elo评分追平了GPT-3.5。此外,在中文SuperC...
-
像调鸡尾酒一样调制多技能大模型,智源等机构发布LM-Cocktail模型治理策略
随着大模型技术的发展与落地,「模型治理」已经成为了目前受到重点关注的命题。只不过,在实践中,研究者往往感受到多重挑战。 一方面,为了高其在目标任务的性能表现,研究者会收集和构建目标任务数据集并对大语言模型(LLM)进行微调,但这种方式通常会导致除目标任务...
-
直追GPT-4!李开复Yi-34B新成绩公布:94.08%的胜率超越LLaMA2等主流大模型
仅次于GPT-4,李开复零一万物Yi-34B-Chat最新成绩公布—— 在Alpaca经认证的模型类别中,以94.08%的胜率,超越LLaMA2 Chat 70B、Claude 2、ChatGPT! 图片 不仅如此,在加州大学伯克利分校主导的LMSYS...
-
一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用
各家大模型纷纷卷起上下文窗口,Llama-1时标配还是2k,现在不超过100k的已经不好意思出门了。 然鹅一项极限测试却发现,大部分人用法都不对,没发挥出AI应有的实力。 AI真的能从几十万字中准确找到关键事实吗?颜色越红代表AI犯的错越多。 默认情...
-
LLM-SFT,新微调数据集-MWP-Instruct(多步计算 + 一、二元方程),微调Bloom, ChatGLM, LlaMA(支持QLoRA, TensorBoardX)
LLM-SFT 中文大模型微调(LLM-SFT , 支持模型(ChatGLM, LlaMA, Bloom , 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX , 支持(微调, 推理, 测评, 接口 等. 项目...
-
2023人工智能工程五大新方向
除了LLM的大量增加,AI开发工具也有了扩展。我们来看一下今年AI开发中的五个关键趋势。 译自Top 5 AI Engineering Trends of 2023,作者 Richard MacManus 是The New Stack的高级编辑,专注于W...
-
导出LLaMA ChatGlm2等LLM模型为onnx
通过onnx模型可以在支持onnx推理的推理引擎上进行推理,从而可以将LLM部署在更加广泛的平台上面。此外还可以具有避免pytorch依赖,获得更好的性能等优势。 这篇博客(大模型LLaMa及周边项目(二) - 知乎)进行了llama导出onnx的开创性...
-
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型
「高端」的开源,往往采用最朴素的发布方式。 昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。 没有长篇官方博客,没有刻意加速的 Demo,这家公司算是当下大模型领域的「一股清流」。 打开一看,发现是接近 87 GB 的种子...
-
开源模型「幻觉」更严重,这是三元组粒度的幻觉检测套件
大模型长期以来一直存在一个致命的问题,即生成幻觉。由于数据集的复杂性,难免会包含过时和错误的信息,这使得输出质量面临着极大的挑战。过多的重复信息还可能导致大型模型产生偏见,这也算是一种形式的幻觉。如何检测和有效缓解大模型的生成幻觉问题一直是学术界的热门课...
-
一文读懂常用的 “生成式 AI 框架”
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - Gen AI ,即“生成式 AI” 技术。 随着 AI 技术的不断发展,Gen AI 的力量超越了单纯的技术奇迹,更是一种具有变革性的动态力量,深刻地塑造了...
-
llama.cpp部署在windows
本想部署LLAMA模型,但是基于显卡和多卡的要求,很难部署在个人笔记本上,因此搜索发现有一个量化版本的LLAMA.cpp,部署过程和踩过的坑如下: 1.配置环境 (1)在GitHub - ggerganov/llama.cpp: Port of Fac...
-
触手可及的 GPT —— LLaMA
出品人:Towhee 技术团队 最近几个月 ChatGPT 的出现引起广泛的关注和讨论,它在许多领域中的表现都超越了人类的水平。它可以生成人类级别的语言,并且能够在不同的任务中学习和适应,让人们对人工智能的未来充满了希望和憧憬。 ChatGPT 之...
-
LLaMA Adapter和LLaMA Adapter V2
LLaMA Adapter论文地址: https://arxiv.org/pdf/2303.16199.pdf LLaMA Adapter V2论文地址: https://arxiv.org/pdf/2304.15010.pdf LLaMA Ada...