-
大模型恋爱神器!16种MBTI自由定制,北大ChatLaw团队出品
北大团队新作,让大模型拥有个性! 而且还是自定义那种,16种MBTI都能选。 图源备注:图片由AI生成,图片授权服务商Midjourney 这样一来,即便是同一个大模型,不同性格下的回答都不一样。 比如提问:你周末喜欢干什么? 这样能干啥呢?北大的童...
-
Stable Diffusion 母公司开源大语言模型,代号「StableLM」!
公众号关注 “GitHubDaily” 设为 “星标”,每天带你逛 GitHub! 昨天晚上 11 点,Stable Diffusion 的母公司 Stability AI 重磅宣布,正式开源一款全新的大语言模型:StableLM。...
-
AIGC:阿里开源大模型通义千问部署与实战
1 引言 通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代...
-
微软祭出代码大模型WaveCoder!四项代码任务两万个实例数据集,让LLM泛化能力飙升
用高质量数据集进行指令调优,能让大模型性能快速提升。 对此,微软研究团队训练了一个CodeOcean数据集,包含了2万个指令实例的数据集,以及4个通用代码相关任务。 与此同时,研究人员微调了一个代码大模型WaveCoder。 论文地址:https://...
-
LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知识库问答应用)的简介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embe
LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知识库问答应用 的简介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embedding模型m3e等+多种TextSplitter分词...
-
本地部署Stable Diffusion教程,亲测可以安装成功
系列文章目录 Stable Diffusion界面参数及模型使用 谷歌Colab云端部署Stable Diffusion 进行绘图 文章目录 系列文章目录 前言 一、Stable Diffusion是什么? 二、安装前的准备 1...
-
小冰正式发布克隆人:已经有人拿它年入100万了!
凭着AI,月入10万、年入100万,你敢想? 别不信,好几位百万粉丝网红已经做到了。 例如半藏森林,她用AI的打开方式是这样的: 不仅容貌和声音与真人无异,而且还是可以秒回消息、打视频电话聊天的那种。 而这,便是由小冰克隆人在这个世界中打造的另一位半藏森...
-
迷你AI模型TinyLlama发布:高性能、仅637MB
经过一番期待,TinyLlama项目发布了一款引人注目的开源模型。该项目于去年9月启动,开发人员致力于在数万亿标记上训练一款小型模型。在经历了一些辛勤工作和一些挫折之后,TinyLlama团队如今发布了这个模型。这个模型有着10亿个参数,大约在训练数据上进...
-
AIGC:【LLM(六)】——Dify:一个易用的 LLMOps 平台
文章目录 一.简介 1.1 LLMOps 1.2 Dify 二.核心能力 三.Dify安装 3.1 快速启动 3.2 配置 四.Dify使用 五.调用开源模型 六.接通闭源模型 七.在 Dify.AI 探索不同模型潜力 7.1 快速切...
-
最强开源大模型?Llama 2论文解读
标题 简介 模型预训练 预训练设置 硬件资源与碳排放 模型评估 模型微调 有监督微调 基于人工反馈的强化学习(RLHF) 人类偏好数据的收集 奖励模型 迭代微调过程 多轮对话控制 RLHF 结果 模型回答的安全性 一直...
-
LLaMA模型论文《LLaMA: Open and Efficient Foundation Language Models》阅读笔记
文章目录 1. 简介 2.方法 2.1 预训练数据 2.2 网络架构 2.3 优化器 2.4 高效的实现 3.论文其余部分 4. 参考资料 1. 简介 LLaMA是meta在2023年2月开源的大模型,在这之后,很多开源模型都...
-
ChatGPT变笨新解释:世界被AI改变,与训练时不同了
对于ChatGPT变笨原因,学术界又有了一种新解释。 加州大学圣克鲁兹分校一项研究指出: 论文重点研究了“任务污染”问题,也就是大模型在训练时期就见识过很多任务示例,给人一种AI拥有零样本或少样本能力的错误印象。 也有学者从另一个角度指出,大模型训练...
-
GPT-5不会真正突破,24年AGI不会实现!全网AI大佬24年最全预测
【新智元导读】经过23年的生成式AI之年,24年AI会有哪些新突破?大佬预测,即使GPT-5发布,LLM在本质上仍然有限,在24年,基本的AGI也不足以实现。 23年是当之无愧的「生成式AI之年」。 24年,AI技术会有哪些突破? 英伟达高级科学家Jim...
-
基于Huggingface完成text-to-image的文本生成图像实例(AIGC)--零基础
AIGC指人工智能生成创造力(Artificial Intelligence Generated Creativity,AIGC),是一个涵盖多个领域的跨学科领域,它将人工智能和计算机科学与创造力和艺术结合起来,旨在通过算法生成具有创造力和艺术性的作品,例...
-
Mistral 欧洲最强模型团队的野望;国内大模型都是套壳LLaMA?Claude官方提示词教程-中英双语;AI原生应用难产了;AI Agents实践经验 | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 看热闹不嫌事大!马斯克:OpenAI首席科学家 Ilya 应该跳槽到xAI https://www.businessinsider.com/...
-
win10部署NovelAI绘画,Stable Diffusion,Chilloutmix,实现txt2img,img2img(含调参)
文章目录 1、Stable Diffusion是什么 2、深度学习环境搭建 3、Stable Diffusion环境搭建(可跳过) 4、Stable Diffusion WebUI环境搭建(主要) 5、NovelAI模型的修改与调参 6、Chi...
-
聊聊拉长LLaMA的一些经验
Sequence Length是指LLM能够处理的文本的最大长度,越长,自然越有优势: 更强的记忆性。更多轮的历史对话被拼接到对话中,减少出现遗忘现象 长文本场景下体验更佳。比如文档问答、小说续写等 当今开源LLM中的当红炸子鸡——LLaMA...
-
VC谈2024年AI发展趋势年:多模态模型主导、GPU短缺等
随着2023年的结束,VC们对过去一年围绕人工智能的巨大进展和伦理辩论进行了回顾。像Bing Chat和Google Bard这样的聊天机器人展示了令人印象深刻的自然语言能力,而生成式AI模型如DALL-E3和MidJourney V6则以其创造性的图像生...
-
图灵奖得主Yann LeCun最新专访:AI将接管世界,但不会征服人类!
当他的前合作者 Geoffrey Hinton和 Yoshua Bengio 宣称 AI 灭绝论时,LeCun 并没有参与。相反,他签署了一封公开信,呼吁拥抱开源 AI,并称 AI不应由少数几家企业控制。 那么,AI 到底是会给人类带来毁灭性灾难,还是会...
-
快手Agents系统、模型、数据全部开源!
7B 大小的模型也能玩转 AI Agents 了?近期,快手开源了「KwaiAgents」,问它周末滑雪问题,它不但帮你找到场地,连当天的天气都帮你考虑周到了。 大家都知道大语言模型(LLM)通过对语言的建模而掌握了大量知识,并具备一定认知和推理能力。...
-
折射OpenAI新一年技术路线图,透视Sam Altman的12个愿望清单
当地时间12月24日,Sam Altman 在X 平台上罕见地发起了一个「许愿池」, 「希望 OpenAI 在2024年构建/修复什么?」,这条推文迅速吸引 AI 领域众多大佬和网友的参与。 两个小时后,Sam Altman 挑选了12个期望值最高的愿望清...
-
谷歌被打脸!Gemini Pro被证实和GPT3.5差距不大
谷歌最新发布的Gemini Pro自发布以来备受瞩目,谷歌声称其优于GPT-3.5。然而,CMU的研究通过深入的实验对比,展示了GPT-3.5在多个任务上的全面优势。Gemini Pro虽然在某些任务上稍显不足,但整体表现与GPT-3.5相近,为大模型领域...
-
苹果开放 AI 研究成果,发布多模态 LLM 模型 Ferret
IT之家 12 月 25 日消息,苹果公司于 2023 年 10 月与哥伦比亚大学的研究人员合作发布了名为 Ferret(雪貂)的开源多模态 LLM,但当时并没有引起太多关注。 许多人工智能社区的人士都错过了 Ferret 的发布,他们对苹果意想不到地...
-
【AIGC】baichuan-7B大模型
百川智能|开源可商用的大规模预训练语言模型baichuan-7B大模型 概述 baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持...
-
昆仑万维或将引领国内 AIGC 技术发展
AIGC 发展历程 如果说 2021 年是元宇宙元年,那么 2022 年绝对可以称作 AIGC 元年。自从 Accomplice 于 2021 年 10 月推出 Disco Diffusion 以来,AIGC 受到了前所未有的关注,相关产品和技术更是以...
-
【AIGC】Chatglm2-lora微调
ChatGLM2介绍 ChatGLM2-6B源码地址:https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低...
-
LLMs-入门二:基于google云端Colab部署Llama 2
LLMs-入门二:基于google云端Colab部署Llama 2 1、访问网址 2、基础概念 3、选择最适合您的 Colab 方案 4、基于Colab部署开源模型Llama 2 1)在Colab上安装huggingface套件 2)申请调用...
-
国内首个官方大模型评测结果出炉!阿里云通义千问首批通过评测
快科技12月22日消息,国内首个官方大模型标准符合性评测”结果公布。 阿里云通义千问成为首批通过评测的四款国产大模型之一,在通用性、智能性等维度均达到国家相关标准要求。 据悉,本次通过评测的首批大模型中,通义千问是唯一的开源模型,在全球拥有广泛的开发者用户...
-
扳回一局!Gemini-Pro多模态能力和GPT-4V不相上下
近期的Gemini-Pro评测报告显示其在多模态领域取得了显著的进展,与GPT-4V不相上下,甚至在某些方面表现更为出色。首先,在多模态专有基准MME上的综合表现中,Gemini-Pro以1933.4的高分超越了GPT-4V,展现出在感知和认知方面的全面优...
-
together.ai让AI模型训练快9倍,获NVIDIA参投1.025亿美元A轮融资
目前获得融资最多的两家大模型创业公司是OpenAI和Anthropic,而这两家公司最大的投资者分别是微软和亚马逊,他们投资的很大一部分不是资金,而是等值的云计算资源。这其实也就把这两家顶尖的闭源大模型公司“绑上了”科技巨头的“战车”。 在闭源大模型之外,...
-
Stability AI 推出商业版会员计划,对AI模型的商业使用收费
Stable Diffusion 背后的的公司Stability A现在推出了一项订阅服务,以标准化和改变客户商业用途中对其模型的使用方式。该公司表示,会员计划 “重新定义” 了其向用户授予商业使用权的方式,旨在在盈利和开放性之间取得平衡。 Stabil...
-
AIGC大记事【2023-0625】【第五期】:《时代》专访ChatGPT之父:人工智能影响经济还需要很多年
大咖观点: 《时代》专访ChatGPT之父:人工智能影响经济还需要很多年 孙正义:我每天和ChatGPT聊天,一场巨大革命即将到来,软银“终将统治世界!” 刘慈欣谈 ChatGPT:人类的无能反而是人类最后的屏障 AI时代已来,吴恩达呼吁向每个孩...
-
MosaicML 推出 30B 模型 — 挑战 LLaMA、Falcon 和 GPT
MosaicML正在推出其第二个开源大型语言模型(LLM),称为MPT-30B,这是继五月份首次推出的较小的MPT-7B模型之后。 为了讨论新模型及其对开发人员的意义,我采访了MosaicML联合创始人兼首席执行官Naveen Rao。他之前的创业公司是...
-
深度学习之目标检测中的常用算法
随着深度学习的不断发展,深度卷积神经网络在目标检测领域中的应用愈加广泛,现已被应用于农业、交通和医学等众多领域。 与基于特征的传统手工方法相比,基于深度学习的目标检测方法可以学习低级和高级图像特征,有更好的检测精度和泛化能力。 什么是目标检测? 目标检测...
-
使用LM Studio在本地运行LLM完整教程
GPT-4被普遍认为是最好的生成式AI聊天机器人,但开源模型一直在变得越来越好,并且通过微调在某些特定领域是可以超过GPT4的。在开源类别中,出于以下的原因,你可能会考虑过在本地计算机上本地运行LLM : 脱机:不需要互联网连接。 模型访问:在本地运行...
-
Gemini自曝文心一言牵出重大难题,全球陷入高质量数据荒?2024年或将枯竭
谷歌Gemini,又出丑闻了! 昨天上午,网友们激动地奔走相告:Gemini承认自己是用文心一言训练中文语料的。 国外大模型用中国模型产生的中文语料训练,这听起来就是个段子,结果段子竟然成现实了,简直魔幻。 微博大V「阑夕」夜亲自下场,在Poe网站上实...
-
UIUC清华联手发布全新代码大模型Magicoder 不到7B参数
在代码生成领域,UIUC和清华合作发布了Magicoder,这一全新的大型语言模型仅使用了7B参数,却能与顶级模型媲美,并以全面开源的方式分享了其代码、权重和数据。Magicoder的关键在于采用了OSS-INSTRUCT方法,该方法通过从开源代码中获取灵...
-
最新GPT-4.5疑似泄露!更强多模态,支持3D,价格飙6倍
大家对于 OpenAI产品的关注讨论热度,似乎从没下来过。最近,网上更是传得沸沸扬扬:最新版本的GPT-4. 5 好像神不知鬼不觉偷偷上线了! 根据Reddit网站OpenAI版块的爆料帖子, GPT-4. 5 被描述为“OpenAI 最先进的一款模型”,...
-
程序员撑过ChatGPT一周年!不仅没被取代,还把AI用得贼6:10分钟开发一个应用
不知不觉间,距离掀起全球新一轮 AI 革命的 ChatGPT 出道,已经过去一周年了。在这场颠覆性的 AI 革命中,许多企业和程序员们逐渐形成了一个共识:“不会用 AI 就将被淘汰”。 为了避免“被淘汰”,这一年来众多企业和程序员全力拥抱 AI、开发各种...
-
ChatGPT构建离不开PyTorch,LeCun言论引热议,模型厂商不开放权重原来为此
这两天,有关开源的话题又火了起来。有人表示,「没有开源,AI 将一无所有,继续保持 AI 开放。」这个观点得到了很多人的赞同,其中包括图灵奖得主、Meta 首席科学家 Yann LeCun。 想象一下,如果工业界的 AI 研究实验室仍然封闭、没有开源代码...
-
2024 年的六个生成式 AI 预测
分析师迈克·莱昂内(Mike Leone)预测了生成式人工智能的下一步——从开源到监管转变——提供了对2024年行业发展方向的全面看法。 随着 2023 年接近尾声,是时候展望明年了。当涉及到生成式人工智能时,我们很容易迷失在所有的可能性中——我们在 ...
-
腾讯讯云推出高性能应用服务HAI 10分钟即可创建AI应用
12月18日,腾讯云宣布推出高性能应用服务(Hyper Application Inventor,HAI),无需复杂配置,用户只需10分钟即可创建自己的AI应用。 据介绍,HAI提供即插即用的算力和常见环境,可以帮助中小企业、开发者和个人用户快速部署语言模...
-
Llama-2大模型本地部署研究与应用测试
最近在研究自然语言处理过程中,正好接触到大模型,特别是在年初chatgpt引来的一大波AIGC热潮以来,一直都想着如何利用大模型帮助企业的各项业务工作,比如智能检索、方案设计、智能推荐、智能客服、代码设计等等,总得感觉相比传统的搜索和智能化...
-
源代码is all you need!7B代码小模型同尺寸无敌,性能媲美ChatGPT和谷歌Gemini
Hugging Face 技术负责人 Philipp Schmid 表示:“代码自动补全工具,如 GitHub Copilot,已被超过一百万开发者使用,帮助他们的编码速度提高了 55%。看到像 Magicoder 和 OSS-INSTRUCT 这样的开...
-
Mistral携微软引爆「小语言模型」潮!Mistral中杯代码能力完胜GPT-4,成本暴降2/3
最近,「小语言模型」忽然成为热点。 本周一,刚刚完成4.15亿美元融资的法国AI初创公司Mistral,发布了Mixtral 8x7B模型。 这个开源模型尽管尺寸不大,小到足以在一台内存100GB以上的电脑上运行,然而在某些基准测试中却能和GPT-3....
-
AIGC|AGI究竟是什么?为什么大家都在争先入场?
一、AI大语言模型进入爆发阶段 2022年12月ChatGPT突然爆火,原因是其表现出来的智能化已经远远突破了我们的常规认知。虽然其呈现在使用者面前仅仅只是一个简单的对话问答形式,但是它的内容化水平非常强大,甚至在某些方面已经超过人类了,这是人工智能...
-
论文笔记--Llama 2: Open Foundation and Fine-Tuned Chat Models
论文笔记--Llama 2: Open Foundation and Fine-Tuned Chat Models 1. 文章简介 2. 文章概括 3 文章重点技术 3.1 预训练Pretraining 3.1.1 预训练细节 3.1.2...
-
LLaMA模型之中文词表的蜕变
在目前的开源模型中,LLaMA模型无疑是一颗闪亮的⭐️,但是相对于ChatGLM、BaiChuan等国产大模型,其对于中文的支持能力不是很理想。原版LLaMA模型的词表大小是32K,中文所占token是几百个左右,这将会导致中文的编解码效率低。 在将LL...
-
Mistral AI宣布与Google Cloud合作,并发布新的开源LLM
巴黎的人工智能初创公司Mistral AI宣布与Google Cloud签署战略合作,实现了一次重大突破。根据双方的非独占性协议,Mistral AI将利用Google Cloud的AI优化基础设施分发其开源LLM及优化的专有语言模型。谷歌云法国区总经理I...
-
邢波团队提出全开源倡议LLM360 让大模型实现真正的透明
开源模型在人工智能领域展现强大活力,但闭源策略限制了LLM(大型语言模型)的发展。邢波团队提出的LLM360全面开源倡议旨在解决这一问题。该框架明确了包括训练数据、代码、模型检查点和性能指标在内的各方面细节,为当前和未来的开源模型树立了透明度的样本。 论...