-
全方位、无死角的开源,邢波团队LLM360让大模型实现真正的透明
开源模型正展现着它们蓬勃的生命力,不仅数量激增,性能更是愈发优秀。图灵奖获得者 Yann LeCun 也发出了这样的感叹:「开源人工智能模型正走在超越专有模型的路上。」 专有模型在技术性能和创新能力上展现了非凡的力量,但是它们不开源的性质成为 LLM 发...
-
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习
随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律...
-
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
大模型现在真的是越来越卷了! 11月OpenAI先是用GPTs革了套壳GPT们的命,然后再不惜献祭董事会搏了一波天大的流量。 谷歌被逼急了,赶在年底之前仓促发布了超大模型Gemini,卷起了多模态,甚至不惜「视频造假」。 就在今天,微软正式发布了曾在11...
-
LLaMA及其子孙模型概述
文章目录 LLaMA Alpaca Vicuna Koala Baize (白泽 骆驼(Luotuo BELLE Guanaco LLaMA 与原始transformer的区别: 预归一化[GPT3]。为了提高训练稳定性,对...
-
马斯克的AI工具Grok套壳ChatGPT?
埃隆•马斯克旗下人工智能公司xAI最新推出了名为GroK的人工智能聊天机器人,并面向美国地区的Premium+ X 用户开放。据悉,Grok采用了名为Grok-1的模型,与目前OpenAI旗下的ChatGPT所使用的GPT-4模型不同。 但越来越的用户...
-
llama.cpp部署通义千问Qwen-14B
llama.cpp是当前最火热的大模型开源推理框架之一,支持了非常多的LLM的量化推理,生态比较完善,是个人学习和使用的首选。最近阿里开源了通义千问大语言模型,在众多榜单上刷榜了,是当前最炙手可热的开源中文大语言模型。今天在github上看到前几天llam...
-
LLM-LLaMA中文衍生模型:Chinese-LLaMA-Alpaca【扩充词表、Lora部分参数预训练、微调】
GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs 中文LLaMA模型...
-
当ChatGPT遇见stable-diffusion,你不敢相信的创意艺术之旅!
前言 欢迎来到一场创意的旅程,这里将聚焦于 ChatGPT 和 stable-diffusion 这两个令人激动的技术。在这篇文章中,我们将会探索这两种技术如何结合使用,为艺术创作带来全新的可能性。我们将探讨如何利用 ChatGPT 生成富有想象力的创...
-
Amazon CodeWhisperer 正式可用, 并面向个人开发者免费开放
文章作者:深度-围观 北京——2023年4月18日,亚马逊云科技宣布,实时 AI 编程助手 Amazon CodeWhisperer 正式可用,同时推出的还有供所有开发人员免费使用的个人版(CodeWhisperer Individual)。Code...
-
什么是AIGC(AI Generated Content, 人工智能生成内容)?
AI生成内容(AIGC,人工智能生成内容)是一种新型的内容创作方式,它继承了专业生产内容(PGC,Professional-generated Content)和用户生成内容(UGC,User-generated Content)的优点,并充分发挥技术优势...
-
中文Stable Diffusion模型太乙使用教程
中文Stable Diffusion模型太乙使用教程 太乙模型介绍 在线体验地址: Stable Diffusion 太乙模型,首个开源的中文Stable Diffusion模型,基于0.2亿筛选过的中文图文对训练。 生成内容一直被视为 AI...
-
马斯克摊上事了!Grok AI被爆疑似抄袭ChatGPT??
大家好,我是二狗。 马斯克今天摊上事了! X(推特)一名网友爆料,马斯克旗下xAI公司研发的Grok AI疑似“抄袭”ChatGPT。 Grok 在回答网友的一个问题时,做出了令人震惊的“承认”: “恐怕我无法满足该请求,因为它违反了OpenAI的用例政...
-
Bard AI:训练过程中使用了多少数据?
近年来,人工智能取得了长足的进步,并在科技界掀起了波澜。 随着谷歌最近推出新的人工智能聊天机器人 Bard,人们对这项技术的工作原理以及训练它的内容感到好奇。 人工智能技术的关键组成部分之一是训练过程中使用的数据量,这有助于它更好地理解语言、...
-
信通院启动《大模型数据开发管理能力评价方法总体要求》编制
据中国信通院消息,为破解大模型训练数据发展瓶颈,深入推进人工智能数据高质量发展,由中国信息通信研究院牵头发起《大模型数据开发管理能力评价方法总体要求》标准编制工作,联合发起单位包括中国联通集团、华为技术有限公司、科大讯飞、商汤科技、蚂蚁科技集团等18家单位...
-
ChatGPT的训练数据可以通过“偏离攻击”进行泄露
ChatGPT等大语言模型(LLM)使用来自图书、网站及其他来源的海量文本数据进行训练,通常情况下,训练它们所用的数据是一个秘密。然而,最近的一项研究揭示:它们有时可以记住并反刍训练它们所用的特定数据片段。这个现象名为“记忆”。 随后,来自谷歌Deep...
-
2024年AI趋势看这张图,LeCun:开源大模型要超越闭源
2023 年即将过去。一年以来,各式各样的大模型争相发布。当 OpenAI 和谷歌等科技巨头正在角逐时,另一方「势力」悄然崛起 —— 开源。 开源模型受到的质疑一向不少。它们是否能像专有模型一样优秀?是否能够媲美专有模型的性能?迄今为止,我们一直还只能说...
-
光谱设备利用生成式AI可实时检测食品工厂中的有害微生物
法国初创公司 Spore.Bio 开发了一种利用生成式AI 的病原体检测设备,通过将光照射到表面并将其与从食品加工厂地板上获得的微生物训练数据进行比较,以检测出有害微生物。 图源备注:图片由AI生成,图片授权服务商Midjourney 这种方法比将样本发...
-
马斯克的AI机器人说自己不能违反OpenAI使用政策,业界分析:可能是这样
12月12日消息,特斯拉和SpaceX首席执行官埃隆·马斯克(Elon Musk)旗下人工智能创企xAI最近发布了其聊天机器人Grok,但好像出了点问题。 上周五,安全测试员贾克斯·温特伯恩(Jax Winterbourne)在社交媒体平台X上发布了一...
-
神经网络是如何工作的? | 京东云技术团队
作为一名程序员,我们习惯于去了解所使用工具、中间件的底层原理,本文则旨在帮助大家了解AI模型的底层机制,让大家在学习或应用各种大模型时更加得心应手,更加适合没有AI基础的小伙伴们。 一、GPT与神经网络的关系 GPT想必大家已经耳熟能详,当我们与它...
-
ChatGPT模型在神经学考试中表现出色,超越人类学生水平
近期发表在JAMA Network Open期刊的一项研究中,研究人员评估了两个ChatGPT大型语言模型(LLMs)在回答美国精神病学和神经学委员会问题库的问题时的表现。他们比较了这两个模型在低阶和高阶问题上的结果与人类神经学生的表现。研究发现,其中一个...
-
零一万物Yi-34B-Chat微调模型上线,登陆多个权威榜单
最近,业内众多大模型基准又迎来了一轮 “实力值” 更新。 继 11 月初零一万物发布 Yi-34B 基座模型后,Yi-34B-Chat 微调模型在 11 月 24 日开源上线 ,短时间登陆了全球多个英文、中文大模型权威榜单,再度获得了全球开发者的关注。...
-
直追GPT-4!李开复Yi-34B新成绩公布:94.08%的胜率超越LLaMA2等主流大模型
仅次于GPT-4,李开复零一万物Yi-34B-Chat最新成绩公布—— 在Alpaca经认证的模型类别中,以94.08%的胜率,超越LLaMA2 Chat 70B、Claude 2、ChatGPT! 图片 不仅如此,在加州大学伯克利分校主导的LMSYS...
-
外包数据注释服务如何增强人工智能模型?
在人工智能(AI 和机器学习(ML 领域,基础在于数据,数据的质量、准确性和深度直接影响人工智能系统的学习和决策能力。数据有助于丰富机器学习算法数据集的数据注释服务,对于教导AI系统识别模式、做出预测和提高整体性能至关重要。 通过高质量数据注释为ML模...
-
使边缘人工智能真正实现变革
边缘人工智能的采用在众多行业中呈上升趋势。随着这种趋势的持续下去,其将不仅为企业而且为社会带来变革。 边缘计算的去中心化方法减轻了数据拥塞、连接故障和传输成本等限制。这极大地提高了人工智能应用程序的性能,从而可以更快、更可靠地做出决策。 边缘人工智能的...
-
【AIGC核心技术剖析】Hotshot-XL 一种 AI 文本转 GIF 模型(论文 + 代码:经过训练可与Stable Diffusion XL一起使用)
Hotshot-XL 是一种 AI 文本转 GIF 模型,经过训练可与Stable Diffusion XL一起使用。 Hotshot-XL 可以使用任何经过微调的 SDXL 模型生成 GIF。这意味着两件事: 您将能够使用您可能想要使用的任何现有或...
-
极限发问,挑战文心一言底线
目录 毁灭人类 种族歧视 男女平等 未成年人保护 人性对与错 欺骗 梅西进球数 总结 昨天终于收到了文心一言的短信,可以进行测试了。正好这几天关于AI安全的问题吵得不可开交,我们可以对文心一言关于偏见,歧视,虚假、错误等问题进行一下测...
-
【AIGC】Stable Diffusion原理快速上手,模型结构、关键组件、训练预测方式
【AIGC】Stable Diffusion的建模思想、训练预测方式快速 在这篇博客中,将会用机器学习入门级描述,来介绍Stable Diffusion的关键原理。目前,网络上的使用教程非常多,本篇中不会介绍如何部署、使用或者微调SD模型。也会尽量精简...
-
当我让文心一言写个代码来庆祝1024程序员节,它写的代码是……
先让它写个自我介绍吧~ 大家好,我是一个人工智能语言模型,我的中文名是文心一言,英文名是ERNIE Bot。我可以协助您完成范围广泛的任务并提供有关各种主题的信息,比如回答问题,提供定义和解释及建议。如果您有任何问题,请随时向我提问。 我的能力不仅仅局限...
-
ChatGPT与Google Bard那个更好?
AIGC 行业最大的两个竞争对手:ChatGPT vs Google Bard! 本文介绍这两个人工智能引擎之间的技术差异。 截至目前Google Bard和ChatGPT之间最大的区别是:Bard知道ChatGPT,但ChatGPT却对Bard懵然不知。...
-
却话文心一言(Chatgpt们),存算一体真能突破AI算力“存储墙”|“能耗墙”|“编译墙”?
文心一言折戟沉沙 作为国内搜索引擎巨头玩家,百度在中文语料领域拥有大量的积累,在算力基础设施等层面也拥有优势。 但是国产化AI芯片的处境其实很难。 这不是危言耸听,也不是崇洋媚外。这不,百度文心一言初战吃瘪。...
-
0微调搞定160个测试集!最强多模态分割一切大模型来了,架构参数全开源
用多模态大模型来做语义分割,效果有多好? 一张图+文字输入想分割的物体,大模型几秒钟就能识别并搞定! 只需输入想分割的对象如“擎天柱”,单个目标立刻就能被精准识别、快速切割: 多个物体也是手到擒来,像是指定天空、水、树、草、女孩、龙猫(Chinchil...
-
大模型就是「造梦机」,Karpathy一语惊人!人类才是「幻觉问题」根本原因
幻觉,早已成为LLM老生常谈的问题。 然而,OpenAI科学家Andrej Karpathy今早关于大模型幻觉的解释,观点惊人,掀起非常激烈的讨论。 在Karpathy看来: 另外,Karpathy的另一句话,更是被许多人奉为经典。他认为,与大模型相对的...
-
【原创】AIGC之ChatGPT工作原理
AIGC是什么 AIGC - AI Generated Content (AI生成内容),对应我们的过去的主要是 UGC(User Generated Content)和 PGC(Professional user Generated Content...
-
触手可及的 GPT —— LLaMA
出品人:Towhee 技术团队 最近几个月 ChatGPT 的出现引起广泛的关注和讨论,它在许多领域中的表现都超越了人类的水平。它可以生成人类级别的语言,并且能够在不同的任务中学习和适应,让人们对人工智能的未来充满了希望和憧憬。 ChatGPT 之...
-
LLaMA Adapter和LLaMA Adapter V2
LLaMA Adapter论文地址: https://arxiv.org/pdf/2303.16199.pdf LLaMA Adapter V2论文地址: https://arxiv.org/pdf/2304.15010.pdf LLaMA Ada...
-
百度AI模型“文心一言”新鲜体验
今天收到通知可以体验百度的AI模型“文心一言”,等了一个多月迫不及待的去体验了一把,以下是体验的相关记录。 1、简单介绍 通过文心一言官网链接https://yiyan.baidu.com/进入,看到如下界面: 在文心一言的自我介绍中,作为人...
-
Koala:加州大学BAIR团队使用ChatGPT蒸馏数据和公开数据集微调LLaMA模型得到
自从Meta发布LLaMA以来,围绕它开发的模型与日俱增,比如Alpaca、llama.cpp、ChatLLaMA以及Vicuna等等,相关的博客可以参考如下: 【Alpaca】斯坦福发布了一个由LLaMA 7B微调的模型Alpaca(羊驼),训练3小时...
-
大语言模型之十六-基于LongLoRA的长文本上下文微调Llama-2
增加LLM上下文长度可以提升大语言模型在一些任务上的表现,这包括多轮长对话、长文本摘要、视觉-语言Transformer模型的高分辨4k模型的理解力以及代码生成、图像以及音频生成等。 对长上下文场景,在解码阶段,缓存先前token的Key和Value(K...
-
在IDEA中使用亚马逊编程助手Amazon CodeWhisperer使用体验
在IDEA中Amazon CodeWhisperer使用体验 p.s.作为一名java后端开发,我最常使用IDEA来编写和调试代码,这里我将会尝试使用IDEA中的CodeWhisperer插件,并做一个使用体验报告,希望对大家有帮助 目录...
-
专用于手机、笔记本,Stability.ai开源ChatGPT基因的大模型
12月8日,著名开源生成式AI平台stability.ai在官网开源了,30亿参数的大语言模型StableLM Zephyr3B。 Zephyr3B专用于手机、笔记本等移动设备,主打参数小、性能强、算力消耗低的特点,可自动生成文本、总结摘要等,可与70亿、...
-
【在线AI绘画平台】哩布AI 在线生成图片、训练Lora、上传AI生成图简易实测
网址 https://www.liblib.ai/ | 在线生成 https://www.liblib.ai/sd 文章目录 一、主页面介绍 1.1首页 [`网址` https://www.liblib.ai/](https://www....
-
更强的Llama 2开源,可直接商用:一夜之间,大模型格局变了
已上微软 Azure,即将要上 AWS、Hugging Face。 一夜之间,大模型格局再次发生巨变。 一直以来 Llama 可以说是 AI 社区内最强大的开源大模型。但因为开源协议问题,一直不可免费商用。 今日,Meta 终于发布了大家期待...
-
集体暴雷!自动化攻击可一分钟内越狱主流大语言模型
大语言模型应用面临的两大安全威胁是训练数据泄漏和模型滥用(被应用于网络犯罪、信息操弄、制作危险品等违法活动)。 本周内,这两大安全威胁相继“暴雷”。 本周一,GoUpSec曾报道研究人员成功利用新的数据提取攻击方法从当今主流的大语言模型(包括开源和封闭...
-
汇总当下的AI绘画模型
AI绘画从今年过年那阵儿兴起,到现在(2023.8 已经半年过去了,涌现了很多风格迥异的模型,我在这里简单汇总一些。 一、写实人物类 1.1 AWPortrait 比较拟真的人物肖像 1.2 XXMix_9realistic 2.5D人物模型...
-
在 Mac M1 上运行 Llama 2 并进行训练
在 Mac M1 上运行 Llama 2 并进行训练 Llama 2 是由领先的人工智能研究公司 Meta (前Facebook)开发并发布的下一代大型语言模型 (LLM 。 它基于 2 万亿个公共数据 token 进行了预训练,旨在帮助开发人员和...
-
本地训练中文LLaMA模型实战教程,民间羊驼模型,24G显存盘它!
羊驼实战系列索引 博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型(本博客)博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型 简介 在学习完上篇【1本地部署中文LLaMA模型...
-
基于GPT+Adaptor的时间序列多任务统一大模型
今天跟大家聊一聊大模型时间序列预测的最新工作,来自阿里巴巴达摩院,提出了一种基于adaptor的通用时间序列分析框架,在长周期预测、短周期预测、zero-shot、few-shot、异常检测、时间序列分类、时间序列填充等7项时间序列任务上都取得了显著的效...
-
Stable diffusion LoRA 训练过程
1、使用diffusers-0.14.0, stabel-diffusion 模型 v-1.5版本 下载diffusers-0.14.0 并解压,新建文件test.py, 写入以下: import torch from diffusers impor...
-
DMP技术开源,可提升AI图像预测精度
Diffusion Models as Prior (DMP)是一种新的方法,它在AI生成的图像中提高了语义预测的准确性。该创新性方法巧妙地将预先训练的文本到图像模型应用于各种任务,例如3D属性估计和语义分割,在有限的训练数据下表现优于现有技术。 项目地...
-
【大模型AIGC系列课程 2-2】大语言模型的“第二大脑”
1. 大型语言模型的不足之处 很多人使用OpenAI提供的GPT系列模型时都反馈效果不佳。其中一个主要问题是它无法回答一些简单的问题。 ● 可控性:当我们用中文问AI一些关于事实的问题时,它很容易编造虚假答案。 ● 实时性:而当你询问它最近发生的新闻事...