-
打破信息差!一款让人惊艳的大模型3D可视化工具!
近日,一位来自新西兰的小哥Brendan Bycroft在技术圈掀起了一股热潮。他创作的一项名为大模型3D可视化的项目,不仅登上了Hacker News的榜首,而且其震撼的效果更是让人瞠目结舌。通过这个项目,你将在短短几秒钟内完全理解LLM(Large...
-
LLaMA-v2-Chat vs. Alpaca:应该在什么时候使用不同的人工智能模型?
译者 | 李睿 审校 | 重楼 如今,大型语言模型(LLM)正在彻底改变人们的工作和生活,从语言生成到图像字幕软件,再到友好的聊天机器人。这些人工智能模型为解决现实世界的问题提供了强大的工具,例如生成聊天响应或遵循复杂的指令。在这篇关于LLaMA v2的...
-
AIGC:【LLM(七)】——Baichuan2:真开源可商用的中文大模型
文章目录 一.模型介绍 二.模型部署 2.1 CPU部署 2.2 GPU部署 三.模型推理 3.1 Chat 模型推理 3.2 Base 模型推理 四.模型量化 4.1 量化方法 4.2 在线量化 4.3 离线量化 4.4 量化效果...
-
13个优秀开源语音识别引擎
语音识别(ASR)在人机交互方面发挥着重要的作用,可用于:转录、翻译、听写、语音合成、关键字定位、语音日记、语言增强等场景。语音识别基本过程一般包括:分析音频、音频分解、格式转换、文本匹配,但实际的语音识别系统可能会更复杂,并且可能包括其他步骤和功能组件...
-
兵马俑跳《科目三》,是我万万没想到的
家人们,火爆全球的魔性舞蹈《科目三》,谁能料到,就连兵马俑也开始跳上了! 图片 热度还居高不下,瞬间被轰上了热搜,小伙伴们纷纷惊掉了下巴表示“闻所未闻,见所未见”。 图片 这到底是怎么一回事? 原来,是有人借助了阿里之前走红的AI技术——AnimateA...
-
AI平台:印象笔记 | 工作必备效率应用
印象笔记 | 工作必备效率应用 Skip...
-
迷你AI模型TinyLlama发布:高性能、仅637MB
经过一番期待,TinyLlama项目发布了一款引人注目的开源模型。该项目于去年9月启动,开发人员致力于在数万亿标记上训练一款小型模型。在经历了一些辛勤工作和一些挫折之后,TinyLlama团队如今发布了这个模型。这个模型有着10亿个参数,大约在训练数据上进...
-
aAMUSEd官网体验入口 AI自然语言处理工具软件免费下载地址
aAMUSEd是一个开源平台,提供各种自然语言处理(NLP)模型、数据集和工具。它包含一个基于MUSE的轻量级遮蔽图像模型(MIM),专用于文本到图像的生成。与潜在扩散(latent diffusion)方法相比,MIM需要更少的推理步骤,且更易于解释。此...
-
客观看待AI大模型在数字化转型中的地位和作用
“ AI大模型在数字化转型中的作用尚未突破《“以数据为中心的业务变革”之三种范式》中第三种范式的边界”。 自从OpenAI公司研发的机器人聊天程序ChatGPT在2022年11月30日发布以来,在全世界迅速带起了热潮。ChatGPT是AI大模型驱动的自...
-
【Java干货教程】JSON,JSONObject,JSONArray类详解
一、定义 JSON:就是一种轻量级的数据交换格式,被广泛应用于WEB应用程序开发。JSON的简洁和清晰的层次结构,易于阅读和编写;同时也易于机器解析和生成,有效的提升网络传输效率;支持多种语言,很多流行的语言都对JSON格式有着很友好的支持。 JS...
-
大模型被偷家!CNN搞多模态不弱于Transfromer(腾讯&港中文)
本文经自动驾驶之心公众号授权转载,转载请联系出处。 腾讯AI实验室与港中文联合团队提出了一种新的CNN架构,图像识别精度和速度都超过了Transformer架构模型。 切换到点云、音频、视频等其他模态,也无需改变模型结构,简单预处理即可接近甚至超越SO...
-
快手Agents系统、模型、数据全部开源!
7B 大小的模型也能玩转 AI Agents 了?近期,快手开源了「KwaiAgents」,问它周末滑雪问题,它不但帮你找到场地,连当天的天气都帮你考虑周到了。 大家都知道大语言模型(LLM)通过对语言的建模而掌握了大量知识,并具备一定认知和推理能力。...
-
数栈UI5.0设计实战|B端表单这样设计,不仅美观还提效
表单是B端产品中最常见的组件之一,主要⽤于数据收集、校验和提交。比如登陆流程的账号密码填写,注册流程的邮箱、用户名等信息填写,都是表单应用的常见案例,在数栈产品中也是出现频率⾮常⾼的组件。 尽管表单应用十分普遍,但在我们对旧版数栈产品进行调研时,发现许多...
-
基于whisper模型的在线添加视频字幕网站(持续更新)
1.什么是whisper Whisper 是一个自动语音识别(ASR,Automatic Speech Recognition)系统,OpenAI 通过从网络上收集了 68 万小时的多语言(98 种语言)和多任务(multitask)监督数据对 Whi...
-
Tracking Any Object Amodally :让AI像人一样可以追踪任何对象
Tracking Any Object Amodally是由卡内基梅隆大学和丰田研究所开发的项目使得人工智能能够像人一样追踪物体的整体,即使在部分遮挡或不完全可见的情况下也能理解其完整结构。 在这个项目中,计算机被训练成能够“理解”并追踪到部分遮挡物体的完...
-
别再乱用了,Java 21 将弃用、删除这些功能!
尽管Java 是我使用过的向后兼容程度最高的语言和环境之一,但始终存在功能弃用甚至删除的可能性。Java 21 将弃用两个功能,这就是我们今天要讨论的内容。 1 为什么要弃用功能? 弃用代码或功能意味着不鼓励使用它,并且可能在未来的版本中不再存在。为什么...
-
大模型被偷家!腾讯港中文新研究修正认知:CNN搞多模态不弱于Transfromer
在Transformer占据多模态工具半壁江山的时代,大核CNN又“杀了回来”,成为了一匹新的黑马。 腾讯AI实验室与港中文联合团队提出了一种新的CNN架构,图像识别精度和速度都超过了Transformer架构模型。 切换到点云、音频、视频等其他模态,也无...
-
紧跟潮流,抓住趋势,跟上全民AI的节奏,开源IM项目OpenIM产品介绍,为AIGC贡献力量
开源价值 高度自主、安全可控、开放自由,私有化部署,一切皆可控 透明度和可信度:开源软件的源代码是公开的,任何人都可以查看和检查代码,从而增强了软件的透明度和可信度。用户可以了解软件的内部结构和运作方式,发现和修复潜在的安全漏洞和错误。 自由度和可定...
-
在 “小小容器” WasmEdge 里运行小小羊驼 llama 2
昨天,特斯拉前 AI 总监、OpenAI 联合创始人 Andrej Karpathy 开源了 llama2.c 。 只用 500 行纯 C 语言就能训练和推理 llama 2 模型的框架,没有任何繁杂的 python 依赖。这个项目一推出就受到大家的追捧...
-
正面刚ChatGPT,谷歌发布Bard! AI们要battle起来了?
面对ChatGPT的步步紧逼,谷歌终于做出了回应,选择了正面刚。 北京时间2月7日凌晨,谷歌CEO桑达尔·皮查伊(Sundar Pichai)宣布谷歌推出了下一代对话AI系统Bard。 消息一出,自然引起广泛讨论,ChatGPT的火爆程度有目共睹,...
-
word2vec作者爆料:seq2seq是我的想法、GloVe抄袭技巧,反击来了
随着 NeurIPS 2023 获奖论文的公布,十年前的词嵌入技术 word2vec 可谓是实至名归的获得了时间检验奖。这篇论文「Distributed Representations of Words and Phrases and their Com...
-
Copilot 是否可以和 IDE 集成使用?
GitHub Copilot 是一种基于人工智能技术的代码生成工具,它能帮助程序员快速生成高质量的代码。虽然 Copilot 可以在其官方网站上使用,但为了更好的编写代码,开发者还需要使用集成开发环境(IDE),如 Visual Studio Code,...
-
好用到爆!10个你可能不知道的VSCode开源工具神器
作为一款广受欢迎的开源IDE,VSCode凭借其轻量级和高度可扩展的特性,成为了越来越多开发者的首选工具。但是,VSCode的强大功能并不仅限于其本身,是可以通过插件、主题和其他扩展来进一步扩展其功能。在本篇文章中,我将介绍10个原先你可能根本不知道的开源...
-
北京大学发布EAGLE 大模型推理效率无损提升3倍
近年来,大语言模型在各领域应用广泛,但其文本生成过程昂贵且缓慢。为解决这一问题,滑铁卢大学、加拿大向量研究院、北京大学等机构联合发布了EAGLE。EAGLE的目标是提升大语言模型的推理速度,同时确保输出文本的分布一致性。通过外推大语言模型的第二顶层特征向量...
-
大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE
大语言模型(LLM)被越来越多应用于各种领域。然而,它们的文本生成过程既昂贵又缓慢。这种低效率归因于自回归解码的运算规则:每个词(token)的生成都需要进行一次前向传播,需要访问数十亿至数千亿参数的 LLM。这导致传统自回归解码的速度较慢。 近日,滑铁...
-
LLaMA Adapter和LLaMA Adapter V2
LLaMA Adapter论文地址: https://arxiv.org/pdf/2303.16199.pdf LLaMA Adapter V2论文地址: https://arxiv.org/pdf/2304.15010.pdf LLaMA Ada...
-
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集
“取消今晚所有计划!”,许多AI开发者决定不睡了。 只因首个开源MoE大模型刚刚由Mistral AI发布。 MoE架构全称专家混合(Mixture-of-Experts),也就是传闻中GPT-4采用的方案,可以说这是开源大模型离GPT-4最近的一集...
-
基于GPT+Adaptor的时间序列多任务统一大模型
今天跟大家聊一聊大模型时间序列预测的最新工作,来自阿里巴巴达摩院,提出了一种基于adaptor的通用时间序列分析框架,在长周期预测、短周期预测、zero-shot、few-shot、异常检测、时间序列分类、时间序列填充等7项时间序列任务上都取得了显著的效...
-
使用 LoRA 进行 Stable Diffusion 的高效参数微调
LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3 通常在为了适应其下游任...
-
AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧
抠图是图像处理工具的一项必备能力,可以用在重绘、重组、更换背景等场景。最近我一直在探索 Stable Diffusion WebUI 的各项能力,那么 SD WebUI 的抠图能力表现如何呢?这篇文章就给大家分享一下。 安装插件 作为一个生成式AI,S...
-
NeuRAD: 用于自动驾驶的神经渲染(多数据集SOTA)
论文"NeuRAD: Neural Rendering for Autonomous Driving",来自Zenseact,Chalmers科技大学,Linkoping大学和Lund大学。 神经辐射场(NeRF)在自动驾驶(AD)社区中越来越受欢迎。最...
-
【多模态】15、MobileSAM | 首个专为移动端设计的更快的 SAM
文章目录 一、背景 二、方法 2.1 耦合蒸馏 2.2 从半蒸馏到解耦蒸馏 三、效果 论文:FASTER SEGMENT ANYTHING: TOWARDS LIGHTWEIGHT SAM FOR MOBILE APPLICA...
-
矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见
「矩阵模拟」的世界或许真的存在。模拟人类神经元,不断进化的Transformer模型,一直以来都深不可测。 许多科学家都试着打开这个黑盒,看看究竟是如何工作的。 而现在,大模型的矩阵世界,真的被打开了! 一位软件工程师Brendan Bycroft制作了...
-
开源大模型框架llama.cpp使用C++ api开发入门
llama.cpp是一个C++编写的轻量级开源类AIGC大模型框架,可以支持在消费级普通设备上本地部署运行大模型,以及作为依赖库集成的到应用程序中提供类GPT的功能。 以下基于llama.cpp的源码利用C++ api来开发实例demo演示加载本地模型文...
-
【深度学习】Stable Diffusion AI 绘画项目搭建详解,并运行案例
文章目录 前言 1.安装环境 1.1 基础环境 1.2 权重文件 2.牛刀小试 2.1 用法在这里 3.封装api 总结 前言 先把人家的git放过来:https://github.com/CompVis/stable-dif...
-
Midjourney 参数合集
探索Midjourney之旅,学习绘画与AI,一同成长。加入「阿杰与AI」公众号,参与内容社群建设。 1.Midjourney 新手快速起步指南 2.Prompts-提示指令 3.Explore Prompting-提示指令的探索 4.Blend-叠加...
-
数字化转型升级之工业元宇宙与AIGC
月説·小飞象·交流会 生活就是,面对复杂,保持欢喜。心烦时,记住三句话:1、算了吧。2、没关系。3、会过去的。 内部交流│24期 数字化转型升级 工业元宇宙与AIGC data analysis ●●...
-
ControlNet 和 T2I-Adapter,控制Stable Diffusion的不受控制的力量,AI 图像生成精确控制的破冰解决方案(教程含免安装使用方式)
控制Stable Diffusion的不受控制的力量 人工智能艺术社区的兴奋在最近几天达到顶峰,让我想起了去年 Stable Diffusion 的首次发布。本次重点介绍基于Stable Diffusion 1.5的轻量级预训练模型ControlNet...
-
Llama-Factory的baichuan2微调
Llama-Factory:https://github.com/hiyouga/LLaMA-Factory/tree/main 请使用 --quantization_bit 4/8 来启用 QLoRA 训练。 默认模块应作...
-
谷歌:LLM找不到推理错误,但能纠正它
今年,大型语言模型(LLM)成为 AI 领域关注的焦点。LLM 在各种自然语言处理(NLP)任务上取得了显著的进展,在推理方面的突破尤其令人惊艳。但在复杂的推理任务上,LLM 的表现仍然欠佳。 那么,LLM 能否判断出自己的推理存在错误?最近,剑桥大学和...
-
网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展
随着大模型等人工智能技术的突破与发展,算法复杂度剧增,对传统计算芯片带来了算力和功耗的双重挑战。近年来,以光计算为基础、通过光电融合的方式构建光电神经网络的计算处理方法已经成为国际热点研究问题,有望实现计算性能的颠覆性提升。 然而,光电神经网络的前向数学...
-
Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型
内容来源:@xiaohuggg Distil-Whisper:比Whisper快6倍,体积小50%的语音识别模型 该模型是由Hugging Face团队开发,它在Whisper核心功能的基础上进行了优化和简化,体积缩小了50%。速度提高了6倍。并...
-
用深度催眠诱导LLM「越狱」,香港浸会大学初探可信大语言模型
尽管大语言模型 LLM (Large Language Model 在各种应用中取得了巨大成功,但它也容易受到一些 Prompt 的诱导,从而越过模型内置的安全防护提供一些危险 / 违法内容,即 Jailbreak。深入理解这类 Jailbreak 的...
-
一种全新的日志异常检测评估框架:LightAD
本文分享自华为云社区《【AIOps】一种全新的日志异常检测评估框架:LightAD,相关成果已被软工顶会ICSE 2024录用》,作者: DevAI。 深度学习(DL)虽然在日志异常检测中得到了不少应用,但在实际轻量级运维模型选择中,必须仔细考虑异常检测...
-
10月份stable diffusion animatediff等插件使用指南,又来更新了
插件一直会更新,包含了基本市面上流行的90%插件,好用的插件更是不会错过,往期插件请看往期文章,如果你没有时间一直关注sd更新的进展,请关注我,一个月用几个小时看一下我的文章,最短时间跟进sd。也算是我的个人笔记 sd插件 sd-webui-ani...
-
【AI热点技术】ChatGPT开源替代品——LLaMA系列之「羊驼家族」
ChatGPT开源替代品——LLaMA系列之「羊驼家族」 1. Alpaca 2. Vicuna 3. Koala 4. ChatLLaMA 5. FreedomGPT 6. ColossalChat 完整的 ChatGPT 克隆解决方案 中...
-
微软推出 XOT 方法,提升语言模型推理能力
11 月 15 日消息,微软近日推出了名为“Everything of Thought”(XOT)的方法,灵感来自谷歌 DeepMind 的 AlphaZero,利用紧凑的神经网络,来增强 AI 模型推理能力。 微软和佐治亚理工学院、华东师范大学...
-
使用Python从图像中提取表格
大约一年前,我被分配任务从文件中提取和结构化数据,主要是包含在表格中的数据。我之前对计算机视觉没有了解,并且很难找到一个合适的“即插即用”的解决方案。当时可选的方案要么是基于最新神经网络(NN)的解决方案,这些解决方案庞大而繁琐,要么是基于OpenCV的...
-
神经网络中的量化与蒸馏
本文将深入研究深度学习中精简模型的技术:量化和蒸馏 深度学习模型,特别是那些具有大量参数的模型,在资源受限环境中的部署几乎是不可能的。所以就出现了两种流行的技术,量化和蒸馏,它们都是可以使模型更加轻量级,而不会对性能造成太大影响。但是它们需要什么,它们又...
-
NLP-分词器:SentencePiece【参考Chinese-LLaMA-Alpaca在通用中文语料上训练的20K中文词表并与原版LLaMA模型的32K词表进行合并的代码】
背景 随着ChatGPT迅速出圈,最近几个月开源的大模型也是遍地开花。目前,开源的大语言模型主要有三大类:ChatGLM衍生的大模型(wenda、ChatSQL等)、LLaMA衍生的大模型(Alpaca、Vicuna、BELLE、Phoenix、Chim...