-
基于“采集app上的文章到discuz”的内容管理系统跨平台整合方案
随着移动互联网的快速发展,智能手机应用(app)已成为人们获取信息的重要途径。同时,许多网站和论坛,如Discuz这样的社区平台,依然拥有大量的用户群体和活跃的讨论氛围。在这样的背景下,如何将app上的优质内容高效、准确地采集并整合到Discuz等社区平台...
-
如何基于 Arthur Bench 进行 LLM 评估 ?
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - LLM 评估 。 一、传统文本评估面临的挑战 近年来,随着大型语言模型(LLM 的快速发展和改进,传统的文本评估方法在某些方面可能已经不再适用。在文本评估...
-
重要的医学AI应用:使用多模态 CNN-DDI预测药物间相互作用事件
生病时,医生往往给我们开了多种药物,这些药物在同时服下时是否因为药物间相互作用产生对身体不良的效果,这引起我们的怀疑和担心。其实医生所开的药方的药品已经经过了药物间相互作用的实验和临床测试,我们不应对此产生疑虑。 药物间相互作用(DDI)是指当一个患者同...
-
8/8/6/3的Mamba论文,最终还是被ICLR 2024拒了,网友:悬着的心终于死了
几天前,ICLR 2024 的最终接收结果出来了。 大家应该还记得,Mamba 被 ICLR 2024 大会 Decision Pending(待定)的消息在 1 月份引发过一波社区热议。 当时,多位领域内的研究者分析,Decision Pending...
-
清华叉院、理想提出DriveVLM,视觉大语言模型提升自动驾驶能力
与生成式 AI 相比,自动驾驶也是近期 AI 最活跃的研究和开发领域之一。要想构建完全的自动驾驶系统,人们面临的主要挑战是 AI 的场景理解,这会涉及到复杂、不可预测的场景,例如恶劣天气、复杂的道路布局和不可预见的人类行为。 现有的自动驾驶系统通常包括...
-
【AIGC】Stable Diffusion之模型微调工具
推荐一款好用的模型微调工具,cybertron furnace 是一个lora训练整合包,提供训练 lora 模型的工具集或环境。集成环境包括必要的依赖项和配置文件、预训练脚本,支持人物、二次元、画风、自定义lora的训练,以简化用户训练 lora 模型...
-
第三章:AIGC框架和应用场景
1.背景介绍 人工智能(AI 和机器学习(ML 技术在过去几年中取得了显著的进展,为许多领域带来了革命性的改变。自动化图像生成(AIGC 是一种使用AI和ML技术自动生成高质量图像的方法。AIGC框架可以应用于许多场景,例如生成艺术作品、设计、广...
-
AIGC总体相似度是什么意思
大家好,今天来聊聊AIGC总体相似度是什么意思,希望能给大家提供一点参考。 以下是针对论文重复率高的情况,提供一些修改建议和技巧,可以借助此类工具: 标题:AIGC总体相似度:一篇深入解析的文章 随着人工智能技术的飞速发展,AIGC(人工智能生成...
-
上海人工智能实验室发布LLaMA-Adapter | 如何1小时训练你的多模态大模型用于下游任务
本文首发于微信公众号 CVHub,未经授权不得以任何形式售卖或私自转载到其它平台,违者必究! Title: LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-...
-
ChatGPT高效提问—基础知识(AIGC)
ChatGPT高效提问—基础知识 为了更好地学习AI和prompt相关知识,有必要了解AI领域的几个专业概念。 1.1 初识AIGC AIGC(artificial intelligence generated content)即人工智能生成的内...
-
AIGC知识速递——Google的Bert模型是如何fine-tuning的?
Look!👀我们的大模型商业化落地产品 📖更多AI资讯请👉🏾关注 Free三天集训营助教在线为您火热答疑👩🏼🏫 选择合适的预训练模型: 从预训练的BERT模型开始,例如Google 提供的BERT-base 或 BERT-large。这些模型已经...
-
挖掘BEV潜力的边界!DA-BEV:无监督BEV SOTA新方案!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 今天和大家探讨3D视觉感知领域中的一个特定问题:针对纯视觉的鸟瞰图(BEV)的无监督领Domain Adaptation(Unsupervised Domain Ad...
-
ChatGPT论文:大语言模型LLM之战:Dolly、LLaMA 、Vicuna、Guanaco、Bard、ChatGPT--在自然语言转SQL(NL2SQL、Text-to-SQL)的比较(一)
摘要 ChatGPT的成功引发了一场AI竞赛,研究人员致力于开发新的大型语言模型(LLMs),以匹敌或超越商业模型的语言理解和生成能力。近期,许多声称其性能接近GPT-3.5或GPT-4的模型通过各种指令调优方法出现了。作为文本到SQL解析的从业者,我...
-
iPhone动嘴10秒P图!UCSB苹果全华人团队发布多模态MGIE,官宣开源人人可玩
几天前,库克在苹果电话会上证实,「今年晚些时候会发布生成式AI」。 ChatGPT掀起全球热潮之后,苹果也在悄悄发力AI,曾曝出的大模型框架Ajax、AppleGPT等AI工具让业界充满了期待。 6月举办的WWDC上,这家曾霸占全球市值第一公司,将会宣布...
-
一文搞懂使用 Arthur Bench 进行 LLM 评估
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - LLM 评估 。 一、传统文本评估面临的挑战 近年来,随着大型语言模型(LLM 的快速发展和改进,传统的文本评估方法在某些方面可能已经不再适用。在文本评估领...
-
深度学习(生成式模型)—— stable diffusion:High-Resolution Image Synthesis with Latent Diffusion Models
文章目录 前言 motivation Conditioning Mechanisms 实验结果 如何训练autoencoder LDM性能与autoencoder深度的联系 LDM带来的图像生成速率提升 LDM在图像生成任务上与sota方法比...
-
近200+自动驾驶数据集全面调研!一览如何数据闭环全流程
写在前面&个人理解 自动驾驶技术在硬件和深度学习方法的最新进展中迅速发展,并展现出令人期待的性能。高质量的数据集对于开发可靠的自动驾驶算法至关重要。先前的数据集调研试图回顾这些数据集,但要么集中在有限数量的数据集上,要么缺乏对数据集特征的详细调查...
-
使用 Transformers 为多语种语音识别任务微调 Whisper 模型
本文提供了一个使用 Hugging Face 🤗 Transformers 在任意多语种语音识别 (ASR 数据集上微调 Whisper 的分步指南。同时,我们还深入解释了 Whisper 模型、Common Voice 数据集以及微调等理论知识,并提供...
-
18LLM4SE革命性技术揭秘:大型语言模型LLM在软件工程SE领域的全景解析与未来展望 - 探索LLM的多维应用、优化策略与软件管理新视角【网安AIGC专题11.15】作者汇报 综述
Large Language Models for Software Engineering: A Systematic Literature Review 写在最前面 论文名片 课堂讨论 RQ1部分:LLMs的选择和优化 RQ2部分:LLM...
-
大模型×文本水印:清华、港中文、港科广、UIC、北邮联合发布首个大模型时代下的文本水印综述
论文:A Survey of Text Watermarking in the Era of Large Language Models 论文链接:https://arxiv.org/abs/2312.07913 大模型时代:文本水印新纪元 文本水...
-
迈向分割的大一统!OMG-Seg:一个模型搞定所有分割任务
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者个人思考 图像分割已经从单任务分割走到了语义分割、实例分割、全景分割三种分割任务的统一;大模型以及多模态的发展又带来了文本和图像统一,使得跨模态端到端成为可能;追求更高级、更全面...
-
网络安全人士必知的AI专业术语
随着人工智能的迅猛发展,我们正置身于第四次工业革命的浪潮中。在这个数字化的时代,网络安全成为各行业至关重要的议题。作为网络安全从业人员,不仅需要熟练掌握传统安全领域的知识,更需要深刻理解和运用人工智能,以在风云变幻的网络战场中保护信息资产。人工智能不仅为...
-
LLaMA Pro: Progressive LLaMA with Block Expansion
Q: 这篇论文试图解决什么问题? A: 这篇论文试图解决大型语言模型(LLMs)在特定领域(如编程、数学、生物医学或金融)能力不足的问题。尽管LLMs在多种现实世界任务中表现出色,但在某些特定领域仍然存在局限性,这阻碍了开发通用语言代理以应用于更广泛场景...
-
AIGC新岗位新机会解析;GPTs万字教程;28套提示词让人物情绪饱满;爆款AI搜索引擎RAG实践分享;AI独立创始人成长手册;LangChain年度洞察 | ShowMeAI日报
👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 👀 北京互联网法院审理全国首例「AI声音侵权案」,五被告都否认侵权 补充一份背景:点击了解事件说明与当前进展 ⋙ AI生成图片著作权侵权第一案、...
-
使用 Transformers 为多语种语音识别任务微调 Whisper 模型
本文提供了一个使用 Hugging Face 🤗 Transformers 在任意多语种语音识别 (ASR 数据集上微调 Whisper 的分步指南。同时,我们还深入解释了 Whisper 模型、Common Voice 数据集以及微调等理论知识,...
-
「文生图」再升级!学习个性化参照,无限生成多样图片,轻松设计玩具建筑
最近,来自南加州大学、哈佛大学等机构的研究团队提出了一种全新的基于提示学习的方法——DreamDistribution。 这种方法可以让任何基于文字提示的生成模型(比如文生图、文生3D等),通过一组参照图片来学习对应的视觉属性共性和变化的文本提示分布。...
-
超越BEVFusion!又快又好的极简BEV融合部署方案
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 在算法开发中,激光雷达-相机3D目标检测遇到了过度拟合问题,这是由于违反了一些基本规则。在数据集构建的数据标注方面,本文参考了理论补充,并认为回归任务预测不应涉及来自...
-
OpenAI Whisper论文笔记
OpenAI Whisper论文笔记 OpenAI 收集了 68 万小时的有标签的语音数据,通过多任务、多语言的方式训练了一个 seq2seq (语音到文本)的 Transformer 模型,自动语音识别(ASR)能力达到商用水准。本文为李沐老师论文精...
-
五种资源类别,如何提高大语言模型的资源效率,超详细综述来了
近年来,大型语言模型(LLM)如 OpenAI 的 GPT-3 在人工智能领域取得了显著进展。这些模型,具有庞大的参数量(例如 1750 亿个参数),在复杂度和能力上实现了飞跃。随着 LLM 的发展趋势朝着不断增大的模型规模前进,这些模型在从智能聊天机器...
-
LLMs之LLaMA-2:LLaMA-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略
LLMs之LLaMA-2:LLaMA-2的简介(技术细节 、安装、使用方法(开源-免费用于研究和商业用途 之详细攻略 导读:2023年7月18日,Meta重磅发布Llama 2!这是一组预训练和微调的大型语言模型(LLM),规模从70亿到700亿个...
-
百度沈抖:做好AI原生应用,两个步骤至关重要
2024年1月10日,在荣耀MagicOS 8.0发布会及开发者大会上,荣耀终端有限公司CEO赵明宣布了“百模生态计划”,并与百度集团执行副总裁、百度智能云事业群总裁沈抖共同宣布,百度智能云成为荣耀大模型生态战略合作伙伴。 沈抖在现场演讲中表示,“端云协...
-
蚂蚁营销推荐场景上的因果纠偏方法
一、因果纠偏的背景 1、偏差的产生 推荐系统里根据收集的数据来训练推荐模型,给用户推荐一个合适的 item,当用户与这个 item 产生交互后,数据又会被收集用于继续训练模型,从而形成一个闭环。但是这个闭环当中可能会存在各种各样的影响因素,因此会产生误差...
-
只需1080ti,即可在遥感图像中对目标进行像素级定位!代码数据集已开源!
太长不看版 这篇论文介绍了一项新的任务 —— 指向性遥感图像分割(RRSIS),以及一种新的方法 —— 旋转多尺度交互网络(RMSIN)。RRSIS 旨在根据文本描述实现遥感图像中目标对象的像素级定位。为了解决现有数据集规模和范围的限制,本文构建了一个新...
-
AIGC(生成式AI)试用 6 -- 从简单到复杂
从简单到复杂,这样的一个用例该如何设计? 之前浅尝试用,每次尝试也都是由浅至深、由简单到复杂。 一点点的“喂”给生成式AI主题,以测试和验证生成式AI的反馈。 AIGC(生成式AI)试用 1 -- 基本文本_Rolei_...
-
pytorch快速训练ai作画模型的python代码
在 PyTorch 中训练 AI 作画模型的基本步骤如下: 准备数据集: 需要准备一个包含许多图像的数据集, 这些图像可以是手绘的或者是真实的图像. 定义模型: 选择一个适当的深度学习模型, 并使用 PyTorch 定义该模型. 例如...
-
端到端的自动驾驶会取代Apollo、autoware这类框架吗?
本文经自动驾驶之心公众号授权转载,转载请联系出处。 Rethinking the Open-Loop Evaluation of End-to-End Autonomous Driving in nuScenes 作者单位:百度 作者:共一 Jian...
-
数据闭环!DrivingGaussian:逼真环视数据,驾驶场景重建SOTA
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 北大王选计算机研究所的最新工作,提出了DrivingGaussian,一个高效、有效的动态自动驾驶场景框架。对于具有移动目标的复杂场景,首先使用增量静态3D高斯对整个...
-
一文读懂分类模型评估指标
模型评估是深度学习和机器学习中非常重要的一部分,用于衡量模型的性能和效果。本文将逐步分解混淆矩阵,准确性,精度,召回率和F1分数。 混淆矩阵 混淆矩阵是在分类问题中用于评估模型性能的表格,它展示了模型对样本的分类情况。混淆矩阵的行表示实际类别,列表示预...
-
ocr识别原理和场景应用浅析
Labs 导读 日常生活的截图提取、拍照搜题,都用到了文字识别领域占据重要地位的OCR(光学字符识别)技术。 Part 01、 什么是OCR OCR(光学字符识别)是计算机文字识别的一种方法,利用光学技术和计算机技术将印刷或手写在纸张等介质的文...
-
LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention
Paper name LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention Paper Reading Note Paper URL: htt...
-
清华特奖焦剑涛大模型创业:突破GPT-4工具使用能力,搞开源种子轮融资七千万
两位清华校友打造,在GPT-4核心优势之一使用工具上实现超越。 连HuggingFace CEO都来帮它造势: 它的名字叫“NexusRaven”,参数只有130亿。 出色的函数调用能力连网友都忍不住称赞,既可以并行也可以嵌套。 背后团队则更令人瞩目...
-
4090成A100平替?token生成速度只比A100低18%,上交大推理引擎火了
不仅如此,PowerInfer 与最先进的本地LLM推理框架 llama.cpp 相比,在单个 RTX 4090 (24G 上运行 Falcon (ReLU -40B-FP16,实现了 11 倍多的加速,还能保持模型的准确性。 具体来说,PowerIn...
-
MosaicML 推出 30B 模型 — 挑战 LLaMA、Falcon 和 GPT
MosaicML正在推出其第二个开源大型语言模型(LLM),称为MPT-30B,这是继五月份首次推出的较小的MPT-7B模型之后。 为了讨论新模型及其对开发人员的意义,我采访了MosaicML联合创始人兼首席执行官Naveen Rao。他之前的创业公司是...
-
深度学习之目标检测中的常用算法
随着深度学习的不断发展,深度卷积神经网络在目标检测领域中的应用愈加广泛,现已被应用于农业、交通和医学等众多领域。 与基于特征的传统手工方法相比,基于深度学习的目标检测方法可以学习低级和高级图像特征,有更好的检测精度和泛化能力。 什么是目标检测? 目标检测...
-
python训练ai作画的代码
你可以使用 Python 来训练一个 AI 来进行绘画。这里是一个基本的代码示例: ``` import tensorflow as tf 定义输入和输出的占位符 inputs = tf.placeholder(shape=...
-
24 LLM错误代码补全:机器学习顶会NeurIPS‘23 智能体评估:自行构建数据集Buggy-HumanEval、Buggy-FixEval+错误代码补全+修复模型【网安AIGC专题11.22】
Large Language Models of Code Fail at Completing Code with Potential Bugs 写在最前面 论文名片 对于命名实体识别、关系抽取任务的启发 课堂讨论 实验 自己构建的数据集...
-
RayDF:实时渲染!基于射线的三维重建新方法
本文经自动驾驶之心公众号授权转载,转载请联系出处。 图片 论文链接:https://arxiv.org/pdf/2310.19629 代码链接:https://github.com/vLAR-group/RayDF 主页:https://vlar-gro...
-
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_pt_with_peft.py文件)—模型训练前置工作(参数解析+配置日志)→模型初始化(检测是否存在训练过的chec
LLMs之Chinese-LLaMA-Alpaca-2:源码解读(run_clm_pt_with_peft.py文件 —模型训练前置工作(参数解析+配置日志 →模型初始化(检测是否存在训练过的checkpoint+加载预训练模型和tokenizer →数据...
-
夸张!EMNLP投稿近5000篇,奖项出炉:北大、腾讯摘最佳长论文
EMNLP 是自然语言处理领域的顶级会议之一,EMNLP 2023 于 12 月 6 日 - 10 日在新加坡举行。 因为今年 ChatGPT 的爆火带动大模型、NLP 概念,EMNLP 2023 的投稿论文数量也达到近 5000 篇,甚至略高于 AC...
-
北大等发布最新AI智能体Jarvis-1,制霸「我的世界」
智能体研究又取得了新成绩! 最近,来自北大、北邮、UCLA和BIGAI的研究团队联合发表了一篇论文,介绍了一个叫做Jarvis-1的智能体。 论文地址:https://arxiv.org/pdf/2311.05997.pdf 从论文标题来看,Jarvi...