-
ECCV2024 | 小成本微调CLIP大模型!CLAP开源来袭:零样本和少样本训练有救了!
论文链接:https://arxiv.org/pdf/2311.16445 代码链接:https://github.com/YichaoCai1/CLAP 亮点直击 解耦潜在内容和风格因素:本文提出了一种通过对比学习和数据增强,从因果角度微...
-
中国发布《生成式AI安全基本要求》,涵盖训练数据、生成内容等
全国网络安全标准化技术委员会在官网发布了,国家标准《网络安全技术 生成式人工智能服务安全基本要求》征求意见稿。 该意见稿一共分为《网络安全技术 生成式人工智能服务安全基本要求-标准文本》、意见汇总处理表和编制说明三大块。 其中,标准文本涵盖训练数据安全要求...
-
Llama 3 模型家族构建安全可信赖企业级AI应用之 CyberSecEval 2:量化 LLM 安全和能力的基准(一)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
OpenAI Preparedness团队首席Aleksander Madry:机器学习模型的内部计算如何将输入转化为预测?
考虑一个标准的ResNet50模型,该模型经过训练用于图像分类任务。我们是否能够理解这个模型中的卷积滤波器如何将输入图像转换为其预测的标签?或者,GPT-3中的注意力头如何contribute到下一个标记的预测?理解这些模型组件——包括滤波器或头等架构...
-
低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法
在深度神经网络时代,深度神经网络(DNNs)在视觉分类任务中展现出了卓越的准确性。然而,它们对额外噪声,即对抗性攻击,表现出了脆弱性。先前的研究假设这种脆弱性可能源于高准确度的深度网络过度依赖于与纹理和背景等无关紧要且不鲁棒的特征。 最近的AAAI 20...
-
CVPR 2023 | 最全 AIGC 论文清单汇总版,30个方向130篇!
目录 1、图像转换/翻译 2、GAN改进/可控 3、可控文生图/定制化文生图 4、图像恢复 5、布局可控生成 6、医学图像 7、人脸相关 8、3D相关 9、deepfake检测 10、图像超分 11、风格迁移 12、去雨去噪去模糊 13、图像分割 14、视...
-
每日一看大模型新闻(2023.11.20)OpenAI安全系统负责人长文梳理:大模型的对抗攻击与防御;谷歌Bard「破防」,用自然语言破解,提示注入引起数据泄漏风险;真正实现一步文生图,谷歌UFO
1.产品发布 1.1长虹:首个基于大模型的智慧家电AI平台 发布日期:2023.11.20 全球首个基于大模型智慧家电AI平台长虹云帆震撼发布! 主要内容:长虹智慧AI平台发布会上,发布了全球首个基于大模型的智慧家电AI平台——长虹云帆。据介绍...
-
大模型“藏毒”:“后门”触发,猝不及防!
撰稿 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 跟大模型会产生幻觉相比,更可怕的事情来了,最新的一项研究证明:在用户不知情的情况下,最初觉得很得力的大模型助手,将化身“间谍”,产生破坏性代码。 具体来讲,一组研究人员对LL...
-
WAIC2023| AIGC究竟在向善还是向恶而行?
目录 一、常见图像篡改技术 二、传统篡改图像检测方法 2.1、基于光源和噪声的拼接图像篡改检测方法 2.2、基于马尔科夫特征的检测方法 三、基于深度学习的图像篡改检测方法 3.1、基于Fisher编码和SVM模型的方法 3.2、 基于...
-
谷歌DeepMind最新研究:对抗性攻击对人类也有效,人类和AI都会把花瓶认成猫!
【新智元导读】神经网络由于自身的特点而容易受到对抗性攻击,然而,谷歌DeepMind的最新研究表明,我们人类的判断也会受到这种对抗性扰动的影响 人类的神经网络(大脑)和人工神经网络(ANN 的关系是什么? 有位老师曾经这样比喻:就像是老鼠和米老鼠的关系。...
-
【网安AIGC专题10.11】①代码大模型的应用:检测、修复②其安全性研究:模型窃取攻击(API和网页接口) 数据窃取攻击 对抗攻击(用途:漏洞隐藏) 后门攻击(加触发器+标签翻转)
代码大模型的应用及其安全性研究 写在最前面 一些想法 大型模型输出格式不受控制的解决方法 大模型介绍 (很有意思)GPT 模型家族的发展 Chatgpt 优点 缺点 GPT4 其他模型 补充:self-instruct合成数据 Cod...
-
21Dak攻击:计算机顶会PLDI‘23 针对语义依附代码模型的对抗攻击方法:Destroyer篡改输入程序,Finder寻找关键特征,Merger关键特征注入【网安AIGC专题11.22】
Discrete Adversarial Attack to Models of Code 写在最前面 一些对关系抽取和事件抽取相关的启发和思考 摘要 总结与展望 课堂讨论 研究背景与意义 对抗攻击 针对代码模型的对抗攻击 Semanti...
-
【网安AIGC专题】46篇前沿代码大模型论文、24篇论文阅读笔记汇总
网安AIGC专题 写在最前面 一些碎碎念 课程简介 0、课程导论 1、应用 - 代码生成 2、应用 - 漏洞检测 3、应用 - 程序修复 4、应用 - 生成测试 5、应用 - 其他 6、模型介绍 7、模型增强 8、数据集 9、模型安全...
-
大模型界的“熊猫烧香”,可对文生图模型造成巨大伤害!
《麻省理工技术评论》分享了一个名为Nightshade的投毒工具,可以对DALL-E、Midjourney 和Stable Diffusion等文生图模型的训练数据造成造成巨大伤害,以帮助艺术家们防止非法爬取其画作数据,用于大模型训练,同时揭露了模型存在的...
-
OpenAI安全系统负责人长文梳理:大模型的对抗攻击与防御
随着 ChatGPT 的发布,大型语言模型应用正在加速大范围铺开。OpenAI 的安全系统团队已经投入了大量资源,研究如何在对齐过程中为模型构建默认的安全行为。但是,对抗攻击或 prompt 越狱依然有可能让模型输出我们不期望看到的内容。 目前在对抗攻击...
-
【深度学习 AIGC】stable diffusion webUI 使用过程,参数设置,教程,使用方法
文章目录 docker快速启动 vae .ckpt或者.safetensors CFG指数/CFG Scale 面部修复/Restore faces Refiner Tiled VAE Clip Skip prompt提示词怎么写 roop U...
-
AIGC时代,我们如何使用“黑科技”,解决图像信息安全
前言 在当今社会,图像是信息传播和表达的重要方式之一。但是,随着技术的进步,人们可以轻松使用各种图像编辑软件来篡改、伪造图片,制造出看似真实但实际上虚假的场景。 这种现象无疑是给社会带来了一系列负面影响。首先,大量基于虚假图片产生的诈骗案件层出不穷。...
-
马毅、沈向洋联手,首届CPAL开奖!16人获新星奖,华人学者占据半壁江山
就在昨天,首届CPAL简约学术会议,正式公布了新星奖获奖者名单! CPAL专注于解决机器学习、信号处理、优化等领域中普遍存在的简约、低维结构问题,并探索低维结构在智能硬件与系统、交叉科学和工程等新兴方向的应用。 创办这个会议的出发点,就是将其设计为一个...
-
北大团队:诱导大模型“幻觉”只需一串乱码!大小羊驼全中招
北大团队最新研究发现: 随机token都能诱发大模型出现幻觉! 比如喂给大模型(Vicuna-7B)一段“乱码”,它就莫名其妙弄错了历史常识。 或者是简单修改提示词,大模型也会掉入陷阱。 Baichuan2-7B、InternLM-7B、ChatGL...