-
OpenAI安全系统负责人长文梳理:大模型的对抗攻击与防御
随着 ChatGPT 的发布,大型语言模型应用正在加速大范围铺开。OpenAI 的安全系统团队已经投入了大量资源,研究如何在对齐过程中为模型构建默认的安全行为。但是,对抗攻击或 prompt 越狱依然有可能让模型输出我们不期望看到的内容。 目前在对抗攻击...
-
CVPR 2023 | 去雨去噪去模糊,图像low-level任务,视觉AIGC系列
Learning A Sparse Transformer Network for Effective Image Deraining 基于Transformer的方法在图像去雨任务中取得了显著的性能,因为它们可以对重要的非局部信息进行建模,这对...
-
Yolo V8:深入探讨其高级功能和新特性
Yolo是一种计算机视觉模型,被广泛认为是目前最强大和最知名的模型之一。这一突破性技术被称为Yolo,它是“You Only Look Once”的缩写,是一种以几乎瞬间处理速度检测物体的方法。Yolo V8技术是这一技术的最新版本,也是对之前版本的一种...
-
GPT-4比你更会问问题:让大模型自主复述,打破与人类对话的壁垒
在最新的人工智能领域动态中,人工生成的提示(prompt)质量对大语言模型(LLM)的响应精度有着决定性影响。OpenAI 提出的建议指出,精确、详细且具体的问题对于这些大语言模型的表现至关重要。然而,普通用户是否能够确保他们的问题对于 LLM 来说足够...
-
华人团队获最佳论文、最佳系统论文,CoRL获奖论文出炉
自 2017 年首次举办以来,CoRL 已经成为了机器人学与机器学习交叉领域的全球顶级学术会议之一。CoRL 是面向机器人学习研究的 single-track 会议,涵盖机器人学、机器学习和控制等多个主题,包括理论与应用。 2023 年的 CoRL 大会...
-
PubDef:使用公共模型防御迁移攻击
译者 | 布加迪 审校 | 重楼 对抗性攻击对机器学习系统的可靠性和安全性构成了严重威胁。通过对输入进行微小的变动,攻击者就可以导致模型生成完全错误的输出。防御这种攻击是一个很活跃的研究领域,但大多数提议的防御措施都存在重大的缺点。 这篇来自加州大学伯克...
-
马斯克xAI公布大模型详细进展,Grok只训练了2个月
近几日,马斯克的人工智能公司 xAI 公布了他们用来对标 OpenAI ChatGPT 的产品 ——Grok ,直接把网友的好奇心拉满。 和总是一本正经回答问题的 ChatGPT 不同,Grok 自带幽默和嘲讽技能。 就像下图所展示的,Grok 在被...
-
给大模型评分的基准靠谱吗?Anthropic来了次大评估
现阶段,大多数围绕人工智能 (AI)对社会影响的讨论可归结为 AI 系统的某些属性,例如真实性、公平性、滥用的可能性等。但现在面临的问题是,许多研究人员并没有完全意识到建立稳健可靠的模型评估是多么困难。当今许多现有的评估套件在各个方面的表现都很有限。 A...
-
OpenAI将组建新团队 以评估和减轻与人工智能相关的灾难性风险
10月27日消息,据外媒报道,当地时间周四,美国人工智能研究公司OpenAI宣布,它将组建一个名为Preparedness的新团队,以评估和减轻与人工智能(AI)相关的“灾难性风险”。 OpenAI表示,该团队将由麻省理工学院可部署机器学习中心主任亚历山大...
-
清华新研究解密信息茧房!全新信息动力学理论,登Nature子刊
新一代信息与智能技术的迅猛发展推动着人类逐步迈入智能社会。在数字技术和智能推荐算法的加持下,媒体和平台越来越贴心,总是能最快最准的地契合人们的个性化偏好和需求。 然而,与此同时,智能精准推荐致使「信息茧房」现象不断发酵,观点相似的人群在网络空间组成团体,...