当前位置:AIGC资讯 > AIGC > 正文

ChatGPT被曝泄露私密对话 遭OpenAI否认

1月31日消息,据外媒报道,OpenAI旗下的人工智能聊天机器人ChatGPT再次被曝安全漏洞。

据悉,ChatGPT是OpenAI于2022年11月30日推出的一种新型AI聊天机器人工具,可根据用户的要求快速生成文章、故事、歌词、散文、笑话,甚至代码,并回答各类疑问。

生成式AI在某些情况下非常有用,但也存在许多问题。现在,ChatGPT的另一个问题出现了。

本周一,外媒援引一名用户分享的几张截图报道称,ChatGPT正在泄露私密对话,包括无关用户的用户名、密码以及其他个人信息。除此之外,泄露给这位用户的其他对话内容还包括某人正在制作的演示文稿名称,一份未发表的研究提案的细节,以及一个使用PHP编程语言的脚本。每次被泄露的对话的用户似乎都是不同的,而且彼此互不相关。

对此,OpenAI方面称,外媒的报道是不准确的,这名用户报告的ChatGPT历史记录是由于他的ChatGPT账户被盗用造成的。显示的聊天历史和文件是这个账户被滥用的对话,而不是ChatGPT显示了另一个用户的历史。

OpenAI表示,它正在对此事进行调查。无论调查结果如何,都建议用户不要与人工智能聊天机器人分享敏感信息,尤其是在不是自己开发的机器人上。

据悉,这不是ChatGPT第一次出现信息泄露问题。2023年3月份,OpenAI曾将ChatGPT下线,原因是一个漏洞导致该网站向无关用户显示活跃用户的聊天记录中的标题。当时,该公司表示,在将ChatGPT下线之前的几个小时,一些用户可以看到另一个活跃用户的姓名、电子邮件地址、支付地址、信用卡号的后四位数字以及信用卡到期时间。后来,OpenAI修补了该漏洞,并报告了该问题的技术细节。

这是ChatGPT首次遭遇重大个人数据泄露。为此,OpenAI还发布一份声明详细解释了这一切是如何发生的,并向用户和整个ChatGPT社区致歉。

2023年11月份,谷歌的一组研究人员发现,通过要求ChatGPT“永远”重复某些单词,可让ChatGPT泄露被用于训练的数据,包括私人信息(比如,个人姓名、电子邮件、电话号码等)、研究论文和新闻文章的片段、维基百科页面等等。不过,研究人员表示,OpenAI在2023年8月30日修补了这个漏洞。

由于担心专有数据或私人数据可能泄露,包括苹果在内的许多公司都限制员工使用ChatGPT和类似网站。

本周一,意大利数据保护局(Garante)宣布,OpenAI的ChatGPT以及用于收集用户数据的技术违反了该国的隐私法。

据悉,意大利数据保护局于2023年3月底针对OpenAI启动了调查,并已将调查结果告知了OpenAI,OpenAI将有30天时间来对该调查结果做出回应。(小狐狸)

更新时间 2024-01-31