当前位置:AIGC资讯 > AIGC > 正文

欧盟ChatGPT工作组首次展示了如何解开AI聊天机器人的隐私合规性

欧盟数据保护任务组已经花费了一年多的时间,考虑了欧盟数据保护法规如何适用于 OpenAI 的 ChatGPT 聊天机器人,并于上周发布了初步结论。总的来说,这个隐私执法小组对于关键的法律问题,例如 OpenAI 的处理是否合法和公平,仍未达成一致意见。

图源备注:图片由AI生成,图片授权服务商Midjourney

这个问题非常重要,因为确认违反欧盟隐私规定的惩罚可以达到全球年营业额的4%,执法机构还可以下令停止不合规的处理。因此,从理论上讲,在欧洲地区,OpenAI 面临着相当大的监管风险,尤其是在人工智能领域的专门法律仍然不完善的情况下(即使在欧盟的情况下,这还需要几年时间才能完全生效)。

然而,由于欧盟数据保护执法机构尚未明确规定当前数据保护法如何适用于 ChatGPT,OpenAI 很可能会继续按常规运营,尽管已经有越来越多的投诉声称该技术违反了欧盟一般数据保护条例的各个方面。例如,波兰的数据保护机构正在调查一项投诉,称该聊天机器人编造关于个人的信息并拒绝更正错误。最近,奥地利也收到了类似的投诉。

从理论上讲,只要涉及个人数据的收集和处理,欧洲一般数据保护条例都适用,而 OpenAI 的 GPT 这样的大型语言模型在从公共互联网上获取数据以训练模型时,已经证明了这一点,包括从社交媒体平台获取人们的帖子。

欧盟法规还赋予数据保护执法机构下令停止任何不合规的处理的权力。如果欧盟的数据保护执法者选择行使这一权力,那么这对 ChatGPT 背后的 AI 巨头来说将是一个非常强有力的杠杆。

去年意大利的隐私监管机构对 OpenAI 下了一个暂时禁令,禁止其处理该国 ChatGPT 的本地用户的数据。这一行动是在欧洲一般数据保护条例中包含的紧急权力的基础上采取的,导致 AI 巨头暂时关闭了该服务。

ChatGPT 只有在 OpenAI 对其向用户提供的信息和控制措施进行了一系列更改以回应隐私监管机构的一系列要求后才恢复在意大利的使用。但是,对这款聊天机器人的调查仍在进行中,包括 OpenAI 声称用于训练其 AI 模型的人们数据处理的法律依

更新时间 2024-05-28