Meta 公司已解散其负责人工智能(AI)安全的「Responsible AI」(RAI)团队,该团队原本专注于监管 AI 项目的安全性。
据 Meta 发言人透露,大多数 RAI 团队成员已被重新分配到公司的生成式 AI 产品部门,而其他一些成员现在将在 AI 基础设施团队工作。该消息最初由 The Information 报道。
成立于 2 月的生成式 AI 团队专注于开发能生成语言和图像的产品,以模仿人类制作的相应版本。随着整个科技行业为了不落后于 AI 竞赛而投资于机器学习开发,Meta 也成为了追赶 AI 热潮的大型科技公司之一。
RAI 重组发生之际,正值 Facebook 母公司结束其首席执行官马克·扎克伯格在 2 月财报电话会议中所称的「效率年」。到目前为止,这表现为公司内部一系列裁员、团队合并和重新分配。
随着监管机构和其他官员更加关注这项新兴技术的潜在危害,确保 AI 的安全已成为行业领头羊的公开优先事项。7 月,Anthropic、谷歌、微软和 OpenAI 组成了一个专门聚焦于随着 AI 进步而设定安全标准的行业组织。
尽管 RAI 员工现已分散至整个组织,发言人指出,他们将继续支持「负责任的 AI 开发和使用」。发言人表示:「我们继续将安全和负责任的 AI 开发作为优先事项并进行投资。」
该公司最近推出了两种人工智能驱动的生成模型。第一个是 Emu Video,利用 Meta 之前的 Emu 模型,可以根据文本和图像输入生成视频剪辑。第二个模型 Emu Edit 专注于图像处理,有望提高图像编辑的精度。