微软、OpenAI、谷歌和Anthropic宣布了一项重要举措,共同投入1000万美元用于增强生成式AI产品的安全。这个决定包括任命Chris Meserole为“前沿模型论坛”的执行董事,该论坛由上述公司联合创立,旨在确保前沿AI模型的安全和负责任开发。这反映了这些科技巨头对生成式AI安全的关切,也是他们签署的“AI安全承诺”的一部分,旨在推动生成式AI的健康发展。
“前沿模型论坛”的核心目标包括推进AI安全研究,降低风险,实现AI能力和安全性的独立评估,制定负责任的开发和部署最佳实践,与政策制定者、学者和社会合作分享关于信任和安全风险的知识,以及支持开发AI应用程序以解决社会挑战,如气候变化、癌症检测和网络威胁。
Chris Meserole将在“前沿模型论坛”中担任重要职务,推动AI安全研究,确定最佳实践,分享知识,以及支持解决社会问题的AI应用。他认为,强大的AI模型承载着巨大的社会责任,但为了实现其潜力,我们需要更好地了解如何安全开发和评估它们。
为了解决生成式AI的潜在安全风险,微软、OpenAI、谷歌和Anthropic成立了AI安全基金,旨在支持来自世界各地的独立研究人员,共同构建健康、安全的AI生态。该基金的重点是支持开发新的模型评估技术,以帮助测试和确保前沿AI模型的安全性。这将有助于提高AI系统的安全标准,为整个行业和开发者提供更好的控制措施。
这一举措凸显了科技公司对生成式AI安全的关切,并强调了他们对该领域的长期承诺。这将对生成式AI的未来发展产生积极影响,同时为全球提供更安全的AI解决方案。