当前位置:AIGC资讯 > AIGC > 正文

即将到来的政府监管下的人工智能时代

斯蒂芬·霍金曾说过一句名言:“成功创造出有效的人工智能可能是我们文明史上最大的事件,但除非我们学会如何准备和避免潜在的风险,否则人工智能可能是我们文明史上最糟糕的事件。”

人工智能以LLM(大型语言模型)的形式出现爆炸式增长。基于与ChatGPT等工具的类似人类的自然语言对话,使许多人认为广泛采用人工智能的时代即将到来。在硬件和软件上投入了大量资金,希望将许多由“纯人类”执行的任务自动化。最近,谷歌宣布对广告销售团队进行重组,并裁员“数百名员工”,以实现人工智能流程的自动化,将关键操作交给人工智能代理或工具。这些更高级别的人类与人工智能对话的有效性仍然未知。

包括LLM在内的生成式人工智能(GenAI)的一个方面是市场的发展速度。研究人员多年来一直在开发新的想法和模型;然而,在过去18个月里,人们对人工智能(尤其是GenAI及LLM)的商业兴趣加速增长,而且没有显示出放缓的迹象。霍金的建议再贴切不过了。

鉴于人工智能技术的快速发展和未经测试的有效性,专业媒体HPCwire采访了Intersect360 Research的高级分析师史蒂夫•康威(Steve Conway),请他评论政府监管人工智能的努力,以及这些努力可能对高性能计算(HPC)产生的影响。Conway十多年来一直密切关注人工智能的进展。他就这一主题发表了大量演讲并发表了大量文章,其中包括与约翰霍普金斯大学应用物理实验室合作撰写的美国高级军事领导人的人工智能入门。

政府对人工智能的监管情况如何?

Conway:2024年和2025年将是世界各国政府人工智能监管的重要时期。认识到最近的进展,特别是生成式人工智能,可以有力地改变社会和经济,政府正在推动旨在使他们成为人工智能领导者的法规,同时避免有害的潜在风险。就人工智能而言,今天的世界处于兴奋和担忧之间,法规的语言反映了这两种情况。当你通读这些文件时,你会产生巨大的热情和一种控制风险的紧迫感,就好像潘多拉的盒子被打开了一样。

为什么现在监管举措越来越多?

Conway:主流的方法和学习模型非常有用,但它们还不够透明和可靠。这种情况造成了有意或无意滥用的严重可能性。几年前,我听了芝加哥大学的Rebecca Willett的一场精彩演讲,讲述了人工智能可能会以多种方式引入错误和偏见。生成式人工智能引起了人们的担忧,尤其是因为它在汇总和组织数据时无法区分事实和虚构。

例如,像Google Duplex这样的超现实机器人被故意设计成对人类隐藏它们的人工智能本质,甚至在对话中插入“嗯”和“啊”。斯坦福大学的自适应智能体小组提出了人工智能体的口令(Shibboleth)规则。它说,“如果被任何代理人要求,所有自主的人工智能都必须表明自己的身份,无论是人类还是其他东西。”

这对HPC社区意味着什么?

Conway:在人工智能研发的最前沿,HPC几乎是不可或缺的,几乎所有的HPC站点都在开发或探索人工智能,所以一些正在制定的国家人工智能法规主要针对科学研究人员和研究人员所谓的前沿人工智能能力,这并不是偶然的。

对HPC厂商有什么特别的影响吗?

Conway:许多政府监管机构都在为前沿人工智能能力设计和交付技术,我认为包括云服务提供商在内的高性能计算供应商应该密切关注降低人工智能风险的努力,并考虑直接参与这些努力。包括保护知识产权和对违规行为进行严重的经济处罚。供应商应该密切关注这一点。

这对研究人员来说意味着什么?

Conway:人工智能的透明度问题意味着,研究人员应该继续注意何时应用人工智能,何时让人类参与其中。对于重要的应用程序,也许人工智能的使用通常应该是一个中间步骤,而不是最后一步,只要可行,人工智能的结果就应该由人类来验证。

世界各地的法规对人工智能的定义是否相似?

Conway:这些定义通常非常广泛,通常包括广泛的领域,从科学研究到社交媒体、消费电子产品、自动驾驶和半自动驾驶、精准医疗、电信等许多领域。各国政府不得不认真思考,单一机构是否能够胜任管理如此多样化领域的人工智能法规和政策。包括美国、中国和英国在内的一些政府似乎正朝着单一机构的解决方案迈进,而欧盟正在针对不同的领域寻求不同的监管方法。

能否简要介绍一下主要国家和地区在人工智能监管方面的立场?

Conway:当然。我将从中国开始,中国率先采取措施,通过《负责任的研究行为准则》对生成式人工智能进行监管。除其他事项外,该指导方针指出,在影响公众的研究资助项目的申请中,必须明确标注人工智能的使用。此外,中国国家互联网信息办公室(CAC)对可能威胁社会的前沿人工智能模型采取了许可制度。重要的是,CAC许可有意鼓励中小企业、初创企业和大公司的创新。全世界都担心,大公司可能会试图阻止这种竞争,并在新兴的人工智能市场上成为垄断企业,在这个市场上,重要的突破可能来自小公司。

在2023年11月的布莱切利宣言中,包括英国、美国、中国、日本以及欧洲、中东和非洲以及亚太地区的许多国家在内的28个国家同意合作管理与前沿人工智能能力相关的更高风险。预计将于今年或明年生效的《欧盟人工智能法案》(EU AI Act)被视为全球最全面、最严格的人工智能监管尝试,一些企业指责该法案扼杀了创新。欧盟法案规定,对严重违规者处以公司上一年度收入7%的罚款,罚款金额可能高达数百万欧元。

美国总统拜登2023年10月发布的行政命令对于制定旨在保护隐私和惩罚歧视的潜在人工智能权利法案的原则非常重要。然而,美国30个州已经通过了针对人工智能潜力和风险的法律。在美国,从州一级就联邦法规达成共识并不罕见。

日本采取的方法更像美国,而不是欧洲那种更严格的监管。2019年,日本政府发布了“以人为中心的人工智能社会原则”,随后又发布了“人工智能战略2022”。两者都是为了在人工智能的进步中保护公民和可持续发展的社会。《人工智能、机器学习和大数据法律法规2023》以数据和知识产权保护为中心,包括法律责任。

量子计算是另一项具有潜在社会风险的转型技术。政府是否也在制定有关量子计算的法规?

Conway:(这个领域)监管活动处于早期阶段,因为量子计算的广泛商业化在未来还很遥远。美国金融业监管协会(FINRA)发布了与网络安全和数据治理相关的量子监管考虑,其他一些机构也在考虑风险。不过,目前的紧迫性主要还是与人工智能有关。例如,在中国,百度和阿里都已将其量子研究设施移交给政府,以便更加专注于如今在人工智能领域的竞争。对量子计算风险的担忧可能很快就会变得更加严重。

HPC社区可以为人工智能做些什么来降低风险,使监管不会扼杀创新?

Conway:我认为所有与人工智能相关的大学课程都应该无一例外地设置伦理课程,而且培训应该针对人工智能带来的风险。全球许多知名大学已经开设了人工智能伦理课程,包括剑桥大学、澳大利亚国立大学、佐治亚理工学院、斯坦福大学、新泽西理工学院、东京大学、斯图加特大学、北京大学等。这方面很重要。

更新时间 2024-01-22