TrustWallet钱包安卓下载
CN ∷  EN
TrustWallet钱包安卓下载

Trust钱包官网下载 《人工智能国际治理观察》118期

发布日期:2025-05-01 12:33 点击次数:130
https://www.bitpieqbt.com

「布鲁金斯学会:让模型信息流通起来可以推动通用人工智能安全投入使用」

2022年11月10日,Tech Policy Press发布布鲁金斯学会(Brookings Institution)研究员Alex Engler撰写的《监管通用人工智能,让模型动起来(To Regulate General Purpose AI, Make the Model Move)》。文章指出,欧盟把可以进一步实现更新的、更复杂的人工智能,可以生成超现实的图像和编写可信的文本,甚至还会操纵机械臂和精通电子游戏模型的技术称为通用人工智能(General-Purpose Artificial Intelligence,GPAI),并已将GPAI模型监管问题置于人工智能政策辩论的最前沿。虽然有必要关注这些模型,但欧盟目前应该将重点放在如何部署具有高风险的人工智能模型,并制定促进其更好发展的监管政策,而不是过于狭隘地关注这种新兴模型。

作者表示,想要安全使用GPAI存在不少阻力,且由于下游用例之丰富,监管也难以满足其所有的要求。多家公司合作开发用于商业目的的人工智能(Artificial Intelligence,AI)正变得越来越普遍,欧盟将有很多这样的多组织人工智能开发的例子,称之为“人工智能价值链”。同时,随着少数公司扩大其特大型人工智能模型的开发,人们普遍认为,这些模型将进一步实现更新、更复杂的人工智能价值链表现。斯坦福大学人工智能社区的的《论基础模型的机会与风险( On the Opportunities and Risks of Foundation Models)》报告甚至称它们为“基础”模型,并指出,它们的定义是可以适应下游任务。实际上,如果在投入下游使用的努力过程中略微忽视任何一个小细节,其推动投入应用的努力就会功亏一篑。首先,今天的GPAI的用途是多种多样的,但鉴于它在人工智能价值链中的潜在核心作用,人们需要适当监管它。欧盟理事会提议,让GPAI模型根据具体的监管要求,遵守风险管理、数据治理、技术文档以及准确性和网络安全标准等原则,TrustWallet钱包app下载来使得GPAI经过测试审查、留下良好的文档记录, TrustWallet官网下载从而安全地投入下游使用。但是,虽然GPAI开发人员可以广泛地改进其模型的功能,由于下游用例的多样性十分丰富,在它应用于下游应用程序时,仍无法保证其功能是公正有效的,如搜索法律文件、生成广告文案、评分文章或检测有害言论等。尽管GPAI模型有良好算法设计,还是不能保证其在潜在用途方面的安全性和公平性,也不能解决开发任何特定的下游应用程序的问题。欧盟的方法在只用于处理琐碎任务的GPAI模型中还存在其他缺点,并且,目前也还不清楚公司如何在销售GPAI模型的过程中部署风险管理系统。

作者建议欧盟采取一种以人工智能价值链为中心的方法,重新制定法案中的相关部分,从而来对GPAI进行监管。上下游模型开发者之间应该尽可能破除应用程序编程接口(application programming interface,API)的使用和访问壁垒,来提高GPAI的使用安全性。治理人工智能价值链的最佳情况是,无论是否自动化,最终使用GPAI模型的公司拥有所有需要仔细审查和做出选择的信息,所有的监管要求也都适用于该公司,政府监管也可以因此变得更简单、更有效。欧盟应重新制定《人工智能法案》的相关部分,鼓励将信息从GPAI开发者传递给下游开发者,包括与第三方开发人员共享AI模型。这是最关键、也是最具争议的,但这将极大提高构建安全有效的人工智能系统的效率。如果下游开发人员可以直接访问GPAI模型,他们可以使用广泛的方法来访问该模型、创建特定于模型的指标,使用其他AI模型来测试GPAI模型、对模型进行压缩剪枝或修改模型。但当GPAI模型包含在软件中,或仅通过API可用时,以上评估将变得十分困难,有时甚至不可评估。即使后来扩展了通过API更新或调整模型的可能性,通过API访问的GPAI模型需要按数据量收费,也严重阻碍了对GPAI模型进行测试的数据密集型过程。然而,GPAI开发人员可能倾向于把他们的模型放在API后面,这样他们就可以不断地收取访问费用,同时也可以严格控制他们的知识产权。但是如果GPAI开发人员希望将他们的模型商业化,用于招聘、医疗应用程序、教育软件或金融服务,他们应该转移AI模型对象,以及关于数据和培训过程的文档。通过这种方式,当GPAI模型完全集成到最终产品中后,模型迁移将使下游开发人员无限地测试和评估GPAI模型,这避免了下游开发人员在他们不完全了解AI系统的情况下使用模型的风险。并且,在这个治理框架下,作为GPAI开发人员没有理由在AI价值链中划分监管责任。一旦模型及其文档与下游开发人员共享,他们就可以完全承担GPAI模型的决策和结果及其在任何更广泛的软件系统中的使用的责任。

最后,作者表示,鼓励GPAI开发人员向下游开发人员出售或租赁GPAI模型也可以帮助开发人员更好地使用这些模型。但实际上,这应该适用于存在高风险的所有模型,而不仅仅是GPAI。除了商业化带来的风险,GPAI模型的易访问性将导致其还存在另一种扩散性危害,例如,GPAI模型可以生成非自愿的色情作品和其他深度伪造作品、仇恨言论或其他骚扰,以及假新闻和虚假信息。在许多数字生态系统中,这些已经是严重的问题,而GPAI模型的扩散很可能会使这些问题恶化。即使欧盟最初提出了监管GPAI的提议,也不能防止扩散造成的恶意使用。大多数扩散危害必须通过有效方法来解决,例如开展平台内容审核和类似《数字服务法案(Digital Services Act)》的政府干预。尽管有这些风险,作者仍然鼓励将GPAI模型转移给下游开发商。因为这可能会极大地提高它们的商业应用安全性,同时简化政府监管,进而推动GPAI的下一步安全使用,让人工智能价值链更加安全。

 

Alex C. Engler:美国布鲁金斯学会鲁宾斯坦研究员,乔治城大学麦考特公共政策学院兼职教授,专注于研究人工智能和新兴数据技术对社会和治理的影响。

原文链接:

https://techpolicy.press/to-regulate-general-purpose-ai-make-the-model-move/

最新资讯
推荐资讯