欧盟人工智能法案:通过风险管理框架采用

艾德琳陈
作者: 艾德琳·陈,CISM
发表日期: 2023年7月10日

近年来,人工智能(AI)的失败屡见不鲜. 这些事故包括特斯拉因自动驾驶功能问题导致的车祸,1 亚马逊的人工智能招聘工具显示出对女性的偏见2 微软的人工智能聊天机器人Tay被用户操纵,发表性别歧视和种族主义言论.3 These mounting ethical issues related to biases and malicious use have led to the development of the EU 人工智能 Act (AI Act) to establish governance and enforcement to protect human rights and safety with regard to the use of AI. 《澳门赌场官方下载》是第一部由主要监管机构制定的人工智能法律. 这项法律旨在确保安全、负责任地使用人工智能, 以人为本,以澳门赌场官方下载为本.

人工智能法案是在欧洲为人工智能制定有效和负责任的监管框架的重要一步. It is hoped that this law will create a level playing field for all enterprises while also protecting the rights and interests of people.4

生成AI的风险

生成式人工智能内容带来了巨大的风险,也许最明显的是错误信息的传播. 生成式人工智能可以用来制造假新闻和其他形式的错误信息,这些信息可以迅速而广泛地传播. 这可能会产生严重的后果,包括损害个人和组织的声誉, 政治不稳定和破坏公众对媒体的信任.

ChatGPT等人工智能工具的写作充满自信和说服力,可以被解读为权威. 这些文字可能会被普通用户从表面上理解, 会在互联网上传播不正确的数据和想法. ChatGPT中数据不准确的一个例子是Stack Overflow, 哪个是面向程序员的问答网站. 程序员们一直在Stack Overflow的查询板上填满人工智能生成的帖子. 由于大量的错误, Stack Overflow已经采取措施防止任何人发布ChatGPT生成的答案.5

生成人工智能内容的另一个风险是恶意使用. 在坏人手中,生成式人工智能可以成为造成伤害的强大工具. 例如,生成式人工智能可以用来制造虚假评论、诈骗和其他形式的在线欺诈. 它还可以自动发送垃圾邮件和其他不必要的通信. 此外,还有人工智能创建变异恶意软件的概念验证攻击.6 ChatGPT也可以用来编写恶意软件——研究人员在一个黑客论坛上发现了一个名为“‘ChatGPT -恶意软件的好处’”的帖子.7

因为人工智能只能基于从数据中学到的东西来生成内容, 它提供复杂主题的深入调查或提供新的见解和观点的能力可能有限.

因为人工智能只能基于从数据中学到的东西来生成内容, 它提供复杂主题的深入调查或提供新的见解和观点的能力可能有限. 在生成AI内容中缺乏实质和深度可能会产生严重的后果. 例如, 它可能导致对关键主题和问题的肤浅理解,并使人们难以做出明智的决定.8

因为人工智能系统中使用的算法很复杂, 人工智能对个人和组织的隐私提出了挑战. 这意味着个人可能甚至没有意识到他们的数据正在被用来做出影响他们的决定.9 例如, Clearview AI allows a law enforcement officer to upload a photo of a face and find matches in a database of billions of images it has collected. The Australian Information Commissioner and 隐私 Commissioner found that Clearview AI breached Australians’ privacy by scraping their biometric information from the web and disclosing it through a facial recognition tool.10

人工智能行为风险分类

The AI Act assigns applications of AI to 3 risk categories based on the potential danger these applications pose: unacceptable risk applications, 高风险应用和有限或低风险应用.

第一类禁止产生不可接受风险的应用程序和系统. 例如, 不可接受的用途包括公共场所的实时生物识别, 人工智能扫描面部,然后自动识别人.

第二类涵盖高风险应用, 比如一种基于自动算法对求职者进行排名的简历扫描工具. This type of application is subject to strict regulations and additional protective measures to ensure that people are not discriminated against based on their gender, 种族或其他受保护的特征. 高风险的人工智能系统可能会产生更严重的影响, 比如可以影响人们生活的自动决策系统. 在这些情况下, it is important that users are made aware of the implications of using such systems and are given the option to opt out if they feel uncomfortable.

第三类是有限风险的人工智能系统, 哪些具有特定的透明度义务,用户必须了解这些义务. 这允许用户做出明智的决定,决定他们是否希望继续进行交互. 低风险AI系统的例子包括支持AI的视频游戏或垃圾邮件过滤器, 哪一种可以随意使用而没有副作用.

基于风险的方法有效吗?

要解决这个风险, 欧盟委员会进行了一项影响评估,重点是采取行动的理由, 欧洲人工智能框架的不同政策选择的目标和影响, 这将解决人工智能的风险,并使欧洲在全球发挥领导作用. 影响评估正被用于为人工智能创建欧洲法律框架, 哪些将成为拟议的人工智能法案的一部分.

欧洲委员会在影响评估中考虑的若干政策选择是:

  • 选项1:人工智能的一个定义(只适用于自愿)-在此选项下, an EU legislative instrument would establish an EU voluntary labeling scheme to enable providers of AI applications to certify their AI systems’ compliance with certain requirements for trustworthy AI and obtain an EU-wide label.
  • 选项2:每个部门采用人工智能的定义,并确定所涵盖的人工智能系统的风险——起草 特别的 立法或在个案基础上检讨现有的立法, 此选项将解决与某些人工智能应用程序相关的特定风险. 没有协调一致的方法来监管跨部门的人工智能, 也不存在横向要求或义务.
  • 选项3a:一种横向适用的人工智能定义和高风险确定方法(基于风险的方法)—This option would envisage a horizontal EU legislative instrument applicable to all AI systems placed on the market or used in the EU. 这将遵循一种基于风险的相称方法. 水平仪将建立人工智能的单一定义.
  • Option 3b: One horizontally applicable AI definition and methodology of determination of high-risk (risk-based approach) and industry-led codes of conduct for nonhigh-risk AI—This option would combine mandatory requirements and obligations for high-risk AI applications as under option 3a with voluntary codes of conduct for nonhigh-risk AI.
  • 选项4:一个水平AI定义,但没有渐变-在此选项下, 将对人工智能系统的提供者和用户施加与选项3相同的要求和义务, 但这适用于所有的人工智能系统,不管它们构成的风险是高是低。.

以下标准被用来评估备选方案的潜在表现:

  • 实现人工智能法案具体目标的有效性
  • 确保投放市场和使用的人工智能系统是安全的,并尊重人权和欧盟价值观
  • 法律确定性促进投资和创新
  • 加强管治和有效执行适用于人工智能的基本权利和安全规定
  • 发展合法的单一市场, 安全可靠的人工智能应用程序,有助于防止市场分裂
  • 效率是指每个政策选择在实现特定目标时的成本效益比
  • 与其他政策目标和措施保持一致
  • 比例(我.e., 这些选择是否超出了欧盟层面为实现目标而必须采取的干预措施)

基于这些标准,选项3b获得了最高分.11 Using a risk-based approach means that most efforts are focused on assessing and mitigating the high-risk AI applications in contrast to low-risk ones. A risk management framework is a useful road map for providing the required structure and guidance to balance the risk of AI applications without dampening innovation and efficiencies from AI. 它还确保了人工智能法案的实施和管理,以及人们的利益和隐私得到保护.

A risk management framework is a useful road map for providing the required structure and guidance to balance the risk of AI applications without dampening innovation and efficiencies from AI.

通过风险管理框架进行治理

解决如何成功应用人工智能法案, 有必要建立一个风险管理框架来支持监管.

标准的风险管理框架包含包括风险识别在内的关键要素, 缓解和监测, 哪些为治理奠定了基础. The US National Institute of Standards and Technology (NIST) AI Risk Management Framework (RMF) is suggested to complement the AI Act and is a feasible approach to the implementation of option 3b as it sets forth dialog, 理解并负责地管理人工智能风险.12

许多领先的技术组织,比如亚马逊, b谷歌和IBM赞扬了NIST AI RMF为负责任的开发和部署AI产品所做的努力, 声明它是:

负责任地开发和部署人工智能产品和服务的重要途径. AI RMF, 比如BSA框架, 创建了解决人工智能风险的生命周期方法, 识别值得信赖的人工智能的特征, 认识到基于上下文的解决方案的重要性, 并承认影响评估对识别的重要性, 文档, 降低风险. 这种方法与BSA的“在人工智能中建立信任框架”非常一致, 强调需要关注人工智能的高风险用途, 强调影响评估的价值, 并区分那些开发人工智能的公司的义务, 以及那些部署人工智能的实体.13

如图所示 图1人工智能RMF核心由治理、映射、测量和管理4个功能组成.

数据隐私和数据安全的区别

The govern function provides organizations with the opportunity to clarify and define the roles and responsibilities of those who oversee AI system performance. 它还为组织创造了机制,使他们的决策过程更加明确,以对抗系统性偏见.

The map function suggests opportunities to define and 文档 processes for operator and practitioner proficiency with AI system performance and trustworthiness concepts. 它还提供了定义相关技术标准和认证的机会.

The govern and map functions describe the importance of interdisciplinary and demographically diverse teams while utilizing feedback from potentially impacted individuals and communities. AI actors who are involved in applying their professional expertise and activities in the RMF can assist technical teams by anchoring design and development practices to user intentions and representatives of the broader AI community and societal value. These AI actors are gatekeepers or control points who assist in incorporating context-specific norms and values and evaluating end-user experiences and AI systems.

测度函数分析, 评估, 对人工智能风险和相关影响进行定量评估和监测, 定性, 或者混合方法工具, 技术和方法. 它使用地图功能中识别的与人工智能风险相关的知识,并通知管理功能. 人工智能系统应该在部署前进行测试,之后定期进行测试. 人工智能风险测量包括记录系统的功能和可信度.

度量结果用于管理功能,以协助风险监控和响应工作. 框架用户必须继续将度量函数作为知识应用于人工智能系统, 方法, 风险和影响不断演变.14

Both the European Union and the United States are committed to a risk-based approach to AI to advance trustworthy and responsible AI technologies. Experts from the governing bodies of both are working on “cooperation on AI standards and tools for trustworthy AI and risk management.“他们有望起草一份自愿的人工智能行为准则,供志同道合的国家采用.15

结论

通过理解当前人类与人工智能交互的局限性, 组织可以改善他们的人工智能风险管理. It is important to recognize that many of the data-driven approaches that AI systems use to attempt to convert or represent individual and social observational and decision-making practices need to be continuously understood and managed.

人工智能法案提出了一种基于风险的方法来管理人工智能风险. It requires organizations that are providing AI tools or adopting AI in their processes to undertake an impact assessment to identify the risk of their initiatives and apply an appropriate risk management approach. 应该通过有效的风险控制来减轻高风险的人工智能计划, 哪些可以与具有共同产品或风险区域的类似行业团体讨论和审查. This results in a positive outcome—development of voluntary industry-led codes of conduct that can support the risk governance of AI). 这种方法还有助于分散监管和监督责任的成本. 所实现的协同效应将使人工智能的用户受益并得到保护.

通过这种人工智能的战略采用, 效率可以达到仅靠人力无法实现的效果.

尾注

1 麦克法兰,M.; “政府数据显示,特斯拉引发的连环车祸涉及驾驶辅助技术CNN, 2023年1月17日
2 Dastin J.; “亚马逊放弃了对女性有偏见的秘密人工智能招聘工具,路透社,2008年10月10日
3 Tennery,.; G. Cherelus; “在发布种族歧视和性别歧视的推文后,微软的人工智能推特机器人关闭了,路透社,2016年3月24日
4 人工智能法案。”人工智能法案
5 Vigliarolo B.; “Stack Overflow禁止ChatGPT,因为它对编码问题“非常有害”,” 寄存器2022年12月5日
6 沙玛,年代.; “ChatGPT创建变异恶意软件,逃避EDR检测,” 方案, 2023年6月6日
7 里斯,K.; “ChatGPT被网络罪犯用来编写恶意软件“利用”,2023年1月9日
8 奥尼尔,年代.; “低质量生成AI内容的危险是什么?LXA, 2022年12月12日
9  Van Rijmenam, m.s.; “人工智能时代的隐私:风险、挑战和解决方案,《澳门赌场官方软件》,2023年2月17日
10 澳大利亚信息专员办公室,”明视人工智能侵犯了澳大利亚人的隐私, 2021年11月3日
11 欧盟委员会,”《澳门赌场官方下载》对人工智能的影响评估, 2021年4月21日
12 美国国家标准与技术研究院(NIST) 人工智能风险管理框架(AI RMF.0), 美国,2023年1月
13 美国国家标准与技术研究所(NIST)关于NIST人工智能风险管理框架的观点,美国,2023年2月6日
14 Op cit 国家标准与技术研究院 人工智能风险管理框架(AI RMF.0)
15 员工。”欧盟和美国将起草自愿人工智能行为准则,” 《澳门赌场官方下载》2023年6月1日

艾德琳陈

领导风险管理团队评估和降低风险,加强银行风险文化. 她已经为云实现了各种风险框架, SC公司, 操作与技术, 和网络安全. 她的重点是创造业务价值,并将风险管理与业务目标结合起来. 此前,她领导了业务转型和银行合并团队. 在管理项目和变更风险时, 她在组织重新设计和实现成本效率方面指导主题专家. 她的经验涵盖全球和澳门赌场官方下载银行业务、财富管理、保险和能源. She is a member of the Singapore Fintech Association and the Blockchain Association Singapore where she plays an active role in the digital assets ex陈ge and token subcommittee. 她的社会责任参与包括为ISACA做志愿者® SheLeadsTech (SLT)作为科技行业女性和希望转行到GRC行业的候选人的导师. 她通过写作(http://medium.com/@adelineml.chan),并为ISACA澳门赌场官方软件ISACA® 杂志.