最近,国际标准化组织(ISO)和国际电工委员会(IEC)联合发布ISO/IEC 22989:2022和ISO/IEC 23053:2022两项人工智能(AI)基础标准,以及ISO/IEC TR 24368:2022技术报告,旨在为数字化转型提供重要基石。简介如下:
1、ISO/IEC 22989:2022 Information technology-ArtificiAI intelligence-ArtificiAI intelligence concepts and terminology(信息技术-人工智能—人工智能概念和术语)。
标准中建立了人工智能领域的术语,并描述了人工智能领域的概念,涵盖了广泛的技术。以帮助更广泛的涉众更好地理解和使用人工智能技术。它面向广泛的受众,包括专家和非从业人员。本标准可用于制定其他标准,适用于所有类型的组织(如商业企业、政府机构、非营利组织)。
人工智能是一个高度交叉的领域,广泛基于计算机科学,数据科学,自然科学,人文科学,数学,社会科学等。“智能”、“智力”、“理解”、“知识”、“学习”、“决策”、“技能”等术语贯穿于本标准。然而,这并不是要将人工智能系统拟人化,而是要描述一些人工智能系统可以初步模拟这种特性的事实。人工智能技术有很多领域,这些领域联系错综复杂,发展迅速。
人工智能的研究包括“学习、识别和预测”、“推理、知识和语言”、“发现、搜索和创造”等方面。研究还解决了这些方面之间的相互依赖性。人工智能作为输入和输出过程流的概念被许多人工智能研究人员所共享,并且对该过程的每个步骤的研究正在进行中。技术利益相关者需要标准化的概念和术语,以便更广泛的受众更好地理解和采用。此外,人工智能的概念和类别允许在可信性、健壮性、弹性、可靠性、准确性、安全性、安全性和隐私等属性方面对不同的解决方案进行比较和分类。这使涉众能够为他们的应用程序选择适当的解决方案,并比较市场上可用解决方案的质量。由于本标准仅从学科的意义上为术语人工智能提供了定义,因此其使用背景可以描述如下:人工智能是一个技术和科学领域,致力于为给定的一组人类定义的目标生成内容、预测、建议或决策等输出的工程系统。
2、ISO/IEC 23053:2022 Framework for ArtificiAI Intelligence (AI) Systems Using Machine Learning (ML)(使用机器学习(ML)的人工智能(AI)系统框架)。
该标准建立了一个人工智能(AI)和机器学习(ML)框架,用于描述使用ML技术的通用AI系统。该框架描述了AI生态系统中的系统组件及其功能。通过为此类系统建立一个通用的术语和一组通用的概念,以清晰地解释这些系统以及应用于其工程和使用的各种考虑提供了基础。本标准还为针对ML系统及其组件的特定方面的其他标准提供了基础。
本标准适用于正在实施或使用AI系统的所有类型和规模的组织,包括专家和非从业人员、公共和私人公司、政府实体和非营利组织。
一般来说,人工智能(AI)系统是一种工程系统,可以为一组给定的人类定义的目标生成内容、预测、建议或决策等输出。AI涵盖了广泛的技术,这些技术反映了处理这些复杂问题的不同方法。ML是人工智能的一个分支,它利用计算技术使系统能够从数据或经验中学习。换句话说,机器学习系统是通过优化算法来开发的,以适应训练数据,或通过最大化奖励来提高性能。机器学习方法包括深度学习。知识、学习和决策等术语贯穿整个标准。
3、ISO/IEC TR 24368:2022 Information technology Artificial intelligence-Overview of ethical and societal concerns(信息技术 人工智能-道德及社会问题概览)
该标准提供了对人类伦理和社会问题的国际标准概述,以及
-提供有关这方面的原则、过程和方法的资料;
-面向技术人员、监管机构、利益团体和整个社会;
-不旨在倡导任何特定的价值观(价值体系)。
人工智能(AI)有可能彻底改变世界,并为社会、组织和个人带来大量好处。然而,人工智能会带来巨大的风险和不确定性。专业人员、研究人员、管理者和个人需要意识到与人工智能系统和应用相关的伦理和社会问题。人工智能潜在的伦理问题是广泛的。人工智能的伦理和社会问题包括隐私和安全违规,歧视性结果和对人类自主权的影响。伦理和社会问题的来源包括但不限于:
-以未经授权的方式或措施收集、处理或披露个人资料;
-采购和使用有偏见的、不准确的或不具有代表性的训练数据;
-不透明的机器学习(ML)决策或不充分的文档,通常称为缺乏可解释性;
一缺乏可追溯性;
-对技术部署后的社会影响认识不足。
人工智能可能会不公平地运行,特别是当在有偏差或不适当的数据上进行训练时,或者模型或算法不适合目的时。算法中嵌入的价值观,以及人工系统和应用程序用于解决问题的选择,可以由开发人员和利益相关者自己的世界观和认知偏见有意或无意地塑造。未来人工智能的发展可以扩展现有的系统和应用,使其发展到新的领域,并提高这些系统的自动化水平。因此,人工智能的设计者、开发人员、部署人员和用户可以从关于伦理框架、人工智能原则、风险缓解工具和方法、评估伦理因素、测试的最佳做法、影响评估和伦理审查的灵活输入中受益。这可以通过包容性、跨学科、多样化和跨部门的方法来解决,包括所有的AI利益相关者,并借助解决AI伦理和社会问题的国际标准,包括ISO/IEC JTC 1, SC42的工作。