可解释的人工智能指的是解释性ML解决方案的策略和程序
机器学习模型经常被视为无法破译的黑盒。因为学习者被训练来回答“是”和“否”类型的问题,而不解释答案是如何获得的。在许多应用中,解释答案是如何获得的对于确保信心和公开性是至关重要的。可解释的人工智能指使用人工智能技术(AI)的策略和程序,使得专家能理解解决方案的形成。
“可解释性”是一种需求和期望,它增加了内在人工智能模型“决策”的透明度。让我们仔细看看可解释的人工智能目标。
可解释的人工智能(XAI)的目标是什么?
XAI的主要目标是回答关于获得性反应的“wh”(为什么、何时、什么、如何等等)问题。XAI能够提供可靠性、透明度、信心、信息和公平。
通过提出一个外行人也能理解的基本原理,XAI可以提高透明度和公平性。对一个透明的人工智能模型的最低要求是,它要有足够的表现力,能够被人类理解。透明度对于评估XAI模式的绩效和基本原理至关重要。透明度可以确保任何错误的模型训练都会在预测中产生弱点,从而导致最终用户的巨大损失。虚假培训可能被用来改变任何人工智能/人工智能模型的泛化,导致任何一方不道德的收益,除非它是明确的。
导致人类依赖任何特定技术的最重要的方面之一是信任。每个预测或结论都有逻辑和科学的理由,这使得人们更喜欢人工智能/人工智能系统的预测或结论。
由于AI/ML模型中的偏差和方差权衡,XAI提出公平和协助在证明或解释期间减少预测的偏差(偏差-方差权衡)。
可解释的人工智能(XAI)技术分为透明和事后方法两大类。事后方法根据数据类型进一步划分。
当存在非线性连接或增加的数据复杂性时,事后方法对于解释模型复杂性是有效的。在这种情况下,当数据和要素没有明确的联系时,后处理技术是解释模型所学内容的便捷工具。
基于统计和可视化的特征概要显示是面向结果的可解释性技术的基础。统计呈现表示每个特征的统计,每个特征的相关性基于其在预测中的权重来测量。
事后XAI方法将经过训练和/或测试的人工智能模型作为输入,并以特征重要性分数、规则集、热图或简单语言的形式产生模型内部工作和决策逻辑的可理解表示。许多事后方法试图揭示特征值和预测模型输出之间的相关性,而不考虑模型的内部。这有助于用户识别ML工作中最相关的特征,量化特征的值,复制黑盒模型选择,以及识别模型或数据中的偏差。
本地可解释的与模型无关的解释例如,通过扰动真实样本,观察给定扰动实例的ML模型输出的变化,并构建在原始样本的邻域中近似原始模型行为的局部简单模型,来提取特征重要性分数。模型不可知和模型特定的后过程技术是后过程的两种类型。关于特定深度学习模型的学习方法和内部结构的可解释性限制由模型特定的策略支持。为了理解学习机制并给出解释,模型不可知方法使用模型输入和预测的成对分析。
人们注意到,全球技术可以解释所有数据集。另一方面,与模型无关的工具可以用于任何AI/ML模型。在这种情况下,输入和结果的配对检查对可解释性至关重要。特定于模型的策略,如特征相关性、基于条件的解释、基于规则的学习和显著图。
诸如逻辑回归、支持向量机、贝叶斯分类器和K最近邻之类的透明方法提供了具有用户本地特征权重的基本原理。这个类别包括满足三个属性的模型:算法透明性、可分解性和可模拟性。
透明模型是通过以下可解释的人工智能技术实现的。
OmniXAI是一个开源的可解释AI包,为广泛的机器学习模型提供全方位的可解释性。OmniXAI可以评估数据分析和探索中的特征相关性和数据不平衡问题,帮助开发人员快速删除重复特征并识别潜在的偏差问题。OmniXAI可以通过研究特征和目标之间的联系,协助用户理解数据方面,并进行特征预处理,从而找到特征工程中的本质特征。OmniXAI在模型训练和评估中提供了多种解释,如特征属性解释、反事实解释和基于梯度的解释,以完全检查为表格、视觉、NLP或时序任务创建的模型的行为。
想要代码实现过程可DM
可解释人工智能的基础是更透明的ML模型,它们本身只能部分解释,以及事后可解释的方法,这使得模型更具可解释性。
转载请联系