为了以道德和值得信赖的方式使用人工智能,研究人员必须继续创建平衡模型复杂性和易于解释的方法。
机器学习模型在各个领域的使用都取得了重大进展,包括自然语言处理、生成式人工智能和自主系统等。另一方面,随着模型复杂性和规模的增加,它们内部工作方式的可见性降低,从而导致缺乏透明度和问责制。模型的可解释能力的想法最近成为解决这一问题的重要研究领域的前沿。本文探讨了机器学习模型可解释性的重要性,以及与之相关的困难以及为提高可解释性而设计的解决方案。可解释性,使模型具有开放性和人类可以理解的见解。
由于人工智能 (AI)和机器学习(ML)模型在各个领域的集成度不断提高,人们开始担心这些模型的决策过程缺乏可解释性。人工智能系统提供人类可以理解的预测或分类见解的能力被称为模型可解释性。本文探讨了模型中可解释性的意义、其在各个领域的适用性以及可解释性对人工智能可靠性的影响。
为什么要建立模型的可解释性
- 道德意义:模型必须能够被解释,以保证道德人工智能的部署。它有助于识别数据中的偏见和偏见趋势,这两者都可能对决策过程产生负面影响。
- 问责制和增加信任: 人工智能系统做出的决策可以对各个领域产生深远的影响,包括医疗保健、金融和自动驾驶。用户和其他利益相关者更有可能相信可解释的模型,因为这些模型使决策过程更加可见和易于理解。这最终导致人工智能系统做出的决策的责任增加。
模型可解释性挑战
- 性能和可解释性权衡:模型的性能和解释结果的能力之间通常存在不平衡。高水平的可解释性可能会以牺牲准确预测为代价,而高水平的准确性可能会使理解模型变得困难。
- 模型复杂性: 具有数百万个参数的复杂模型设计是现代人工智能模型(尤其是深度神经网络)的标志。试图弄清楚这些模型如何做出决策是一个巨大的挑战。
模型可解释性技术
可解释的友好模型:有些模型自然适合解释,例如决策树 和线性回归。当涉及透明度至关重要的应用时,这些模型通常是首选。
基于规则的可解释性:系统通常采用 if-then 规则作为为模型决策提供解释的手段。这些原则用人们可以理解的语言解释了模型如何得出结论和预测。
可视化辅助可解释性: 通过应用激活图和显着图等可视化技术,帮助用户理解输入的各个方面如何影响模型的输出。涉及图像识别的任务从这些技术的应用中受益匪浅。例如,在阿尔茨海默病中使用 深度学习进行大脑 MRI 分类在网络中,人们的目标是预测受试者是否患有AD,因此拥有一张显着性图来加强模型的性能主张是很有帮助的。如图 1 所示,我们有一个由 4 个脑部 MRI 扫描组成的显着性图,其中 AD 被正确预测,我们可以看到某个特定区域更加突出,从而证明了模型能够正确检测受影响区域的信心通过 AD 并预测它们。
特征重要性:通过特征重要性方法(例如LIME(局部可解释模型不可知解释)和SHAP(SHapley 加法解释))为每个单独的输入特征分配相关性分数。使用这些方法,人们可以了解哪些特征对某种预测贡献最大。
让我们看一下 SHAP 如何帮助我们解释一个简单的线性回归模型。在这个实验中,我使用了一个营销数据集,在其中构建了一个线性回归模型,以根据其他自变量预测购物花费的总额。然后,我在训练后的模型和数据上使用 SHAP 库来识别对模型影响最大的特征或变量。
# calculate SHAP values
import shap
explainer = shap.Explainer(model, X_train) ## model is the fit linear regression model, X_train is the training data
shap_values = explainer(X_test) ## X_test is the testing data
# plot
plt.title('SHAP summary for Total amount spent', size=16)
shap.plots.beeswarm(shap_values, max_display=5)
从图 2 所示的输出中,我们可以看到有助于确定线性回归模型中支出总额的前五个特征。我们可以看到,消费金额最大的是酒,其次是肉和鱼。
模型可解释性影响
- 在金融行业中,透明模型为监管机构、客户和金融机构提供了了解批准或拒绝某些信用卡或抵押贷款申请背后的原因的机会。这有助于确保公平性和问责制。
- 如果想要建立医疗保健专业人员的信心,模型的可解释性在医学诊断领域至关重要。可解释的模型可以为它们所产生的诊断提供明确的原因,从而可以做出更有把握的决策。例如,在使用神经影像数据进行早期疾病分类领域正在进行大量研究。可解释的模型将极大地提高人们对此类预测的信心,并帮助医疗专业人员进行疾病的早期诊断。
- 目前,人们正在开展大量研究和工作,致力于实现完全自动驾驶汽车,不仅适用于企业解决方案,也适用于个人使用。此类机器学习模型的可解释性对于自动驾驶汽车的推出至关重要,因为它可以向驾驶员、乘客和行人保证人工智能系统正在做出安全可靠的决策。
结论
随着人工智能系统的使用越来越广泛,对机器学习模型的可解释性的需求正变得越来越重要。透明且可解释的模型可以促进问责制、增加信任以及道德意义。为了在各种现实世界应用中以合乎道德且值得信赖的方式使用人工智能,研究人员和从业者都需要不断开发方法,在模型复杂性水平和解释容易程度之间找到理想的平衡。由于持续的合作努力,机器学习模型可解释性领域将继续发展,这将有助于人工智能技术以可持续的方式进一步发展。