您的位置:首页 >科技 >

IBM提供可解释的AI工具包

2019-08-11 09:58:16来源:

IBM最近致力于让AI更适合全世界,它是一种算法工具包,可用于解释机器学习计划的决策。它提出了一个深刻的问题:什么是解释,我们如何才能找到我们会接受的解释?在今天的深度学习神经网络数十年之前,在工作机器中汇集了无数的统计数据,研究人员试图弄清楚如何向人类解释统计结果。IBM本周提供了最新的努力来解释,解释和证明机器学习,这是一组开放源代码编程资源,称之为“AI 360可解释性”。

当人工智能基于数据进行预测时,还有另一种工具能否解决人们如何理解正在发生的事情的难题还有待观察。

该工具包由2018年发布的八种不同算法组成.IBM工具作为Python库发布在Github上。该项目由IBM院士Aleksandra Mojsilovic 在博客文章中列出。

周四宣布了IBM在过去一年中的类似努力,例如9月份的开源交付机器学习工作的“偏差检测”工具。

任何人都明白动机。机器学习正在越来越多地进入生活领域,社会希望知道这些程序如何达到可以影响政策和医疗诊断及其他方面的预测。

此外:IBM推出了一些工具来检测AI公平性,偏见和开放源代码

现在臭名昭着的误导性AI的负面情况值得重复。微软2015年的一项研究描述了一种机器学习模型,该模型暗示医院的肺炎患者如果患有哮喘也会有更好的预后。然而,高于平均水平的预后实际上是哮喘患者在ICU接受积极治疗这一事实的结果,因为他们的风险更高,而不是更低。关于机器学习如何进行预测但出于错误的原因,这是一个警示故事。

IBM-自我解释,神经网络2019.png

IBM工具箱中“自解释神经网络”的一种方法示例,来自David Alvarez-Melis和Tommi S. Jaakkola撰写的文章“迈向自我解释神经网络的强大可解释性”。

David Alvarez-Melis和Tommi S. Jaakkola

那么动机很清楚,但解释的道路并不明确。所谓的可解释人工智能的核心挑战,即近年来不断扩大的领域,正在决定解释的概念甚至意味着什么。如果一个人解释过于简单,比如非技术用户,解释可能会模糊有关机器学习计划的重要细节。但是,对神经网络中正在发生的事情进行复杂而复杂的讨论可能会让那些非技术人员感到困惑。

另一个问题是如何平衡可解释性的需要与准确性的需要,因为深度学习的最强大的神经网络经常因检查时变得不那么敏锐而获得准确性。

IBM自己的研究人员已经解释了任何解释或证明或解释机器学习系统的巨大挑战,特别是当所述表达式的接收者是系统的非技术客户时。

正如IBM的杰出研究人员Michael Hind 今年在计算机协会的期刊XRDS上写道的那样,即使在人类之间,也不完全清楚解释是什么。他问道,如果准确性最重要,那么就机器学习模型而言,“我们为什么对人工智能系统有更高的要求”,而不是人类的决策。

IBM-可解释-AI-演示2019.png

从IBM的AI Explainability 360工具包中可以向消费者解释拒绝家庭资产信用额度的IBM演示。

IBM

正如研究科学家Or Biran在康涅狄格州的AI创业公司Elemental Cognition 所观察到的那样,解释或解释或证明机器学习的尝试已经存在了几十年,可以追溯到过去几年更为简单的“专家系统”。Biran写道,问题在于深度学习的复杂性无法轻易解释:“当前的努力面临着前所未有的困难:当代模式比以往任何时候都更复杂,解释也更少。”

另外:IBM向Watson OpenScale添加了推荐的偏置监视器

多年来的努力已经分为两种基本方法:要么在事后尝试和解释机器学习模型进行各种实验,要么从一开始就构建更透明的机器学习程序。过去一年在研究论文中引入的IBM工具包中的示例算法包括两种方法。(除了上面提到的Biran论文之外,Gregoire Montavona和柏林Technische Universitat的同事们在2017年的一篇论文中也可以找到关于解释和解释深度学习方法的优秀调查。)

例如, 由Karthik S. Gurumoorthy及其同事在IBM开发的算法“ProtoDash”是一种在现有机器学习程序中查找“原型”的新方法。原型可以被认为是对模型的预测能力具有更大影响的数据的子集。原型的要点是说,如果你删除了这些数据点,那么模型也不会起作用,这样人们就可以理解什么是推动预测。

Gurumoorthy及其同事通过近似完整神经网络正在做的事情,展示了一种新方法,该方法通过潜在的数百万个数据点来处理数据中的少数几个点。

在另一部作品中,David Alvarez-Melis和Tommi S. Jaakkola 从相反的方向来到它,建立一个“自我解释”的模型,首先是线性回归,保持网络的可解释性,因为网络是通过确保输入数据点在本地彼此非常接近而变得更加复杂。他们认为该方法使得得到的分类器可以解释但也很强大。

毋庸置疑,这些不同的算法都不是使机器学习满足解释正在发生的事情的固定解决方案。要做到这一点,公司必须首先弄清楚将要传达什么样的解释,以及用于什么目的,然后使用工具包来努力构建可满足这些要求的可行工作。

特色

人工智能与商业的未来

人工智能与商业的未来

机器学习,任务自动化和机器人技术已经广泛应用于商业领域。这些和其他人工智能技术即将繁衍,我们将研究组织如何最好地利用它们。

阅读更多

这些方法有重要的权衡取舍。例如,具有明确规则的机器学习模型对于非技术用户来说可能更容易理解,但是为了测试有效性,数据科学家可能更难以进行逆向工程,所谓的“分解”。

IBM提供了一些帮助该过程的教程。竞争API文档还包括度量标准,用于衡量如果从机器学习程序中删除应该对解释最重要的特征,会发生什么。

并且提供了一个演示来描述目标受众是谁的解释问题,从业务用户到消费者再到数据科学家。

即使确定了目标,数据科学家也必须将可解释性目标与机器学习的其他技术方面相协调,因为可能存在严重的冲突。例如,在上面引用的两项研究中提出的原型或局部线性计算等方法可能与深度神经网络的方面发生冲突,例如“规范化”,其中网络被设计为避免诸如“协变量移位”之类的问题,例如。

最重要的是可解释和可解释的透明AI,作为机器学习中不断扩展的领域,不是简单地通过翻转开关来打开的。它是自己的基础研究领域,需要继续探索。从IBM获取工具包只是努力工作的开始。