首页>>技术前沿>>网站/软件行业动态
人工智能算法可解释AI
作者:西安软件开发公司 | 转载 来源:西安软件开发公司 | 时间:2018年6月15日| 点击:0次 | 【评论】

         人工智能算法可解释的AI:数据科学家的新挑战。数据科学的改进始终是通过寻找具有最佳性能的模型来解决任何问题。从数学的角度来看,模型的搜索集中于成本函数的最小化或似然函数的最大化。因此,模型的性能几乎完全取决于我们根据一些正确选择的指标得出的结果。这种趋势导致越来越复杂的算法花费可解释性。事实上,一些数据科学家甚至可能会断言:“机器学习算法难以理解的原因也是使它们成为出色预测器的原因。” 他们很复杂,这使得他们看起来像大多数田野从业者的“ 黑匣子”。


 

高度的可解释性:该级别包括传统的回归算法,决策树和分类规则。基本上他们近似单调线性函数。

中等解释性:该级别包括更高级的算法,如图形模型。它们受限于单调非线性函数的逼近。

低解释性:该级别包括先进的机器学习技术。充其量,他们提供特征重要性见解作为解释性的标准度量。

         可解释性是衡量人类观察者可以理解模型预测背后原因的程度,因此越来越有必要在准确性方面找到合适的平衡点。对于日常用户来说,这可能是使算法尽可能透明的关键。这种将注意力转向“以用户为中心”的做法可能会使这种技术在各个领域的使用和接受产生差异,给予他们一个更加舒适的适应,以更现实的方式执行任务。

         虽然应用机器学习的许多核心方面在不同领域都是相同的,但它们不能应用于所有行业。机器学习方法尤其在银行,保险公司,医疗保健提供商和其他受监管行业中非常不同。原因主要在于它们容易受到法律或道德要求的限制,这往往会限制越来越多的黑匣子模型的使用。

         最重要的是,这显然意味着应该提供关于如何获得模型的响应的见解。直接的后果是,由于易于解释,将可能方法的范围缩小到最简单的方法,除非我们找到方法将上下文添加到最先进算法的预测中。更何况,这种趋势更多是因为监管约束的强化而不是缓慢的。所有这些因素导致业界普遍不情愿采用和部署由机器学习系统支持的先进数据产品。在这种限制之前,研究越来越侧重于确定处理模型可解释性的方法。据我所知,实现模型可解释性主要有两种方法:全局可解释性 和 局部可解释性。前者旨在使整个决策过程完全透明和全面,而后者侧重于为每个决策提供解释。“当我们开始数据科学项目时,现在可能首先确定我们想要达到的解释程度。“

事实上,首先决定解释程度将指导我们可能实施的算法和技术的选择。具体来说,它意味着是去寻找一个简单的模型并使其更强大(以实现全局可解释性),或者使用一个我们可以做出更多解释的复杂模型。下表列出了一个非- 详尽清单的技术来处理模型的可解释性。

         人工智能算法可解释的AI:数据科学家的新挑战。也许你已经注意到,关于本地可解释性的详细信息比全局可解释性更多。这主要是由于解释复杂模型所做出的巨大努力,但采用了局部边界方法。最后,当我们用正确的方法实现我们的算法时,最后的询问就在于如何评估模型的可解释性。有两种方法可以更好地表达最终模型给予的理解程度:模拟具有已知特征和内在含义的数据,以便将模型的解释与我们在此背景下的先验知识进行对比。

此内容DOC下载 此内容PDF下载

【全文完】
关键词标签: AI 
0 ([$-顶稿人数-$])
0 ([$-踩稿人数-$])

版权声明:

1、西安弈聪网站内容中凡注明“来源:XXX(非西安弈聪网站)”的作品,转载自其它媒体,转载目的在于传递更多信息,其中涉及的网站建设,网站优化,百度关键词优化,西安软件开发等技术细节并不代表本站赞同支持其观点,并不对其真实性负责。对于署名“西安弈聪”的作品系本站版权所有,任何人转载请署名来源,否则西安弈聪将追究其相关法律责任。

2、本站内容中未声明为“原创”的内容可能源自其它网站,但并不代表本站支持其观点,对此带来的法律纠纷及其它责任与我方无关。如果此内容侵犯了您的权益,请联系我方进行删除。