24

微软开源可解释机器学习工具包lnterpretML

 4 years ago
source link: https://www.leiphone.com/news/201905/TKLwdSXka6QjZfOo.html?amp%3Butm_medium=referral
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

rY3i2ev.png!web

【 图片来源: Microsoft Research Blog 所有者:Microsoft Research Blog 】

雷锋网 (公众号:雷锋网) 按:人类创造出人工智能,并且被人工智能影响着自己的生活。如果人工智能的行为具有可理解性,那么人类可以更进一步地利用人工智能。近期,微软研究院就机器学习的可理解性发表了相关文章,雷锋网全文编译如下。

当人工智能系统能够影响人类生活时,人们对它的行为理解是非常重要的。通过理解人工智能系统的行为,数据科学家能够适当地调试它们的模型。如果能够解释模型的行为原理,设计师们就能够向最终用户传递这些信息。如果医生、法官或者其它决策制定者相信这个强化智能系统的模型,那他们就可以作出更好的决策。更广泛的讲,随着模型的理解更加全面,最终用户可能会更快接受由人工智能驱动的产品和解决方案,同时,也可能更容易满足监管机构日益增长的需求。

事实上,要实现可理解性是复杂的,它高度依赖许多变量和人为因素,排除了任何“一刀切”的方法。可理解性是一个前沿的、跨学科的研究领域,它建立在机器学习、心理、人机交互以及设计的思想上。

微软研究院这些年一直致力于研究如何创造出具有可理解性的人工智能,如今,如今微软在MIT开源协议下开源了lnterpretML软件工具包,开源地址是 https://github.com/Microsoft/interpret,它将使开发人员能够尝试各种方法去解释模型和系统。InterpretML能够执行许多可理解的模型,包括可解释的Boosting Machine(相对于一般的加性模型做了改进),以及为黑箱模型的行为或者它们的个别预测生成解释的几种方法。

通过一些简单的方式去评估可理解性方法,开发人员就能够比较不同方法产生的解释,从而去选择那些最符合他们需求的方法。例如,通过检查方法之间的一致性,这样一来,比较法就能够帮助数据科学家去了解在多大程度上相信那些解释。

微软正期待与开源社区合作,继续开发InterpretML,开源地址是https://github.com/Microsoft/interpret

雷锋网注:本文编译自Microsoft Research Blog

雷锋网版权文章,未经授权禁止转载。详情见 转载须知


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK