25

唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者转发点赞

 4 years ago
source link: https://www.qbitai.com/2020/05/14176.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

晓查 整理

量子位 报道 | 公众号 QbitAI

新冠疫情的出现,让许多AI医疗技术浮出水面。

但是AI一直黑箱问题存在,如果AI对过程都不能做到可解释,又怎么能放心让它来诊断病患呢。而关于机器学习可解释问题的书籍少之又少。

最近,一位来自复旦大学的研究生朱明超,将一本少有的书《Interpretable Machine Learning》(可解释机器学习)翻译成了中文。

这本书最初是由德国慕尼黑大学博士Christoph Molnar耗时两年完成的,长达250页,是仅有的一本系统介绍可解释性机器学习的书籍。

FFjYjan.jpg!web

朱明超近期完成了这本书的翻译和校对工作,目前已经开源放到GitHub网页上。朱同学在翻译过程中还和原作者进行了多次讨论,中文版还得到了Christoph Molnar本人在Twiter上的推荐。

nAFBni3.jpg!web

“可解释”是这本书的核心论题。作者认为,可解释性在机器学习甚至日常生活中都是相当重要的一个问题。建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读本书。

《可解释的机器学习》该书总共包含 7 章内容:

第一章:前言第二章:可解释性第三章:数据集第四章:可解释的模型第五章:模型无关方法第六章:基于样本的解释第七章:水晶球

Molnar表示,虽然数据集与黑盒机器学习解决了很多问题,但这不是最好的使用姿势,现在模型本身代替了数据成为了信息的来源,但可解释性可以提取模型捕捉到的额外信息。

当我们的日常生活中全都是机器和算法时,也需要可解释性来增加社会的接受度。毕竟要是连科学家都研究不透“黑盒”,怎样让普通人完全信任模型做出的决策呢?

这本书的重点是机器学习的可解释性。你可以从这本书中学习简单的、可解释的模型,如线性回归、决策树和决策规则等。

后面几章重点介绍了解释黑盒模型的模型无关的一般方法,如特征重要性和累积局部效应,以及用 Shapley 值和 LIME 解释单个实例预测。

对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释它们的输出?本书使你能够选择并正确应用最适合你的机器学习项目的解释方法。

这本书结合了各类现实生活中的例子来介绍相关的概念,同时搭配参考链接帮助读者进一步学习了解。

另外朱同学的GitHub上还一直在坚持翻译Goodfellow的《机器学习》,还在翻译中配上了自己编写的Python代码供参考。有兴趣的同学也可以顺带去参考学习。

最后附上《可解释机器学习》一书的项目地址:https://github.com/MingchaoZhu/InterpretableMLBook

版权所有,未经授权不得以任何形式转载及使用,违者必究。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK