好的,各位听众,晚上好!我是今天的演讲者,一个在代码堆里摸爬滚打多年的老码农。今天咱们聊点儿高大上的,但保证接地气儿,那就是机器学习模型的可解释性分析,以及微软爸爸贡献的开源神器:InterpretML。 开场白:AI黑盒子的困境 话说现在人工智能火得一塌糊涂,各种模型层出不穷,效果也是杠杠的。但是,问题来了,这些模型就像一个神秘的黑盒子,你给它输入数据,它吐给你一个结果,至于它是怎么得出这个结果的,天知道! 这可就让人头疼了。比如,银行用一个模型来决定是否给你贷款,模型说不给你,你问它为什么?它说:“我也不知道,反正就是不给你。” 这你受得了? 再比如,医生用一个模型来诊断你的病情,模型说你得了某种病,你问它依据是什么?它说:“我就是感觉你得了,别问那么多。” 这你敢信? 所以,我们需要一种方法,能够打开这个黑盒子,看看里面到底发生了什么,也就是要让我们的模型变得可解释。 为什么要关心可解释性? 可解释性不仅仅是为了满足我们的好奇心,它还有很多实实在在的好处: 信任问题:如果你了解模型是如何做出决策的,你才能信任它。 调试问题:如果模型出了问题,你可以通过分析它的决策过程来找到问题所 …