AI驱动的设计应用
“It’s not a human move. I’ve never seen a human play this move(这不是人类的下棋策略。我从来没见过任何人这样下棋。)”
2016年,谷歌AlphaGo挑战世界上最伟大的围棋选手之一,李世石,当AlphaGo最终击败世石,取得决定性胜利时,另一位围棋专家樊麾如此评论道。
樊麾的这句经典点评,恰恰反映了我们正在使用超精确的机器学习(ML)模型时所面临的问题。尽管这些模型展示了超越人类的能力,但我们尚不确定输入的数据中的哪些具体信息,使它们做出决定。深度学习模型通常包含深度嵌套的非线性结构,使其变得不那么透明。缺乏透明度, 对AlphaGo本身来说不是问题。然而,在可解释性(explainability)、可诠释性(interpretability)和透明度至关重要的领域(如医疗诊断、军事和战斗行动)中,模型的不透明性则大大阻碍了AI/ML的扩展。
在人工智能和机器学习中,可解释性(explainability)和可诠释性(interpretability)经常互换使用。然而,这两者之间有一个细微的区别。可解释性是关于理解为什么某些事情发生的机制,而可诠释性是关于如何用人类的术语很好地来说明白这些机制。可诠释性的研究目前发展迅速;但有很多还需要做。
ML模型中精确度和可解释性之间的权衡,神经网络是最缺乏解释性的。
上图所示,经典的机器学习算法(如线性算法或基于树的算法)的可诠释性很好。而现有的模型不可知方法可分为5大类:
然而,不是每一个上述方法都能对深度神经网络管用。
在今后, 我会讨论其他方法来提高卷积神经网络(CNN)和 循环神经网络(RNN)的诠释性。