5

AI 落地场景不断增多 聊聊AI 产品的可解释性

 2 years ago
source link: http://www.chanpin100.com/article/118582
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

AI 落地场景不断增多 聊聊AI 产品的可解释性

近几年AI场景越来越多的落地,但受限于AI技术发展程度和社会伦理问题,AI并没有干掉所有场景的工作岗位,而是进入一种人机协同的状态。在人机协同的大时代背景下,AI的可解释性问题变得越来越尖锐。本篇聊聊关于AI产品可解释性的问题。

近几年AI场景越来越多的落地,但受限于AI技术发展程度和社会伦理问题,AI并没有干掉所有场景的工作岗位,而是进入一种人机协同的状态。在人机协同的大时代背景下,AI的可解释性问题变得越来越尖锐。本篇聊聊关于AI产品可解释性的问题。

可解释需求

虽然AI行业烧钱的问题被诟病很多,但相比5年前,如今AI确实越来越多的在社会各个层面落地。

之前文章《人工智能大会后,谈谈对智能汽车的认知》谈到过未来会进入自动驾驶时代,无论是L4以下还是L4以上的自动驾驶,都需要自动驾驶系统替代人类做部分或全部的驾驶决策。而自动驾驶能够被大众和社会接受,前提需要在出现问题或人类想了解决策逻辑时,自动驾驶系统能给出合理解释,而非完全把命运交给不可解释的黑盒算法。

其他场景也存在类似问题。例如前几年做智能推荐产品,主要聚焦给B端客户提供推荐系统服务,交付以CTR或CVR指标提升为准。而在实际交付中,指标虽然提升了,但客户侧会反馈到单个客户上推荐结果不合理。

在当时的话语体系下,更多是给客户讲看总指标,追求全局最优解,而非每个客户最优解。显然站在C端用户的视角,这种解释是不够的。而且在推荐系统实现过程中,确实会存在一些策略不那么个性化,或者存在少数服从多数的建模逻辑,行为少的用户推荐结果会被行为多的用户影响。

客户或用户需要知道算法到底如何做出决策,无论是向上汇报还是对终端用户解释,都不算过分的要求。并且随着AI落地场景越来越多,可解释性问题会越来越尖锐。

可解释性难点

AI可解释性需求现实存在,在解决AI可解释性的方案里却存在一定的难点。

近年来深度学习被广泛应用,算法工程师可以无脑使用深度学习追求一个好的指标,但却使结果变得不可解释。为什么效果好,没有人知道。

另外的是有些可解释的模型,即便将决策原因暴露给客户或用户,用户也不一定买帐,因为现在AI终究还是逃不过统计学逻辑,即按照过去数据对未来做预测,预测的准确性是有概率的,并非能百分百准确。这种情况下,可解释性只是直接的目标,准才是根本的目标。

解决方案

解决可解释性问题,可能有三个解决问题的方向。

方向之一是,回到最初的问题,场景是否真的适合采用AI,是否可以直接上规则。在之前工作中,遇到一些银行和券商客户,数据量有限,同时关注可解释性,也想做推荐,但不适合传统的AI推荐。于是构建了一款规则引擎产品,可手动给不同人群配置不同推荐规则,于是两全其美优雅的解决了问题。

方向之二是,将需要解释的内容,适当做产品化。例如之前做新闻客户端时,将召回策略中基于内容标签、作者等召回源,作为推荐缘由直接展示在用户端,用户可以选择对某标签的不感兴趣。同时解决推荐原因和提升推荐效果的问题。

方向之三是,对于那些不可解释的模型,需要推进技术上寻求挖掘可解释性的方案,黑盒模型可解释性目前也是业界比较前沿的领域,如果能有一些突破,再去做产品化便能将AI落地速度推进一大步。

以上就是“AI 落地场景不断增多 聊聊AI 产品的可解释性”的内容了,如果你还想了解其他相关内容,可以来产品壹佰官方网站获取更多内容。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK