kaiyun官网
News Center
新闻中心
新闻中心 您的位置: 首页 > 新闻中心
人工智能的圣杯:关于可解释AI(XAI)的一切
2024-02-15 09:24:41 作者: 新闻中心

  这期间,在企业客户却也始终存在一种怀疑态度:AI系统做出的产品部署是不是真的值得被信赖呢?

  错误的客户流失预测会使企业失去一个重要的客户,而错误的金融交易分类会使企业蒙受资金损失。实际上,客户对AI模型的精确度不是特别在意,他们更担心的是数据科学家们无法解释的一个问题:“我如何相信它做出的决策?”

  在大多数支持AI的数字化转型中,客户喜欢让他们的系统拥有AI的能力以实现某些商业经济价值主张。另一方面,大多数数据科学家则追求使用最流行的算法(如DNN/GAINS/DRN等)。遗憾的是,他们都忘记了在决策制定过程中的问责机制和信任机制中存在着一个关键因素。

  在现实生活中,每一个决策,无论是由机器还是低级员工又或是首席执行官做出的,为了达到提升整体的业务水平的目的,都要通过定期的审查,来解释他们的决定。这就产生了人工智能的新兴分支,称为“可解释的人工智能”(XAI)。

  XAI是人工智能的一个新兴分支,用于解释人工智能所做出的每一个决策背后的逻辑。下图是对一个完整AI决策流程的简单描述。

  改善AI模型的性能。因为XAI的解释有助于找到数据和特征行为中的问题。

  更好的决策部署。因为XAI的解释为中间人提供了额外的信息和信心,使其可以可以明智而果断地行动。

  提供一种控制感。因为AI系统的所有者清楚地知道其AI系统行为和边界的杠杆。

  提供一种安全感。因为每一个决定都一定要通过安全指南,且对违反相关规定的行为还会发出警告。

  更好地遵守监督管理要求(比如《通用数据保护条例》GDPR),其中要求一个系统一定要有“解释权”。

  要实现可解释AI,我认为关键不在于工具和技术,而在于人类在这些AI系统中所扮演的角色。从广义上讲,我们大家可以用三个方面定义他们:

  *学会员工行为,例如,一个AI系统能从会计行为中学习怎么样自动匹配支出款项和发票。

  使AI系统拥有全球化的观点。当做决定时不同文化的观点都要被考虑,比如判断一个算法是否“公平”

  根据业务背景,正在处理的任务,或个人或专业或文化等因素的不同设计更好的决策。

  对使用不一样的AI算法的不透明度(以及对业务的相应影响)进行分类,并对该信息库存进行维护

  推广在业务中表现良好的算法,并“降级”性能较差的算法

  对于训练者和维护者的角色来说,他们有大量的工具能够正常的使用。但对解释者来说,情况就不那么乐观了。人工智能/机器学习算法在本质上是著名的黑箱理论的一种,因为它的基于训练数据的大量非线性性质的权重和偏差的学习机制。因此,解释者的任务变得异常艰难。

  已知模型技巧:在这里有两类技巧。第一类技巧旨在解释现有的ML算法,第二类技巧则旨在研究新的白盒模型,以获得完全解释的能力。

  未知模型技巧:通过入侵操作模型而在操作模型之外工作。一种称为LIME的技术大多数都用在估计决策的局部边界。

  我在过去的经历中普遍的使用了LIME库,加上自然语言生成技术,为维护者和操作的人进行了叙述。

  精确的模型:XAI可同时支持维护者和训练者改进他们的模型,并使其持续下去。

  值得信赖的模型:当XAI使得AI内部工作透明化时,XAI将有利于建立企业和其他监管行业的信心。

  自然语言解释:XAI将通过自然语言(语音或文本)来解释它的决定,而不是通过一系列分析表或复杂的仪表盘。这会要求自然语言解释与XAI的启发式探索结合起来使用。

  对抗性使用(滥用):XIA的LIME技术和深度学习的GAIN技术,能够适用于在外部破译给定的AI模型。这将导致组织需要用政策和法规以及多层安全措施来保护其AI模型。

  与机器协作:XAI将建立起信任的桥梁,使人类能够在方方面面中适应并习惯与机器智能一起工作。