天天动画片 > 八卦谈 > XAI: 可解释性人工智能(1)什么是XAI

XAI: 可解释性人工智能(1)什么是XAI

八卦谈 佚名 2022-11-16 18:22:34

人工智能这几年已经几乎是每一个人都听过的词了,每一个高三的学生也都应该想去学习人工智能有关的专业。我记得我问过我高中的一些刚刚高考结束的学弟学妹,他们的想要去的专业是什么,几乎每一个人都回答计算机或者金融。而我学的专业也是和计算机相关,大学这几年接触到人工智能有关的东西,自己也研究出了一些成果,因此就将其讲述出来。

人工智能很火,无论是学术上还是行业上,但是人工智能在应用上却进展没有我们想象中的快。一个很简单的例子就是医疗,这次新冠疫情可以说在一定程度上推动了智慧医疗的发展,这是因为诊断大量的病例需要耗费医生很大的精力,而辅助以人工智能,医生可以比较轻松地进行诊断。然后,在这之前,尽管在计算机视觉(Computer Vision,CV)领域已经涌现了一大批高精确度高性能的人工智能模型可以用来完成一些医疗上的任务,但是还是很少见到一些大规模地应用。那,到底是什么在阻拦现在人工智能的进一步发展和应用?

人工智能事实上需要面对的是人和计算机,仅仅让计算机的智能不断提升是不行的,还需要让人读懂计算机的智能。也就是说,对于人工智能,我们不仅仅要求人工智能告诉我们结果是什么,还需要人工智能告诉我们为什么这么做。例如,在医疗领域,当使用人工智能进行疾病的诊断时,仅仅输出一个是或者不是的结果是无法做到让医生和患者相信这个结果的,而如果人工智能能够告诉我们它是依据那些症状从而诊断的,这就能够使得它的结果具有信服力。又比如,在军事领域,人工智能帮助指挥官做出了某种决策,但是即使人工智能的准确度达到了99.999%,指挥官能赌上士兵的生命和国家的命运去相信这次不是其中的0.001%。因此,我们不仅仅需要一个具有强大能力的人工智能,还需要一个具有可解释性的人工智能( eXplainable Artificial  Intelligence , XAI )。

XAI面对的对象是人和计算机,其目的就是通过提供解释使得AI的行为更加易于理解。一个好的XAI方法应该要做到以下几点:

  1. 能够解释AI的功能和认知。

  2. 解释AI做了什么,现在正在做什么已经接下里会做什么。

  3. 解释AI其行为依据的关键信息。

通常而言,XAI系统的评价是依赖于用户的。对于领域专家而言,他们希望XAI能让他们更加信任AI,并从中获取到专业的科学知识。对于被AI的决策影响的用户而言,他们希望XAI能帮助他们理解他们的处境,或者AI的决策是否公平等。对于AI的开发者和数据科学家而言,他们希望XAI能够帮助他们进行研究,改进AI的性能。因此,我们可以从人的角度对XAI提出三个性质,simulatability(可模拟性),decomposability(可分解性),algorithmic transparency(算法透明性)。图 1 展示了这些性质的一些描述(这些只是一些形而上的描述,是XAI的一种理想状况,事实上XAI现在能够做到的仅仅是一些简单解释,ps: 看不懂没关系)。

图 1 (a)对应的是可模拟性,(b)对应的是可分解性,(c)对应的是算法透明性

但是,如何构建具有可解释性的人工智能,或者是使得原有的人工智能具有可解释性?要阐述清楚这个问题,就必须回到人工智能最基础的样子,也就是那些经典的机器学习方法。人工智能其实含义非常广泛,简单地来说就是拥有智能的人工产品。机器学习就是通过统计分析的方法赋予模型智能,因此,机器学习通常需要大量的数据来进行学习。这也就是人工智能经常和大数据联系在一起的原因。那现在的很多人工智能模型我们通常叫做深度学习,这是因为这些模型都用到一种方法叫做深度神经网络(Deep Neural Networks,DNN),而DNN就是一种机器学习方法。深度学习是伴随着高性能计算机的出现而繁荣的。因为深度学习模型异常复杂,因此需要大量的算力来支持模型的运算,这在以前的年代几乎是不可能实现的,但是随着高性能GPU和CPU的诞生,还有分布式系统等技术的发展,科研人员就有了足够的算力去运行和研究深度学习。总的来说,人工智能、机器学习和深度学习三者之间的关系如图 12所示。

图 2 人工智能、机器学习和深度学习的关系
那么

为了深入理解XAI,那么我将以三个经典的机器学习方法来描述机器学习的以及基本内涵。然后从机器学习出发,进入到深度学习,了解常见的卷积神经网络,然后围绕卷积神经网络,我将一一阐述一些目前主流的XAI技术。最后,我将介绍自己的关于XAI的一些研究成果。

本文标题:XAI: 可解释性人工智能(1)什么是XAI - 八卦谈
本文地址:www.ttdhp.com/article/7601.html

天天动画片声明:登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
扫码关注我们