出版日期:
2021-12-01Online:
2021-12-01摘要/Abstract
摘要: 以深度学习为代表的人工智能取得突破性进展,然而海量的参数与复杂的处理机制,使得人类很难追溯与理解推理过程,导致这类端到端的黑箱学习方法不可解释,造成“知其然,不知其所以然” .由此引发人们对算法可信性、公平性产生质疑,甚至造成伦理、法律等问题,影响了黑箱人工智能方法在无人驾驶、精准医疗、智能交通等高风险决策工程中的大规模应用.可解释性问题是打开黑箱人工智能方法、构建新一代人工智能理论的关键问题之一.可解释智能学习方法既要给出结果,同时也能提供计算推理过程所形成的证据链.
参考文献
相关文章 0
No related articles found! |
PDF全文下载地址:
https://crad.ict.ac.cn/CN/article/downloadArticleFile.do?attachType=PDF&id=4536