科技部 11 日举办记者会,邀请台湾大学 AI 中心分享「可解释性人工智慧」,除了具备高辨识率的人脸辨识能力,还可以有条理的解释 AI 产出结果的原因,有效提升人类使用 AI 的信任度。
近年来 AI 脸部辨识已进步到深度学习等类神经网路,由电脑自己订规则,凭着数以千计的条件,产出高精準度的答案,不但可辨认出真假金正恩,还可以在低解析度或刻意乔装的情况下辨识,甚至超越人类辨识能力。
台大资工系教授徐宏民指出,过去人们不了解 AI 做决策的过程及原因,让人驻足不前,因此,台大人工智慧技术暨全幅健康照护联合研究中心(台大 AI 中心)在科技部支持下,打造出「可解释性人工智慧」(Explainable AI,XAI),犹如打开「AI 黑盒子」,确认 AI 决策的合理性。「我们能解释过去跟现在小猪哪边不一样,像是髮型不太一样,下巴变得比较尖,能解释这里不太一样,但鼻子、眼睛周遭还是非常像,所以专注这里,最后判断这是小猪。」
科技部长陈良基也指出,科技部去年 9 月公布人工智慧科研发展指引,强调 AI 的「透明性与可追溯性」及「可解释性」,期盼让普世大众对 AI 感到信赖与安心。「这非常重要,AI 不应该是黑盒子,必须告诉我,现在帮我决定能不能进门、能不能得到补助,不能算完却不能解释,必须解释清楚。」
徐宏民也提到,为加速技术扩散与落地应用,此 AI 模组 xCos 可与其他脸部辨识系统相互搭配,并将这项技术开源供国内外产学研单位使用,希望将相关理念拓展至其他深度学习相关应用。
(