설명가능한 인공지능(explainable AI, XAI)의 필요성과 연구동향
2019-09-20
org.kosen.entty.User@7378ebb3
고병철(niceko)
인공지능분야에서 딥 러닝 기술의 발전은 기존에 60여년간 이루어져왔던 인공지능의 업적을 단숨에 뛰어 넘을 만큼 놀라운 성공을 거두었다. 하지만 딥 러닝 기술의 한계점은 놀라운 인식 성능에 의해 간과되고 있다. 최근에는 딥 러닝의 여러 문제점 중에서 가장 화두가 되고 있는 학습과정의 블랙박스 모델 한계점을 개선하기 위해 설명가능한 인공지능 (eXplainable AI, XAI)에 대한 연구가 활발히 이루어지고 있다. 설명 가능한 AI는 같이 사용자가 인공지능 시스템의 동작과 최종결과를 이해하고 올바르게 해석하여 결과물이 생성되는 과정을 설명가능 하도록 해주는 기술로써, 사용자는 최종 결정을 내리기 전에 AI시스템이 내린 결정이 최선의 결정이었는지를 확인할 수 있다. 본 보고서에서는 기존 딥 러닝 모델의 한계점을 개선하기 위해 새롭게 태동하고 있는 설명가능한 인공지능의 필요성과 연구동향, 응용 분야에 대해 알아본다.