자연언어처리에서의 설명가능한 인공지능
2022-11-09
org.kosen.entty.User@54bed0a2
김미영(kim1)
+ 코센 브릿지 포럼은 다양한 분야에 계신 재외한인과학자들을 초청하여 공동연구, 국제협력을 이루어 내고자 2021년 12월 6일에서 14일까지 7일동안 진행
+ 날짜 : 2021년 12월 13일(월)
+ 연사소개 : 김미영 (University of Alberta)
캐나다 3대 AI연구센터인 Amii에서 오랜 기간 연구원으로 활동하며, 주요 연구분야인 자연언어처리와 기계학습 분야에서 약 70여편의 논문을 유명 저널 및 top 국제 학회 등에 발표하였다. 국제 유명 학회들의 Program CommiEee Member 로 활동하고 있으며, 국제 법정보 추출 및 함례 경진대
회 (Compe99on on Legal Informa9on Extrac9on and Entailment, COLIEE) 의 Co-Organizer로 7년 동안 활동하고 있다. 최근에는 법문서와 의료문서를 대상으로 자연언어처리를 통한 정보추출을 연구하고 있으며, 특히 언어처리분야에 적용될 수 있는 설명가능한 AI (Explainable AI) 시스템에 대한 연구를 계속해 오고 있다.
+ 발표 제목 : 자연언어처리에서의 설명가능한 인공지능(Explainable Artificial Intelligence Applications in Natural Language Processing)
+ 발표 내용 +
자연언어처리를 위한 기계학습 알고리즘으로 최근 딥러닝 알고리즘이 각광을 받기 시작하면서, 딥러닝 알고리즘의 큰 문제 중 하나인 불투명성이 큰 문제로 떠오르고 있다. 딥러닝 알고리즘은 블랙박스 알 고리즘으로, 왜 해당 결과가 도출되었는지에 대한 설명이 불가능하다. 이러한 불투명성으로 인해, 시스 템 개발자들은 해당 딥러닝 알고리즘을 디버깅하는 것이 쉽지 않게 되고, 딥러닝 시스템을 사용하고자 하는 사용자들은 해당 시스템에 대한 신뢰를 가질 수 없게 된다. 그리하여 최근 설명가능한 AI (Artificial Intelligence, 인공지능)에 대한 연구가 활발히 이루어지고 있는 가운데, 이 발표세션에서 언어처리분야에 최적화된 설명가능한 AI 시스템에 대한 연구를 발표하고자 한다. 해당 연구결과로, 성능에 대한 감소는 없이, 왜 해당 결과가 도출되었는지에 대해 인간이 이해할 수 있는 설명을 덧붙여주는 딥러닝 시스템을 제안한다. 이로 인해 사용자들은 AI시스템에 대한 신뢰를 쌓을
수 있고, 인간의 생명이나 자유와 직결된 의료와 법 분야에서 딥러닝 시스템에 대한 채택이 좀 더 활발해질 수 있다.
+ 날짜 : 2021년 12월 13일(월)
+ 연사소개 : 김미영 (University of Alberta)
캐나다 3대 AI연구센터인 Amii에서 오랜 기간 연구원으로 활동하며, 주요 연구분야인 자연언어처리와 기계학습 분야에서 약 70여편의 논문을 유명 저널 및 top 국제 학회 등에 발표하였다. 국제 유명 학회들의 Program CommiEee Member 로 활동하고 있으며, 국제 법정보 추출 및 함례 경진대
회 (Compe99on on Legal Informa9on Extrac9on and Entailment, COLIEE) 의 Co-Organizer로 7년 동안 활동하고 있다. 최근에는 법문서와 의료문서를 대상으로 자연언어처리를 통한 정보추출을 연구하고 있으며, 특히 언어처리분야에 적용될 수 있는 설명가능한 AI (Explainable AI) 시스템에 대한 연구를 계속해 오고 있다.
+ 발표 제목 : 자연언어처리에서의 설명가능한 인공지능(Explainable Artificial Intelligence Applications in Natural Language Processing)
+ 발표 내용 +
자연언어처리를 위한 기계학습 알고리즘으로 최근 딥러닝 알고리즘이 각광을 받기 시작하면서, 딥러닝 알고리즘의 큰 문제 중 하나인 불투명성이 큰 문제로 떠오르고 있다. 딥러닝 알고리즘은 블랙박스 알 고리즘으로, 왜 해당 결과가 도출되었는지에 대한 설명이 불가능하다. 이러한 불투명성으로 인해, 시스 템 개발자들은 해당 딥러닝 알고리즘을 디버깅하는 것이 쉽지 않게 되고, 딥러닝 시스템을 사용하고자 하는 사용자들은 해당 시스템에 대한 신뢰를 가질 수 없게 된다. 그리하여 최근 설명가능한 AI (Artificial Intelligence, 인공지능)에 대한 연구가 활발히 이루어지고 있는 가운데, 이 발표세션에서 언어처리분야에 최적화된 설명가능한 AI 시스템에 대한 연구를 발표하고자 한다. 해당 연구결과로, 성능에 대한 감소는 없이, 왜 해당 결과가 도출되었는지에 대해 인간이 이해할 수 있는 설명을 덧붙여주는 딥러닝 시스템을 제안한다. 이로 인해 사용자들은 AI시스템에 대한 신뢰를 쌓을
수 있고, 인간의 생명이나 자유와 직결된 의료와 법 분야에서 딥러닝 시스템에 대한 채택이 좀 더 활발해질 수 있다.