동향

유럽의 인공지능 윤리정책 현황과 시사점

분야

과학기술과 인문사회

발행기관

소프트웨어정책연구소

발행일

2021.03.25

URL


유럽(EU)은 2018년 4월 유럽AI전략을 수립한 이후 이의 실현을 위한 일련의 정책을 추진 중이다.
2019년 4월 발간한 『신뢰할 만한 AI윤리 가이드라인』과 2020년 7월 공개한 AI 윤리 『평가 목록(assessment list)』은 이러한 노력의 결과다.
이 작업은 52인으로 구성된 AI고위전문가 그룹(AI-HLEG)과 유럽AI연합회(European AI Alliance)를 통해 이루어졌다.
AI고위전문가 그룹이 작성한 보고서 초안은 4,000여명의 이해관계자가 참여하는 유럽AI연합회를 통해 검토되었고
다양한 제안들이 최종 보고서에 반영되었다.
이 과정은 AI 윤리의 중요성과 핵심 AI 윤리 원칙, 실무에 있어서 구체적 고려사항을
산업계와 시민사회와 공유함으로써 내용과 절차의 투명성을 확보했다는 의미를 갖는다.


EU의 AI 윤리 가이드라인은 인간의 기본권 존중을 AI 개발의 가장 기본적 원칙으로 삼고,
신뢰할 만한 AI의 속성으로 적법성(lawful), 윤리성(ethical), 견고성(robust)을 제안한다.
나아가 신뢰할 만한 AI의 7대 요구사항을 인간행위자와 감독, 기술적 견고성과 안전,
프라이버시와 데이터 거버넌스, 투명성, 다양성·차별금지·공정성, 사회·환경적 복지,
책임성 측면에서 정리했다.
이러한 요구 사항이 AI 개발 수명 주기에서 잘 충족이 되는지를 140여 가지 세부 평가 목록을 활용해
실무에서 점검할 수 있도록 하였다. 특히 실천적 AI 윤리를 위한 평가 목록은
기존의 원칙 선언 위주의 보고서와는 차별되는 EU AI고위전문가그룹의 기여라 평가된다.

 

우리나라는 2019년 12월 『인공지능 국가전략』을 발표하고, 일년 만인 2020년 12월
AI 윤리기준을 마련하였다. 지난 2021년 1월 발생한 AI챗봇 서비스 ‘이루다’ 사건은
AI 윤리 이슈의 중요성과 파급력을 부각시키는 계기가 되었다.
이제 AI 윤리는 원칙 선언에서 실천으로 옮기는 과정에 있다. 정부가 계획 중인 AI 윤리 체크리스트 마련이 대안이 될 수 있다.
다만 그 과정에서 다양한 이해관계자의 의견 수렴과 국제 사회와의 공조 및 관련 단체와
표준에 대한 지속적 동향 파악을 통해 윤리적인 AI 기술과 산업 혁신 촉진 사이의
균형 있는 정책적 접근이 요구된다.

 

■ Executive Summary

Since the European AI strategy was published in April 2018, Europe has been pursuing a series of policies to implement it. The 『Ethics Guidelines for Trustworthy AI』 released in April 2019 and the 『Assessment List』 for self-inspection released in July 2020 are the results of such efforts. EU’s Ethics Guidelines are proposed as the most fundamental principles of AI development, respecting human rights, and as attributes of trustworthy AI, lawfulness, ethicalness, and robustness. More specifically, the seven requirements of trustworthy AI are organized into human agency and oversight, technical robustness and safety, privacy and data governance, transparency, diversity, non-discrimination, fairness, social and environmental well-being, and accountability. The list of assessment consisted of 140 specific questions that can confirm whether or not the basic rights of humans are violated and whether the seven ethical requirements have been met.

Korea established a 『National strategy for Artificial Intelligence』 in December 2019 and announced AI ethics standards in December 2020, a year later. The AI chatbot service "Iruda" incident, which took place in January 2021, highlighted AI ethics issues. It is now necessary to come up with policies that can be implemented from the AI principle declaration. An alternative is to prepare an AI ethics checklist that the government is planning. However, in the process, a balanced policy approach between protecting personal information and promoting industrial innovation is required by collecting opinions from various stakeholders, cooperating with the international community, and grasping regional trends in related organizations and standards.

 

<목차>

I. 서론

II. 유럽(EU)의 AI 윤리 정책 추진 현황

1. 추진현황

2. 추진체계

III. 유럽(EU)의 AI 윤리 정책 주요 내용

1. 신뢰할 만한 AI 가이드라인

2. 평가 목록

IV. 시사점

별첨

신뢰할 만한 AI 가이드라인 초안에 공개 수렴 의견 주요 내용

* 출처: 소프트웨어정책연구소 이슈리포트
* 자세한 내용은 첨부파일을 참고하여 주시기 바랍니다.

 


리포트 평점  
해당 콘텐츠에 대한 회원님의 소중한 평가를 부탁드립니다.
0.0 (0개의 평가)
평가하기
등록된 댓글이 없습니다.