동향

미국, 인공지능 시스템의 사이버 보안 강화 방안 발표

분야

정보/통신

발행기관

한국과학기술정보연구원(KISTI)

발행일

2020.07.14

URL


o 브루킹스연구소(Brookings Institution)는 인공지능을 위한 사이버 보안 강화 방안을 제시하는 보고서(How to improve cybersecurity for artificial intelligenc)를 발표

o 인공지능 연구자들은 인공지능 시스템이 운영되는 내내 안전하고 보안이 확실하여야 하며, 기술이 적용되는 부문에서 검증이 가능하여야 한다는 원칙을 제시했지만, 안전한 인공지능이라는 것이 무엇을 의미하는지, 이를 어떻게 검증할 것인지 등이 명확하게 정의되지 않음

o 인공지능 시스템에서는 나쁜 의도를 가진 측이 인공지능 의사결정 시스템의 성능을 떨어트리거나 기밀 데이터 및 모델에 접근하는 등 여러 방식의 보안 리스크가 나타날 수 있음

 - 악의를 가진 측에서 인공지능의 시스템을 직접 통제하거나, 훈련에 사용되는 데이터를 조작해 성능을 떨어뜨리거나(적대적인 머신 러닝), 데이터를 잘못 분류하거나 부정확하게 분류(데이터 오염) 하는 등의 방식으로 보안 문제를 일으킬 수 있음

 - 적대적인 머신 러닝과 데이터 오염을 막기 위해서는 훈련에 사용되는 개인적 데이터의 정보를 더 많이 제공해야하는데, 이는 다시 훈련 데이터의 유출이나 유추에 대한 리스크를 높이는 결과로 이어지게 됨

o 해당 보고서에서는 인공지능 시스템의 사이버 보안 강화를 위해 정부가 투명성 가이드라인을 제시하고, 효과적인 인증 및 감사 과정을 개발하고, 알고리듬의 법적 책임을 확립할 것을 제안

 - 투명성을 높이기 위해 인공지능 시스템이 어떻게 개발되고, 시험되었으며, 생산하는 결과는 무엇인지에 대해 종합적으로 기록하는 것이 필요함

 - 정부는 사이버보안 관련 인증서를 정부 조달과 기술 적용의 요건으로 만들어 감사 및 인증 활동을 지원함

 - 정책결정자는 인공지능 시스템이 보안 문제를 일으킬 경우 법적 책임을 누구에게 물을 것인지 결정해야 함

※ 참조 : https://www.brookings.edu/research/how-to-improve-cybersecurity-for-artificial-intelligence/


* 자세한 내용은 바로가기(URL)를 통해 확인하시기 바랍니다.

 

리포트 평점  
해당 콘텐츠에 대한 회원님의 소중한 평가를 부탁드립니다.
0.0 (0개의 평가)
평가하기
등록된 댓글이 없습니다.