동향

[미국]Responsible AI(RAI) 성숙도에 대한 대기업 인식조사 보고서


보스턴컨설팅그룹(BCG)은 책임감 있는 인공지능(Responsible AI, RAI) 성숙도에 대한 대기업의 인식을 조사한 보고서*를 발표함

 * Are You Overestimating Your Responsible AI Maturity?

 

o 기업의 전환과 함께 인공지능 시스템이 좋은 의도로 활용되는 것을 보장하는 책임감 있는 인공지능(RAI) 성숙도에 주목함

 - 책임감있는 인공지능(RAI)은 책임성, 투명성과 설명 가능성, 공정성, 안전성, 데이터와 프라이버시 관리, 사회 환경적 영향 감소, 인간과 인공지능 간의 상호 보완 등으로 구성됨

 

o 세계 1,000개 대기업을 대상으로 책임감 있는 인공지능(RAI) 성숙도를 평가하고, 다음과 같은 4단계로 분류함

 - 낙후(14%): 데이터와 프라이버시에 초점을 두고 책임감 있는 인공지능(RAI) 프로그램을 시행하기 시작함

 - 발전(34%): 책임감 있는 인공지능(RAI) 프로그램을 여러 부문으로 확대하고, 관련 정책을 시행함

 - 우세(31%): 데이터와 프라이버시를 개선하였지만, 인간 관련해서는 뒤처짐

 - 선도(21%): 다양한 부문에서 높은 수준의 책임감 있는 인공지능(RAI) 프로그램을 수행 중임

 

o 많은 경우 기업은 자신의 책임감 있는 인공지능(RAI) 성숙도를 과대평가하고 있었으며, 산업과 지역별로 성숙도에 차이가 있었음

 - 응답 기업의 55%가 자신의 책임감 있는 인공지능(RAI) 성숙도를 과대평가하고 있었으며, 충분히 성숙한 책임감 있는 인공지능 기술을 보유한 경우는 절반 이하였음

 - 책임감 있는 인공지능(RAI) 성숙도는 산업보다는 지역적으로 큰 격차를 보였으며 북미와 유럽 지역에서 가장 높은 수치를 기록함

 - 자신의 책임감 있는 인공지능(RAI) 성숙도가 높은 기업은 담당 직원이나 조직을 별도로 보유하고 있는 경우가 많았음

 

* 출처 : 보스턴컨설팅그룹(BCG)
          한국과학기술정보연구원

* 자세한 내용은 첨부파일을 참고하여 주시기 바랍니다.


리포트 평점  
해당 콘텐츠에 대한 회원님의 소중한 평가를 부탁드립니다.
0.0 (0개의 평가)
평가하기
등록된 댓글이 없습니다.