분야
에너지/자원,정보/통신
발행기관
한국전자통신연구원
발행일
2022.02.01
URL
- 초록
- With increasing size of transformer-based neural networks, a light-weight algorithm and efficient AI accelerator has been developed to train these huge networks in practical design time. In this article, we present a survey of state-of-the-art research on the low-precision computational algorithms especially for floating-point formats and their hardware accelerator. We describe the trends by focusing on the work of two leading research groups-IBM and Seoul National University-which have deep knowledge in both AI algorithm and hardware architecture. For the low-precision algorithm, we summarize two efficient floating-point formats (hybrid FP8 and radix-4 FP4) with accuracy-preserving algorithms for training on the main research stream. Moreover, we describe the AI processor architecture supporting the low-bit mixed precision computing unit including the integer engine.
Ⅰ. 서론
Ⅱ. 저정밀도 학습의 배경
Ⅲ. 저정밀도 데이터 타입 기술
Ⅳ. 저정밀도 연산 AI 반도체 기술
Ⅴ. 결론 및 맺음말
용어해설
약어 정리
자세한 내용은 첨부파일을 참고해 주시기 바랍니다.
추천 리포트
-
[동향보고서] ICT Brief (2022-27호) 저전력 및 메모리 병목에 대한 솔루션, 뉴로모픽 반도체와 PIM
-
[코센리포트] AI 기반 안면인식 기술 동향
-
[동향보고서] 지수로 본 한국 디지털 전환의 방향
-
[동향보고서] [글로벌ICT이슈] 인공지능 반도체 현황 및 주요국 정책
-
[동향보고서] 차세대 반도체 후공정 기술 조사 연구
-
[코센리포트] 폐리튬이온전지로부터의 리튬 및 전이금속의 재활용 기술
-
[동향보고서] 활용도 높아지는 빅데이터 분석 산업
-
[코센리포트] 플라스틱 대체를 위한 생분해성 물질
-
리포트 평점
해당 콘텐츠에 대한 회원님의 소중한 평가를 부탁드립니다. -
0.0 (0개의 평가)