분야
정보/통신
발행기관
한국전자통신연구원
발행일
2019.08.01
URL
- 초록
- The performance of machine learning algorithms significantly depends on how a configuration of hyperparameters is identified and how a neural network architecture is designed. However, this requires expert knowledge of relevant task domains and a prohibitive computation time. To optimize these two processes using minimal effort, many studies have investigated automated machine learning in recent years. This paper reviews the conventional random, grid, and Bayesian methods for hyperparameter optimization (HPO) and addresses its recent approaches, which speeds up the identification of the best set of hyperparameters. We further investigate existing neural architecture search (NAS) techniques based on evolutionary algorithms, reinforcement learning, and gradient derivatives and analyze their theoretical characteristics and performance results. Moreover, future research directions and challenges in HPO and NAS are described.
추천 리포트
-
[코센리포트] 인공신경망 가지치기(Pruning) 기술 동향
-
[동향보고서] MRAM-PIM 기반 인공지능 프로세서
-
[코센리포트] 인공지능 구현을 위한 AI 반도체 기술의 개발 동향
-
[코센리포트] AI를 생성하는 자동화 AI 연구 및 기술 동향
-
[코센리포트] 딥러닝 하드웨어 가속기에 대한 최근 기술 동향
-
[코센리포트] 설명 가능한 인공지능 기술(Explainable AI)에 의한 인공지능 응용 시장의 향후 변화
-
[코센리포트] 임베디드 DRAM 및 비휘발성 메모리를 활용한 칩 내 캐시 관리를 위한 구조적 접근 방법 조사
-
리포트 평점
해당 콘텐츠에 대한 회원님의 소중한 평가를 부탁드립니다. -
0.0 (0개의 평가)