• 전체
  • 전자/전기
  • 통신
  • 컴퓨터
닫기

사이트맵

Loading..

Please wait....

학술대회 프로시딩

홈 홈 > 연구문헌 > 학술대회 프로시딩 > 한국정보과학회 학술대회 > KSC 2018

KSC 2018

Current Result Document : 658 / 802 이전건 이전건   다음건 다음건

한글제목(Korean Title) 딥러닝 레이어의 특성을 고려한 기울기 압축
영문제목(English Title) Layer-Wise Gradient Compression For Deep Neural Networks
저자(Author) 이준열   김영석   서지원   Junyeol Lee   Youngseok Kim   Jiwon Seo  
원문수록처(Citation) VOL 45 NO. 02 PP. 1943 ~ 1945 (2018. 12)
한글내용
(Korean Abstract)
최근, 딥러닝의 성능향상을 위하여 대규모 인공신경망을 사용하기 시작하였다. 대규모 인공신경망을 학습하기 위해, 동기화된 확률적 경사 하강법(Stochastic Gradient Descent, SGD)을 이용한 분산 학습 방법이 사용되고 있다. 많은 노드를 사용하여 분산 처리를 하게 되면 많은 연산 자원을 사용할 수 있으나, 동기화를 해야 하는 데이터의 크기도 노드 개수와 비례하여 증가하게 된다. 때문에 네트워크 대역폭은 분산 학습의 최대 분산 가능 노드 개수에 영향을 미치게 된다. 본 논문에서는 인공 신경망 성능에 미치는 영향을 최소화 하면서, 동기화에 필요한 데이터 전송량을 효과적으로 감소시키는 방법에 대해 제시한다. 이를 통하여 분산 학습의 확장성을 개선하는 방법에 대하여 제시한다.
영문내용
(English Abstract)
키워드(Keyword)
파일첨부 PDF 다운로드