http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
이연진(Yeonjin Lee),최수름(Sureum Cho),서영교(Yeongkyo Seo) 한국정보기술학회 2021 Proceedings of KIIT Conference Vol.2021 No.11
가중치 이진화 방식은 완전 정밀도 가중치를 이진화 가중치로 대체함으로써 메모리 용량과 연산의 복잡성을 줄일 수 있다. 기존의 이진화 합성곱 신경망은 정확도를 유지하기 위해 배치 정규화 계층을 사용한다. 하지만, 배치 정규화 계층은 입력을 정규화하기 위해서 복합한 추가적인 하드웨어와 메모리를 사용이 필요하다. 따라서 이 논문에서는 메모리 용량을 줄이면서도 높은 정확성을 가지는 배치 정규화 계층이 없는 이진화 스파이킹 신경망을 제안하고자 한다. The weighted binarization method can reduce memory capacity and operation complexity by replacing full precision weighs with binarized weights. In the conventional binary neural networks, a batch normalization layer is used to retain compatible accuracy. However, the batch normalization which normalizes the input by the mean and standard variations requires an additional hardware and extra memory access. Therefore, in this paper, we propose a new binarized deep spiking neural network without a batch normalization layer in order to reduce memory capacity and achieve high classification accuracy.