http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
오늘 본 자료
박경석 ( Kyongseok Park ),유찬희 ( Chan Hee Yu ),김유선 ( Yuseon Kim ),엄정호 ( Jung-ho Um ) 한국정보처리학회 2021 한국정보처리학회 학술대회논문집 Vol.28 No.2
빅데이터를 활용한 기계학습 모델을 개발하기 위해서는 빅데이터 처리를 위한 플랫폼과 딥러닝 프레임워크 등 고급 분석을 수행할 수 있는 도구의 활용이 동시에 요구된다. 그러나 빅데이터 플랫폼과 딥러닝 프레임워크를 자유롭게 활용하기 위해서는 상당한 수준의 기술적 지식과 경험이 필요하다. 또한 빅데이터를 이용한 딥러닝 모델을 개발할 경우 분산처리와 병렬처리에 대한 지식과 추가적인 작업이 요구된다. 본 연구에서는 빅데이터를 활용한 기계학습 모형을 자유롭게 개발 및 공유하고 분산 딥러닝을 위한 시스템적 지원을 통해 분야별로 딥러닝 모형을 개발하는 응용 연구자들이 활용할 수 있는 플랫폼을 제시하였다. 본 연구를 통해 다양한 분야의 연구자들이 자신의 데이터를 이용하여 모형을 개발할 경우 분산처리와 병렬처리를 위한 기술적 제약을 극복하고 보다 빠르고 효율적인 방법으로 모형을 개발하고 현업에 활용할 수 있을 것으로 기대한다.
박경석 ( Kyongseok Park ),김은선 ( Eunsun Kim ),문영호 ( Youngho Moon ) 한국정보처리학회 2010 한국정보처리학회 학술대회논문집 Vol.17 No.2
Knowledge Ecosystem은 지식이 자연생태계와 유사한 속성을 가지고 있다는 가정과 관점으로부터 출발한다. 이는 지식과 지식 그리고 이를 생성하고 활용하는 주체와 주체가 생태계의 복잡한 네트워크로 연결되어 다양한 진화와 소멸의 과정을 거치는 과정으로 이해하고 이를 현실세계에 반영하여 긍정적 측면에서 지식을 확대재생산하거나 강화하고 부정적 측면을 약화시키는 과정으로 이해할 수 있다. 이러한 과정은 인위적 개입이나 통제보다는 생태계의 자연스러운 현상에 기반하여 이를 활성화하는데 근본적인 목적이 있다. 본 논문에서는 과학기술정보를 활용하여 연구개발을 수행하고 이를 통해 신제품개발 및 사업화를 수행하는 과학기술정보 커뮤니티에 Knowledge Ecosystem을 개발, 적용한 사례를 중심으로 시스템의 개념과 성과에 대해 설명하고자 한다.
박경석 ( Kyongseok Park ),유찬희 ( Chan Hee Yu ),( Komal Sarda ),엄정호 ( Jung-ho Um ) 한국정보처리학회 2020 한국정보처리학회 학술대회논문집 Vol.27 No.2
딥러닝(deep learning)은 기계학습 알고리즘 중 가장 널리 활용되고 있는 알고리즘이다. 딥러닝 기술은 산업, 과학, 국방 및 공공 부문을 비롯하여 거의 모든 분야에서 폭넓게 확산되고 있다. 그러나 기계 학습 기술에 대한 이해와 프로그래밍 지식이 부족할 경우 자유롭게 활용하는 데는 제약이 따르고 있으며 빅데이터를 활용하여 일반 이용자들이 직접 분산 학습 모형을 개발하고 배포하는 데 어려움이 발생하고 있다. 이러한 요구를 충족시키기 위해 딥러닝 프레임워크의 저수준 API를 추상화하여 고수준 분석과 분산 딥러닝을 지원하고 일반 이용자들이 실무적으로 복잡한 딥러닝 기술을 활용할 수 있는 기술을 개발하였다. 플랫폼 개발과 함께 중요하게 고려해야 하는 요소 중 하나로 플랫폼의 배포와 확장성 역시 고려되어야 한다. 본 플랫폼은 조직 내 계산 자원을 이용하여 플랫폼을 배포할 수 있으며 상용 클라우드 서비스와 연동하여 배포할 수 있도록 설계됨에 따라 환경의 제약 없이 유연한 서비스 제공이 가능하다.
딥러닝 학습에서 동기화 배리어 재배치와 파이프라이닝을 이용한 Double-Averaging 가속
유찬희(Chanhee Yu),박경석(Kyongseok Park) Korean Institute of Information Scientists and Eng 2021 정보과학회논문지 Vol.48 No.11
In deep learning using distributed computing, synchronization is one of the most important factors. While Local SGD is a low-frequency synchronization method that enables fast training, it is limited by high convergence difficulties. And Double-Averaging and SlowMo have been proposed to reduce the convergence difficulties of Local SGD. Double-Averaging improves the convergence difficulties by adding momentum buffer synchronization. However, the training time also increases due to the increased data synchronization. On the other hand, SlowMo adds a Two-layer momentum structure to the Local SGD resulting in reduced convergence difficulties without additional synchronization. However, this requires finding the appropriate SlowMo hyper-parameters. Therefore, in this paper, we proposed accelerated Double-Averaging via synchronization barrier repositioning and pipelining. The proposed method significantly reduced the convergence difficulties and accelerated performance.