http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
장병탁(Byoung-Tak Zhang) 한국정보과학회 1998 정보과학회논문지(B) Vol.25 No.9
본 논문에서는 지금까지 실제 응용에서 가장 널리 사용되고 있는 신경망 모델중의 하나인 다층신경망에 있어서 은닉뉴런의 개수를 최적화하는 문제를 다룬다. 제안되는 방법에서는 초기에 작은 크기의 신경망으로 출발하여 필요에 따라 은닉뉴런의 개수를 점차 늘려간다. 이 때 학습 데이터의 크기도 마찬가지로 작게 출발하여 점차 증가된다. 이 알고리즘의 장점은 주어진 데이터의 일부만을 사용하고도 전체 데이터의 학습에 필요한 은닉뉴런의 수를 효율적으로 결정할 수 있다는 것이다. 또한 학습과정에 최적화가 건설적으로 이루어지기 때문에 최적화 후에 추가의 학습을 필요로 하지 않는다. 실험을 통하여 제안된 알고리즘의 효율성과 최적화 특성을 고찰한다. This paper addresses the problem of optimizing the number of hidden neurons in multilayer neural networks which have been one of the most popular neural network models for practical applications so far. The presented method starts learning with a small network and increase the number of hidden units on demand. It also starts with a small training set and expand the set during further training. This incremental learning has the advantage that the number of hidden units can be efficiently determined by using only a subset of the given data. In addition, this method does not need an additional training phase after size optimization since the optimization is constructively performed during a normal learning process. The efficiency and optimality characteristics of the presented algorithm are examined by experiments.
점진적 패턴 선택에 의한 다층 퍼셉트론의 효율적 구성 및 학습
장병탁(Zhang Byoung Tak) 한국정보처리학회 1996 정보처리학회논문지 Vol.3 No.3
An incremental learning algorithms is presented that constructs a multilayer perceptron whose size is optimal for solving a given problem. unlike conventional algorithms in which a fixed size training set is processed repeatedly, the method uses an increasing number of critical examples to find a necessary and sufficient number of hidden units for learning the entire data. Experimental results in hand-written digit recognition shows that the network size optimization combined with incremental pattern selection generalizes significantly better and converges faster than conventional methods.
다중언어 형태소 분석 및 합성을 위한 언어규칙의 기계학습
장병탁(Byoung Tak Zhang),김영택(Yung Taek Kim) 한국정보과학회 1990 정보과학회논문지 Vol.17 No.4
본 논문은 자연언어의 형태소 처리를 위한 언어규칙의 기계학습과 이 규칙을 이용한 형태소 분석 및 합성방법을 제시한다. 이 접근방법은 학습시스템 XMAS(Xpert in Morphological Analysis and Synthesis)로 구현 되었으며, 자연언어 시스템의 언어와 응용 및 문제 영역에 무관하게 분석과 합성을 수행한다. XMAS는 형태소 처리를 그래프 탐색 문제로 보며, 형태소 결합의 예로부터 문법규칙을 학습하여 형태소 분석과 합성에 이용한다. 본 논문은 언어지식의 귀납적 학습과 형태소 처리 문제의 연역적 풀이 및 응용 결과에 대하여 기술한다. XMAS는 형태소 처리기의 개발, 유지보수 및 이식에 드는 시간과 노력을 덜어주고, 사전의 크기를 줄여준다. XMAS의 한국어 버전인 MASK는 현재 영어-한국어 기계번역 시스템 KSHALT에서 효과적으로 사용되고 있다. This paper presents a method for machine learning of liguistic rules for morphological processing of natural languages and the morphological analysis and synthesis using the learned rules, which is implemented in the learning system XMAS (Xpert in Morphological Analysis and Synthesis). This approach is applicable to analysis as well as synthesis regardless of the languages, applications, and domains of natural language systems. XMAS regards the morphological processing as a graph search problem. It learns morphological rules from examples of morphological combinations and accomplishes the morphological analysis and synthesis using the rules. In this paper, the inductive learning of linguistic knowledge, the deductive solving of morphological problems, the application results are discussed. XMAS saves the time and efforts for development, maintenance and transportation, and takes small lexicon space. A Korean version of XMAS, called MASK, is effectively working in the English-Korean machine translation system KSHALT.
장병탁(Byoung-Tak Zhang) 한국정보과학회 1997 정보과학회논문지(B) Vol.24 No.12
신경망 학습 알고리즘은 학습 데이타의 능동적인 선택 여부에 따라서 능동적 학습과 피동적 학습으로 구분될 수 있다. 또한 망의 구조가 건설적으로 변하는가 고정되어 있는가에 따라서 성장 학습과 비성장 학습으로 구분될 수 있다. 본 논문에서는 능동적 학습과 성장 학습을 결합한 신경망 학습 방식을 제안하고 그 수렴 특성과 일반화 성능을 분석한다. 비교 실험을 통해서 능동적 성장 학습 알고리즘이 다른 알고리즘보다 일반화와 수렴의 속도 및 안정성에 있어서 우월함을 보여준다. Learning algorithms for neural networks can be classified as active learning and passive learning, depending on whether or not training data are actively selected during learning. Another dimension of classification is whether the network structure is constructively modified or not, by which growth learning and non-growth learning are divided. In this paper we present a neural network learning method that combines active learning and growth learning. Convergence properties of the algorithm are analyzed and its generalization performance is evaluated. Comparative experimental results support the superiority of the active growth algorithm to other algorithms in speed and robustness of convergence and generalization.