http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
가상샘플 데이타를 이용한 신경망의 일반화능력제고와 그 응용
권유화(Yuhwa Kwon),조성준(Sungzoon Cho) 한국정보과학회 1998 정보과학회논문지(B) Vol.25 No.8
다층 퍼셉트론(Multilayer Perceptron)이나 RBF(Radial Basis Function) 네트웍 같은 신경망 모델들은 보편 근사기 (universal function approximator)이다. 그러나 이를 위해서는 충분한 수의 질이 좋은 학습 패턴이 있다는 전제조건이 만족되어야한다. 실제 문제에서는 이러한 학습 데이타를 얻는 것이 비용이 많이 들거나 때로는 불가능하기까지 하다. 이러한 상황에 대처하기 위해 최근 가상 샘플(데이타)를 생성하여 학습에 사용하는 방법이 제안되었다. 즉, 주어진 실제 패턴 근처에 새로운 입력을 정하고 주어진 데이타로 학습된 여러 네트웍들을 이용해서 이 입력값에 대한 출력을 추정하는 것이다. 새로 생성된 샘플은 기존 학습 데이타에 추가되고, 이 과정을 반복한다. 본 논문에서는 이 방법에 기반한 다양한 구체적 알고리즘을 제안한다. 그리고 기존의 일반화성능 향상기법들, 즉 잡음 추가, 단순 committee, bagging 등의 기법과 체계적으로 비교했다. 실험 결과는 문제와 잡음 단계에 따라 조금씩 다르게 나왔지만, 대부분의 가상 샘플 생성 방법은 기존의 방법들 보다 일반화성능이 더 우수하였다. Neural network models such as multilayer perceptrons or radial basis function networks are known as universal function approximators. A precondition is required that a sufficient number of “well-represented” training samples are available. In real world situations, however, it is often expensive or impossible to obtain a lot of good training samples. Recently, a scheme to artificially generate “virtual” samples was proposed to alleviate this problem. A new input vector is randomly picked near the real data and the correponding output value is determined from several networks which were trained with the given data. In this paper, we propose variations of this basic procedure, i.e. bootstrap, selective, and validating versions. They were tested on real world problems and their generalization performances were compared with those of other related methods such as noise addition, simple committee, and Bagging. The proposed methods gave better or comparable performances.