RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 다층신경망 은닉뉴런수의 효율적인 최적화

        장병탁(Byoung-Tak Zhang) 한국정보과학회 1998 정보과학회논문지(B) Vol.25 No.9

        본 논문에서는 지금까지 실제 응용에서 가장 널리 사용되고 있는 신경망 모델중의 하나인 다층신경망에 있어서 은닉뉴런의 개수를 최적화하는 문제를 다룬다. 제안되는 방법에서는 초기에 작은 크기의 신경망으로 출발하여 필요에 따라 은닉뉴런의 개수를 점차 늘려간다. 이 때 학습 데이터의 크기도 마찬가지로 작게 출발하여 점차 증가된다. 이 알고리즘의 장점은 주어진 데이터의 일부만을 사용하고도 전체 데이터의 학습에 필요한 은닉뉴런의 수를 효율적으로 결정할 수 있다는 것이다. 또한 학습과정에 최적화가 건설적으로 이루어지기 때문에 최적화 후에 추가의 학습을 필요로 하지 않는다. 실험을 통하여 제안된 알고리즘의 효율성과 최적화 특성을 고찰한다. This paper addresses the problem of optimizing the number of hidden neurons in multilayer neural networks which have been one of the most popular neural network models for practical applications so far. The presented method starts learning with a small network and increase the number of hidden units on demand. It also starts with a small training set and expand the set during further training. This incremental learning has the advantage that the number of hidden units can be efficiently determined by using only a subset of the given data. In addition, this method does not need an additional training phase after size optimization since the optimization is constructively performed during a normal learning process. The efficiency and optimality characteristics of the presented algorithm are examined by experiments.

      • KCI우수등재

        다중언어 형태소 분석 및 합성을 위한 언어규칙의 기계학습

        장병탁(Byoung Tak Zhang),김영택(Yung Taek Kim) 한국정보과학회 1990 정보과학회논문지 Vol.17 No.4

        본 논문은 자연언어의 형태소 처리를 위한 언어규칙의 기계학습과 이 규칙을 이용한 형태소 분석 및 합성방법을 제시한다. 이 접근방법은 학습시스템 XMAS(Xpert in Morphological Analysis and Synthesis)로 구현 되었으며, 자연언어 시스템의 언어와 응용 및 문제 영역에 무관하게 분석과 합성을 수행한다. XMAS는 형태소 처리를 그래프 탐색 문제로 보며, 형태소 결합의 예로부터 문법규칙을 학습하여 형태소 분석과 합성에 이용한다. 본 논문은 언어지식의 귀납적 학습과 형태소 처리 문제의 연역적 풀이 및 응용 결과에 대하여 기술한다. XMAS는 형태소 처리기의 개발, 유지보수 및 이식에 드는 시간과 노력을 덜어주고, 사전의 크기를 줄여준다. XMAS의 한국어 버전인 MASK는 현재 영어-한국어 기계번역 시스템 KSHALT에서 효과적으로 사용되고 있다. This paper presents a method for machine learning of liguistic rules for morphological processing of natural languages and the morphological analysis and synthesis using the learned rules, which is implemented in the learning system XMAS (Xpert in Morphological Analysis and Synthesis). This approach is applicable to analysis as well as synthesis regardless of the languages, applications, and domains of natural language systems. XMAS regards the morphological processing as a graph search problem. It learns morphological rules from examples of morphological combinations and accomplishes the morphological analysis and synthesis using the rules. In this paper, the inductive learning of linguistic knowledge, the deductive solving of morphological problems, the application results are discussed. XMAS saves the time and efforts for development, maintenance and transportation, and takes small lexicon space. A Korean version of XMAS, called MASK, is effectively working in the English-Korean machine translation system KSHALT.

      • 점진적 패턴 선택에 의한 다층 퍼셉트론의 효율적 구성 및 학습

        장병탁(Zhang Byoung Tak) 한국정보처리학회 1996 정보처리학회논문지 Vol.3 No.3

        An incremental learning algorithms is presented that constructs a multilayer perceptron whose size is optimal for solving a given problem. unlike conventional algorithms in which a fixed size training set is processed repeatedly, the method uses an increasing number of critical examples to find a necessary and sufficient number of hidden units for learning the entire data. Experimental results in hand-written digit recognition shows that the network size optimization combined with incremental pattern selection generalizes significantly better and converges faster than conventional methods.

      • 능동적 성장 학습 신경망의 수렴 및 일반화 특성

        장병탁(Byoung-Tak Zhang) 한국정보과학회 1997 정보과학회논문지(B) Vol.24 No.12

        신경망 학습 알고리즘은 학습 데이타의 능동적인 선택 여부에 따라서 능동적 학습과 피동적 학습으로 구분될 수 있다. 또한 망의 구조가 건설적으로 변하는가 고정되어 있는가에 따라서 성장 학습과 비성장 학습으로 구분될 수 있다. 본 논문에서는 능동적 학습과 성장 학습을 결합한 신경망 학습 방식을 제안하고 그 수렴 특성과 일반화 성능을 분석한다. 비교 실험을 통해서 능동적 성장 학습 알고리즘이 다른 알고리즘보다 일반화와 수렴의 속도 및 안정성에 있어서 우월함을 보여준다. Learning algorithms for neural networks can be classified as active learning and passive learning, depending on whether or not training data are actively selected during learning. Another dimension of classification is whether the network structure is constructively modified or not, by which growth learning and non-growth learning are divided. In this paper we present a neural network learning method that combines active learning and growth learning. Convergence properties of the algorithm are analyzed and its generalization performance is evaluated. Comparative experimental results support the superiority of the active growth algorithm to other algorithms in speed and robustness of convergence and generalization.

      • 새로운 학습예의 유전적 탐색을 위한 정보량 측정법

        장병탁(Byoung-Tak Zhang) 한국정보과학회 1996 정보과학회논문지(B) Vol.23 No.10

        Most conventional neural learning algorithms assume training examples to be provided by an external teacher. However, in a dynamically changing environment or to improve the generalization performance, it is necessary to select or generate training examples. In this paper we present a genetic algorithm-based method for constructing useful examples and develop an information measure for guiding the genetic search process by considering both the error and density of the training data. The experimental results on a robot control problem show an improvement in generalization performance of the network. 기존의 신경망 학습 알고리즘들은 대부분 학습예가 외부의 교사에 의해 제공된다고 가정한다. 그러나 변화하는 학습 환경이나 일반화 능력의 향상을 위해서는 유용한 학습예를 잘 선택하거나 생성하여야 할 필요성이 있다. 본 논문에서는 좋은 학습예의 생성을 위해 유전자 알고리즘을 사용하는 방법을 제안 하며, 학습 데이터의 에러와 밀도를 동시에 고려하여 탐색과정을 유도하기 위한 정보량 측정법을 제시한다. 로봇 제어에 관한 실험에서 제안된 방법이 신경망의 일반화 능력을 향상시킴을 관찰할 수 있었다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼