RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 입력구동 MLP의 직접 연결선을 이용한 연결선 축소 방법

        곽영태(Young Tae Kwak),이영직(Young Gik Lee),권오석(Oh Suk Kwon) 한국정보과학회 1996 정보과학회논문지(B) Vol.23 No.5

        We propose a method for reducing the total number of hidden nodes and connection weights using the direct connections of Input Driven MLP(Multi-layer Perceptron). We analyze the function of the direct connections that are connected from the input layer to all higher layers in Input Driven MLP By using this analytic result, we remove the hidden nodes that are similar to the direct connections and we reduce the connection weights by mapping these hidden nodes into the direct connections. When MLP is implemented by hardware, this approach has an advantage of reducing the number of hidden nodes and connection weights We showed that the connection weights could be removed up to 40% in handwritten digit recognition problem, while not greatly bringing down the recognition rate. 본 논문은 Input Driven MLP의 직접 연결선을 이용하여, 은닉 노드와 총 연결선의 수를 줄이는 방법을 제안한다. 입력층이 은닉층과 출력층에 직접 입력되는 Input Driven MLP에서 직접 연결선의 기능을 분석한다. 이런 분석 결과를 이용해서, 학습이 완료된 다층퍼셉트론에서 직접 연결선과 유사한 기능을 하는 은닉 노드를 제거하고, 직접 연결선으로 사상함으로써 총 연결선의 수를 줄인다. 제안된 방법은 다층퍼셉트론의 하드웨어 구현시, 은닉 노드와 많은 수의 연결선을 줄일 수 있다는 장점이 있다. 실험 대상으로 필기체 숫자인식 문제를 선정하여 인식률을 크게 손상시키지 않으면서 약 40%까지 연결선을 줄일 수 있음을 보였다.

      • 다층퍼셉트론의 은닉노드 근사화를 이용한 개선된 오류역전파 학습

        곽영태(Young Tae Kwak),이영직(Young Gik Lee),권오석(Oh Seok Kwon) 한국정보과학회 2001 정보과학회논문지 : 소프트웨어 및 응용 Vol.28 No.9

        본 논문은 학습 속도가 계층별 학습처럼 빠르며, 일반화 성능이 우수한 학습 방법을 제안한다. 제안한 방법은 최소 제곱법을 통해 구한 은닉층의 목표값을 이용하여 은닉층의 가중치를 조정하는 방법으로, 은닉층 경사 벡터의 크기가 작아 학습이 지연되는 것을 막을 수 있다. 필기체 숫자인식 문제를 대상으로 실험한 결과, 제안한 방법의 학습 속도는 오류역전파 학습과 수정된 오차 함수의 학습보다 빠르고, Ooyen의 방법과 계층별 학습과는 비슷했다. 또한, 일반화 성능은 은닉노드의 수에 관련없이 가장 좋은 결과를 얻었다. 결국, 제안한 방법은 계층별 학습의 학습 속도와 오류역전파 학습과 수정된 오차 함수의 일반화 성능을 장점으로 가지고 있음을 확인하였다. This paper proposes a novel fast layer-by-layer algorithm that has better generalization capability. In the proposed algorithm, the weights of the hidden layer are updated by the target vector of the hidden layer obtained by least squares method. The proposed algorithm improves the learning speed that can occur due to the small magnitude of the gradient vector in the hidden layer. This algorithm was tested in a handwritten digits recognition problem. The learning speed of the proposed algorithm was faster than those of error back propagation algorithm and modified error function algorithm, and similar to those of Ooyen's method and layer-by-layer algorithm. Moreover, the simulation results showed that the proposed algorithm had the best generalization capability among them regardless of the number of hidden nodes. The proposed algorithm has the advantages of the learning speed of layer-by-layer algorithm and the generalization capability of error back propagation algorithm and modified error function algorithm.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼