RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      Flexible Incremental 알고리즘을 이용한 신경망의 단계적 구축 방법

      한글로보기

      https://www.riss.kr/link?id=A76539890

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      복잡한 비선형 회귀문제들에서 최적의 신경망을 구축하기 위해서는 구조의 선정 및 노이즈에 의한 과잉학습(overtraining) 등에 따른 많은 문제들이 있다. 본 논문에서는 flexible incremental 알고리...

      복잡한 비선형 회귀문제들에서 최적의 신경망을 구축하기 위해서는 구조의 선정 및 노이즈에 의한 과잉학습(overtraining) 등에 따른 많은 문제들이 있다. 본 논문에서는 flexible incremental 알고리즘을 이용하여 단계적으로 최적의 신경망을 구축하는 방법을 제안한다. Flexible incremental 알고리즘은 예측 잔류오차를 최소화하기 위해 단계적으로 추가되어지는 은닉노드 개수를 검증데이터를 이용하여 신축성 있게 조절하고, 빠른 학습을 위하여 ELM (Extreme Learning Machine)을 이용한다. 제안된 방법은 신경망의 구축과정에서 사용자의 어떠한 관여 없이도 빠른 학습과 적은 수의 은닉노드들에 의한 범용 근사화 (universal approximation)가 가능한 신경망의 구축이 가능한 장점을 가지고 있다. 다양한 종류의 벤치마크 데이터들을 이용한 실험 결과를 통하여 제안된 방법이 실제 회귀문제들에서 우수한 성능을 가짐을 확인하였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      There have been much difficulties to construct an optimized neural network in complex nonlinear regression problems such as selecting the networks structure and avoiding overtraining problem generated by noise. In this paper, we propose a stepwise con...

      There have been much difficulties to construct an optimized neural network in complex nonlinear regression problems such as selecting the networks structure and avoiding overtraining problem generated by noise. In this paper, we propose a stepwise constructive method for neural networks using a flexible incremental algorithm. When the hidden nodes are added, the flexible incremental algorithm adaptively controls the number of hidden nodes by a validation dataset for minimizing the prediction residual error. Here, the ELM (Extreme Learning Machine) was used for fast training. The proposed neural network can be an universal approximator without user intervene in the training process, but also it has faster training and smaller number of hidden nodes. From the experimental results with various benchmark data sets, the proposed method shows better performance for real-world regression problems than previous methods.

      더보기

      목차 (Table of Contents)

      • 요약
      • Abstract
      • 1. 서론
      • 2. ELM을 이용한 단일 은닉층을 가지는 전방향 신경망의 증분 알고리즘
      • 3. Flexible incremental 알고리즘을 이용한 신경망의 단계적 구축방법
      • 요약
      • Abstract
      • 1. 서론
      • 2. ELM을 이용한 단일 은닉층을 가지는 전방향 신경망의 증분 알고리즘
      • 3. Flexible incremental 알고리즘을 이용한 신경망의 단계적 구축방법
      • 4. 실험 및 결과 고찰
      • 5. 결론
      • 참고문헌
      • 저자소개
      더보기

      참고문헌 (Reference)

      1 G. B. Huang, "Universal Approximation Using Incremental Constructive Feedforward Networks With Random Hidden Nodes" 17 (17): 879-892, 2006

      2 C. Blake, "UCI repository of machine learning databases" University of California

      3 H. T. Huynh, "Small Number of Hidden Units for ELM with Two-stage Linear Model" E91 (E91): 1042-1049, 2008

      4 F. Han, "Improved Extreme Learning Machine for Function Approximation by Encoding a Priori Information" 69 (69): 2369-2373, 2006

      5 G. B. Huang, "Extreme learning machine: a new learning scheme of feedforward neural networks" 2 : 985-990, 2004

      6 G. B. Huang, "Enhanced Random Search based Incremental Extreme Learning Machine" 71 : 3460-3468, 2008

      7 T. Andersen, "Cross Validation and MLP Architecture Selection" 1999

      8 G. B. Huang, "Convex Incremental Extreme Learning Machine" 70 : 3056-3062, 2007

      9 조재훈, "Bacterial foraging algorithm 을 이용한 extreme learning machine의 피라미터 최적화" 한국지능시스템학회 17 (17): 807-812, 2007

      10 G. Castellano, "An Iterative Pruning Algorithm for Feedforward Neural Networks" 8 (8): 519-531, 1997

      1 G. B. Huang, "Universal Approximation Using Incremental Constructive Feedforward Networks With Random Hidden Nodes" 17 (17): 879-892, 2006

      2 C. Blake, "UCI repository of machine learning databases" University of California

      3 H. T. Huynh, "Small Number of Hidden Units for ELM with Two-stage Linear Model" E91 (E91): 1042-1049, 2008

      4 F. Han, "Improved Extreme Learning Machine for Function Approximation by Encoding a Priori Information" 69 (69): 2369-2373, 2006

      5 G. B. Huang, "Extreme learning machine: a new learning scheme of feedforward neural networks" 2 : 985-990, 2004

      6 G. B. Huang, "Enhanced Random Search based Incremental Extreme Learning Machine" 71 : 3460-3468, 2008

      7 T. Andersen, "Cross Validation and MLP Architecture Selection" 1999

      8 G. B. Huang, "Convex Incremental Extreme Learning Machine" 70 : 3056-3062, 2007

      9 조재훈, "Bacterial foraging algorithm 을 이용한 extreme learning machine의 피라미터 최적화" 한국지능시스템학회 17 (17): 807-812, 2007

      10 G. Castellano, "An Iterative Pruning Algorithm for Feedforward Neural Networks" 8 (8): 519-531, 1997

      11 N. Liang, "A Fast and Accurate Online Sequential Learning Algorithm for Feedforward Networks" 17 (17): 1411-1423, 2006

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2023 평가예정 재인증평가 신청대상 (재인증)
      2020-01-01 평가 등재학술지 선정 (재인증) KCI등재
      2019-12-01 평가 등재후보로 하락 (계속평가) KCI등재후보
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2015-12-01 평가 등재후보로 하락 (기타) KCI등재후보
      2011-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2009-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-02-20 학술지명변경 한글명 : 한국퍼지및지능시스템학회 논문지 -> 한국지능시스템학회 논문지
      외국어명 : 미등록 -> Journal of Korean Institute of Intelligent Systems
      KCI등재
      2008-02-18 학회명변경 한글명 : 한국퍼지및지능시스템학회 -> 한국지능시스템학회
      영문명 : Korea Fuzzy Logic And Intelligent Systems Society -> Korean Institute of Intelligent Systems
      KCI등재
      2007-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2005-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2002-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      1999-07-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.62 0.62 0.63
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.56 0.49 0.866 0.2
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼