RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      EBP와 OVSSA의 특성을 이용하는 분류 알고리즘 = Classification algorithm using characteristics of EBP and OVSSA

      한글로보기

      https://www.riss.kr/link?id=A105133052

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract) kakao i 다국어 번역

      This paper is based on a simple approach that the most efficient learning of a multi-layered network is the process of finding the optimal set of weight vectors. To overcome the disadvantages of general learning problems, the proposed model uses a combination of features of EBP and OVSSA. In other words, the proposed method can construct a single model by taking advantage of each algorithm so that it can escape to the probability theory of OVSSA in order to reinforce the property that EBP falls into local minimum value. In the proposed algorithm, methods for reducing errors in EBP are used as energy functions and the energy is minimized to OVSSA. A simple experimental result confirms that two algorithms with different properties can be combined.
      번역하기

      This paper is based on a simple approach that the most efficient learning of a multi-layered network is the process of finding the optimal set of weight vectors. To overcome the disadvantages of general learning problems, the proposed model uses a com...

      This paper is based on a simple approach that the most efficient learning of a multi-layered network is the process of finding the optimal set of weight vectors. To overcome the disadvantages of general learning problems, the proposed model uses a combination of features of EBP and OVSSA. In other words, the proposed method can construct a single model by taking advantage of each algorithm so that it can escape to the probability theory of OVSSA in order to reinforce the property that EBP falls into local minimum value. In the proposed algorithm, methods for reducing errors in EBP are used as energy functions and the energy is minimized to OVSSA. A simple experimental result confirms that two algorithms with different properties can be combined.

      더보기

      국문 초록 (Abstract) kakao i 다국어 번역

      본 논문은 다층을 갖는 네트워크를 가장 효율적으로 학습하는 것은 결국 최적의 가중치 벡터의 집합을 찾아가는 과정이라는 간단한 접근 방법을 기본으로 하고 있다. 일반적인 학습 문제의 단점을 극복하기 위해 제안 모델에서는 EBP와 OVSSA의 특징들을 결합한 방법을 사용한다. 즉 EBP가 지역 최소치에 빠질 수 있는 성질을 보강하기 위해 OVSSA의 확률 이론으로 빠져나갈 수 있도록 제안 방법은 각각 알고리즘의 장점만을 취하여 하나의 모델을 구성한다. 제안 알고리즘에서는 EBP에서 오류를 줄이기 위한 방법들을 에너지함수로 사용하고, 이 에너지를 OVSSA로 최소화 하는 방법을 사용하였다. 두 가지의 상이한 성질을 가지는 알고리즘이 합쳐질 수 있음을 간단한 실험 결과를 통해 확인한다.
      번역하기

      본 논문은 다층을 갖는 네트워크를 가장 효율적으로 학습하는 것은 결국 최적의 가중치 벡터의 집합을 찾아가는 과정이라는 간단한 접근 방법을 기본으로 하고 있다. 일반적인 학습 문제의 ...

      본 논문은 다층을 갖는 네트워크를 가장 효율적으로 학습하는 것은 결국 최적의 가중치 벡터의 집합을 찾아가는 과정이라는 간단한 접근 방법을 기본으로 하고 있다. 일반적인 학습 문제의 단점을 극복하기 위해 제안 모델에서는 EBP와 OVSSA의 특징들을 결합한 방법을 사용한다. 즉 EBP가 지역 최소치에 빠질 수 있는 성질을 보강하기 위해 OVSSA의 확률 이론으로 빠져나갈 수 있도록 제안 방법은 각각 알고리즘의 장점만을 취하여 하나의 모델을 구성한다. 제안 알고리즘에서는 EBP에서 오류를 줄이기 위한 방법들을 에너지함수로 사용하고, 이 에너지를 OVSSA로 최소화 하는 방법을 사용하였다. 두 가지의 상이한 성질을 가지는 알고리즘이 합쳐질 수 있음을 간단한 실험 결과를 통해 확인한다.

      더보기

      참고문헌 (Reference)

      1 김경도, "신경망 및 통계 기법 기반의 기계학습을 이용한 유류유출 및 기상 예측 연구 동향" 한국융합학회 8 (8): 1-8, 2017

      2 윤유동, "기계 학습 방법을 이용한 활동 프로파일 기반의 스마트 시니어 분류 모델 개발" 한국융합학회 8 (8): 25-34, 2017

      3 M. Ranzato, "Semi- supervised learning of compact document representations with deep networks" 792-799, 2008

      4 G. Hinton, "Reducing the dimensionality of data with neural networks" 313 : 2006

      5 V. Nair, "Rectified linear units improve restricted boltzmann machines" 2010

      6 J.C.Lee, "Pattern classification model based on an optimization tool" 1744-1748, 1994

      7 G. Wang, "Optimal broadcast scheduling in packet radio networks using mean field annealing" 15 (15): 1997

      8 K.Lee, "Mean field annealing with continuous variables and its application to the quantification analysis Problem" 2 : 431-435, 1992

      9 H. Jeong, "Learning scheme for neural networks by simulated annealing with back-propagation" 15-20, 1988

      10 D. E. Rumelhart, "Learning internal representations by error propagation" 1 : 318-362, 1986

      1 김경도, "신경망 및 통계 기법 기반의 기계학습을 이용한 유류유출 및 기상 예측 연구 동향" 한국융합학회 8 (8): 1-8, 2017

      2 윤유동, "기계 학습 방법을 이용한 활동 프로파일 기반의 스마트 시니어 분류 모델 개발" 한국융합학회 8 (8): 25-34, 2017

      3 M. Ranzato, "Semi- supervised learning of compact document representations with deep networks" 792-799, 2008

      4 G. Hinton, "Reducing the dimensionality of data with neural networks" 313 : 2006

      5 V. Nair, "Rectified linear units improve restricted boltzmann machines" 2010

      6 J.C.Lee, "Pattern classification model based on an optimization tool" 1744-1748, 1994

      7 G. Wang, "Optimal broadcast scheduling in packet radio networks using mean field annealing" 15 (15): 1997

      8 K.Lee, "Mean field annealing with continuous variables and its application to the quantification analysis Problem" 2 : 431-435, 1992

      9 H. Jeong, "Learning scheme for neural networks by simulated annealing with back-propagation" 15-20, 1988

      10 D. E. Rumelhart, "Learning internal representations by error propagation" 1 : 318-362, 1986

      11 M.Kim, "Fuzzy clustering using extended MFA for continuous valued state space" 2 : 733-738, 1992

      12 J. Schmidhuber., "Deep learning in neural networks : An overview" 1-88, 2015

      13 Y. LeCun, "Deep learning" 521 : 436-444, 2015

      14 N. Baba, "An intelligent forecasting system of stock price using neural networks" 1 : 371-377, 1992

      15 P. D. Wasserman., "A combined back- propagation / cauchy machine network" 34-40, 1990

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2025 평가예정 신규평가 신청대상 (신규평가)
      2022-06-01 평가 등재학술지 취소
      2019-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2014-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 5.85 5.85 0
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0 0 0 0.76
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼