RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      강화학습을 이용한 n-Queen 문제의 수렴속도 향상

      한글로보기

      https://www.riss.kr/link?id=A76129430

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      강화학습(Reinforcement-Learning)의 목적은 환경으로부터 주어지는 보상(reward)을 최대화하는 것이며, 강화학습 에이전트는 외부에 존재하는 환경과 시행착오를 통하여 상호작용하면서 학습한다. ...

      강화학습(Reinforcement-Learning)의 목적은 환경으로부터 주어지는 보상(reward)을 최대화하는 것이며, 강화학습 에이전트는 외부에 존재하는 환경과 시행착오를 통하여 상호작용하면서 학습한다. 대표적인 강화학습 알고리즘인 Q-Learning은 시간 변화에 따른 적합도의 차이를 학습에 이용하는 TD-Learning의 한 종류로서 상태공간의 모든 상태-행동 쌍에 대한 평가 값을 반복 경험하여 최적의 전략을 얻는 방법이다. 본 논문에서는 강화학습을 적용하기 위한 예를 n-Queen 문제로 정하고, 문제풀이 알고리즘으로 Q-Learning을 사용하였다. n-Queen 문제를 해결하는 기존의 방법들과 제안한 방법을 비교 실험한 결과, 강화학습을 이용한 방법이 목표에 도달하기 위한 상태전이의 수를 줄여줌으로써 최적 해에 수렴하는 속도가 더욱 빠름을 알 수 있었다.

      더보기

      다국어 초록 (Multilingual Abstract)

      The purpose of reinforcement learning is to maximize rewards from environment, and reinforcement learning agents learn by interacting with external environment through trial and error. Q-Learning, a representative reinforcement learning algorithm, is ...

      The purpose of reinforcement learning is to maximize rewards from environment, and reinforcement learning agents learn by interacting with external environment through trial and error. Q-Learning, a representative reinforcement learning algorithm, is a type of TD-learning that exploits difference in suitability according to the change of time in learning. The method obtains the optimal policy through repeated experience of evaluation of all state-action pairs in the state space. This study chose n-Queen problem as an example, to which we apply reinforcement learning, and used Q-Learning as a problem solving algorithm. This study compared the proposed method using reinforcement learning with existing methods for solving n-Queen problem and found that the proposed method improves the convergence rate to the optimal solution by reducing the number of state transitions to reach the goal.

      더보기

      목차 (Table of Contents)

      • 요약
      • Abstract
      • 1. 서론
      • 2. 관련연구
      • 3. 강화학습(reinforcement learning)
      • 요약
      • Abstract
      • 1. 서론
      • 2. 관련연구
      • 3. 강화학습(reinforcement learning)
      • 4. Q-Learning을 이용한 n-Queen알고리즘
      • 5. 실험 및 평가
      • 6. 결론
      • 참고문헌
      • 저자소개
      더보기

      참고문헌 (Reference)

      1 "함수근사와 규칙추출을 위한 클러스터링을 이용한 강화학습" 30 (30): 1054-1061, 2003.

      2 "학습 에이전트" 18 (18): 26-35, 2003.

      3 "탐색 강화 계층적 강화 학습" 28 (28): 2001-, 2001

      4 "강화 학습에서의 탐색과 이용의 균형을 통한 범용적 온라인 Q-학습이 적용된 에이전트의 구현" 30 : 672-680, 2003.

      5 "Using Reinforcement Learning to Spider the Web Efficiently In proceedings of the 16th International Conference on Machine Learning" 335-343, 1999.

      6 "Q- Learning" Machine Learning" 279-292, 1992.

      7 "Personalized Web-Document Filtering Using Reinforcement Learning" 15 : 665-685, 2001.

      8 "Neural Network" Prentice- Ha ll 1999.

      9 "Machine Learning" McGraw-Hill 1997.

      10 "Foundations of Algorithms" Jones and Bartlett Publisher 1998.

      1 "함수근사와 규칙추출을 위한 클러스터링을 이용한 강화학습" 30 (30): 1054-1061, 2003.

      2 "학습 에이전트" 18 (18): 26-35, 2003.

      3 "탐색 강화 계층적 강화 학습" 28 (28): 2001-, 2001

      4 "강화 학습에서의 탐색과 이용의 균형을 통한 범용적 온라인 Q-학습이 적용된 에이전트의 구현" 30 : 672-680, 2003.

      5 "Using Reinforcement Learning to Spider the Web Efficiently In proceedings of the 16th International Conference on Machine Learning" 335-343, 1999.

      6 "Q- Learning" Machine Learning" 279-292, 1992.

      7 "Personalized Web-Document Filtering Using Reinforcement Learning" 15 : 665-685, 2001.

      8 "Neural Network" Prentice- Ha ll 1999.

      9 "Machine Learning" McGraw-Hill 1997.

      10 "Foundations of Algorithms" Jones and Bartlett Publisher 1998.

      11 "Building domain-specific search engines with machine learning techniques" In AAAI-99 Spring Symposium on Intelligent Agents in Cyberspace 135-141, 1999.

      12 "An Introduction. The MIT Press" 1998.

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2023 평가예정 재인증평가 신청대상 (재인증)
      2020-01-01 평가 등재학술지 선정 (재인증) KCI등재
      2019-12-01 평가 등재후보로 하락 (계속평가) KCI등재후보
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2015-12-01 평가 등재후보로 하락 (기타) KCI등재후보
      2011-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2009-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-02-20 학술지명변경 한글명 : 한국퍼지및지능시스템학회 논문지 -> 한국지능시스템학회 논문지
      외국어명 : 미등록 -> Journal of Korean Institute of Intelligent Systems
      KCI등재
      2008-02-18 학회명변경 한글명 : 한국퍼지및지능시스템학회 -> 한국지능시스템학회
      영문명 : Korea Fuzzy Logic And Intelligent Systems Society -> Korean Institute of Intelligent Systems
      KCI등재
      2007-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2005-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2002-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      1999-07-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.62 0.62 0.63
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.56 0.49 0.866 0.2
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼