RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      계층적 주의 메커니즘을 이용한 이미지 분류 모델 = Image Classification Model Using Hierarchical Attention Mechanism

      한글로보기

      https://www.riss.kr/link?id=T15472996

      • 저자
      • 발행사항

        서울 : 서강대학교 대학원, 2019[2020]

      • 학위논문사항

        학위논문(석사) -- 서강대학교 대학원 , 컴퓨터공학과 , 2020. 2

      • 발행연도

        2020

      • 작성언어

        한국어

      • DDC

        004 판사항(23)

      • 발행국(도시)

        서울

      • 형태사항

        ⅶ, 39 p. : 삽화, 표 ; 26 cm

      • 일반주기명

        지도교수: 박운상
        참고문헌: p. 36-39

      • UCI식별코드

        I804:11029-000000065028

      • 소장기관
        • 국립중앙도서관 국립중앙도서관 우편복사 서비스
        • 서강대학교 도서관 소장기관정보
      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      최근 빅데이터 및 고성능 하드웨어 발전의 영향으로 딥러닝을 이용해 이미지나 비디오를 이해하고 해석하는 연구가 매우 활발하게 진행되고 있다. 영상 처리 중 이미지 분류(Image classification...

      최근 빅데이터 및 고성능 하드웨어 발전의 영향으로 딥러닝을 이용해 이미지나 비디오를 이해하고 해석하는 연구가 매우 활발하게 진행되고 있다. 영상 처리 중 이미지 분류(Image classification)는 컴퓨터 비전 분야에서 가장 핵심적인 기술 중 하나로, 최근에는 중요도(Attention)를 활용한 연구가 활발하게 진행되고 있다.

      그러나, 현재 컴퓨터 비전 분야에서 주의 메커니즘(Attention Mechanism)을 활용한 모델은 단일 단계(Single-stage)로 중요도를 연산하지만, 이는 축적된 경험이 없는 새로운 경험을 의미하며, 이렇게 획득한 중요도는 적절성에 대한 문제점이 발생한다. 이를 해결하기 위해 본 논문에서는 계층적 다중 단계(Multi stage)에 걸쳐 중요도를 점진적으로 획득하고, 이를 활용하는 Hierarchical Attention Module (HAM)을 제안한다.

      HAM은 하나의 모델이 아닌 HCAM(Hierarchical channel attention module)과 HSAM(Hierarchical spatial attention module)으로 이루어져 있으며 본 논문에서는 HCAM, HSAM 및 통합 모델인 HAM에 대한 실험을 진행하였다. 실험은 CIFAR-100 데이터 셋[4]에 대하여 진행하였으며, 컴퓨터 비전 분야에서 중요도를 활용한 선행 연구인 SENet, BAM, CBAM 등의 모델과 동일한 환경에서 실험을 진행하고 비교함으로써, 제안하는 모델의 성능을 검증하고 그 유효성을 입증하였다. 실험 결과, 제안하는 주의 메커니즘을 적용한 모델에서 1.58%의 성능 향상을 얻을 수 있었다.

      더보기

      다국어 초록 (Multilingual Abstract)

      Recently, there have been many studies about understanding and interpreting images or videos through deep learning under the influence of big data and high-performance hardware. Image classification is one of the most important technologies in the com...

      Recently, there have been many studies about understanding and interpreting images or videos through deep learning under the influence of big data and high-performance hardware. Image classification is one of the most important technologies in the computer vision. Studies on image classification have also been actively conducted by using attention mechanisms in these days.

      Typical image classification model using attention mechanism calculates the attention score in a single step, which does not utilize older memories. To overcome this problem, we propose the Hierarchical Attention Module (HAM) that acquires attention through a hierarchical structure.

      Hierarchical Attention Module (HAM) consists of Hierarchical Channel Attention Module (HCAM) and Hierarchical Spatial Attention Module (HSAM). Evaluations are conducted separately with each module (i.e., HCAM and HSAM) and the integrated module (i.e., HAM) using CIFAR-100 dataset. The performance of the proposed model is also compared with those of SENet, BAM and CBAM with the same experimental setup. Experimental results showed that the proposed model is better than traditional model by 1.58%.

      더보기

      목차 (Table of Contents)

      • 제 1 장 서론 1
      • 1.1 연구 배경 1
      • 1.2 논문의 구성 3
      • 제 2 장 관련 연구 4
      • 2.1 주의 메커니즘 4
      • 제 1 장 서론 1
      • 1.1 연구 배경 1
      • 1.2 논문의 구성 3
      • 제 2 장 관련 연구 4
      • 2.1 주의 메커니즘 4
      • 2.2 이미지 분류에서 주의 메커니즘 5
      • 2.2.1 요소별 중요도 5
      • 2.2.2 채널별 중요도 7
      • 2.2.3 공간별 중요도 9
      • 2.3 메모리 네트워크 13
      • 2.4 계층적 주의 네트워크 14
      • 제 3 장 Hierarchical Attention Module (HAM) 16
      • 3.1 모델 개요 16
      • 3.2 중요도 모듈 19
      • 3.2.1 계층적 구조 기반의 채널별 중요도 모듈 19
      • 3.2.2 계층적 구조 기반 공간별 중요도 적용 모듈 21
      • 3.2.3 계층적 구조 기반 통합 중요도 적용 모듈 23
      • 제 4 장 실험 및 결과 25
      • 4.1 실험 환경 25
      • 4.1.1 데이터 셋 25
      • 4.1.2 모델 27
      • 4.1.3 컴퓨팅 및 학습 조건 28
      • 4.2 중요도에 따른 성능 비교 29
      • 4.2.1 채널 중요도 29
      • 4.2.2 공간 중요도 30
      • 4.2.3 통합 중요도 31
      • 4.3 다층 퍼셉트론 공유 여부에 따른 성능 비교 32
      • 4.4 다중 단계에 따른 성능 비교 33
      • 제 5 장 결론 35
      • 제 6 장 참고 문헌 36
      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼