RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      Learning to Generate Synthetic Classes for Deep Metric Learning = 심층 거리 학습을 위한 클래스 생성법

      한글로보기

      https://www.riss.kr/link?id=T16095524

      • 저자
      • 발행사항

        포항 : 포항공과대학교 일반대학원, 2021

      • 학위논문사항

        학위논문(석사) -- 포항공과대학교 일반대학원 , 컴퓨터공학과 , 2021. 8

      • 발행연도

        2021

      • 작성언어

        영어

      • 발행국(도시)

        경상북도

      • 형태사항

        ; 26 cm

      • 일반주기명

        지도교수: 곽수하

      • UCI식별코드

        I804:47020-200000507944

      • 소장기관
        • 포항공과대학교 박태준학술정보관 소장기관정보
      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract) kakao i 다국어 번역

      심층 거리 학습은 학습 중에 보지 못한 클래스라도 데이터 간의 거리가 클래스의 관계를 반영하는 임베딩 공간을 학습하는 것을 목표로한다. 그러나 학습 때 사용 가능한 클래스의 수는 제한되고 이는 모델의 일반화를 방해한다. 이에 따라 우리는 새로운 클래스와 해당 클래스의 임베딩 벡터를 생성하는 새로운 데이터 증대 방식을 제안한다. 본 논문에서 제안하는 방법은 기존 학습 데이터셋에서는 사용할 수 없는 새로운 클래스로 학습 데이터셋을 보강하여 임베딩 모델로 하여금 풍부한 의미적 정보를 제공하여 모델의 일반화를 개선한다. 우리는 제안하는 아이디어를 조건부 생성 모델을 학습함으로써 구현하며 이는 클래스 정보와 랜덤 노이즈를 입력으로 받아 임베딩 벡터를 생성한다. 제안하는 생성기는 실제와 유사하고 또 다양한 클래스를 보강하여 프록시 기반의 손실 함수로 하여금 더 풍부한 클래스 간의 관계를 활용하여 테스트 타임 때의 한번도 보지 못한 클래스 데이터에 대한 일반화를 개선한다. 또한 본 논문은 제안하는 방법이 프록시 기반의 손실 함수의 성능을 분명히 향상 시킨다는 것을 증명한다.
      번역하기

      심층 거리 학습은 학습 중에 보지 못한 클래스라도 데이터 간의 거리가 클래스의 관계를 반영하는 임베딩 공간을 학습하는 것을 목표로한다. 그러나 학습 때 사용 가능한 클래스의 수는 제...

      심층 거리 학습은 학습 중에 보지 못한 클래스라도 데이터 간의 거리가 클래스의 관계를 반영하는 임베딩 공간을 학습하는 것을 목표로한다. 그러나 학습 때 사용 가능한 클래스의 수는 제한되고 이는 모델의 일반화를 방해한다. 이에 따라 우리는 새로운 클래스와 해당 클래스의 임베딩 벡터를 생성하는 새로운 데이터 증대 방식을 제안한다. 본 논문에서 제안하는 방법은 기존 학습 데이터셋에서는 사용할 수 없는 새로운 클래스로 학습 데이터셋을 보강하여 임베딩 모델로 하여금 풍부한 의미적 정보를 제공하여 모델의 일반화를 개선한다. 우리는 제안하는 아이디어를 조건부 생성 모델을 학습함으로써 구현하며 이는 클래스 정보와 랜덤 노이즈를 입력으로 받아 임베딩 벡터를 생성한다. 제안하는 생성기는 실제와 유사하고 또 다양한 클래스를 보강하여 프록시 기반의 손실 함수로 하여금 더 풍부한 클래스 간의 관계를 활용하여 테스트 타임 때의 한번도 보지 못한 클래스 데이터에 대한 일반화를 개선한다. 또한 본 논문은 제안하는 방법이 프록시 기반의 손실 함수의 성능을 분명히 향상 시킨다는 것을 증명한다.

      더보기

      다국어 초록 (Multilingual Abstract) kakao i 다국어 번역

      Deep metric learning aims to learn an embedding space where the distance between data reflects their class equivalence, even when their classes are unseen during training. However, the limited number of classes available in training precludes generalization of the learned embedding space. Motivated by this, we introduce a new data augmentation approach that synthesizes novel classes and their embedding vectors. Our approach can provide rich semantic information to an embedding model and improve its generalization by augmenting training data with novel classes unavailable in the original data. We implement this idea by learning and exploiting a conditional generative model, which, given a class label and a noise, produces a random embedding vector of the class. Our proposed generator allows the loss to use richer class relations by augmenting realistic and diverse classes, resulting in better generalization to unseen samples. Experimental results on public benchmark datasets demonstrate that our method clearly enhances the performance of proxy-based losses.
      번역하기

      Deep metric learning aims to learn an embedding space where the distance between data reflects their class equivalence, even when their classes are unseen during training. However, the limited number of classes available in training precludes generali...

      Deep metric learning aims to learn an embedding space where the distance between data reflects their class equivalence, even when their classes are unseen during training. However, the limited number of classes available in training precludes generalization of the learned embedding space. Motivated by this, we introduce a new data augmentation approach that synthesizes novel classes and their embedding vectors. Our approach can provide rich semantic information to an embedding model and improve its generalization by augmenting training data with novel classes unavailable in the original data. We implement this idea by learning and exploiting a conditional generative model, which, given a class label and a noise, produces a random embedding vector of the class. Our proposed generator allows the loss to use richer class relations by augmenting realistic and diverse classes, resulting in better generalization to unseen samples. Experimental results on public benchmark datasets demonstrate that our method clearly enhances the performance of proxy-based losses.

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼