RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      다중 소스 도메인 환경에서 연합 도메인 일반화 성능 향상 연구

      한글로보기

      https://www.riss.kr/link?id=T16647506

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      연합학습을 사용하면 클라이언트의 데이터를 서버로 공유하지 않고 인공지능 모델을 학습 시킬 수 있다. 이와 같이 학습하게 되면 클라이언트의 데이터는 보호 받을 수 있다. 하지만 연합학습으로 훈련된 모델은 각각의 기기에서 데이터를 수집하기에 도메인이 다르게 되는데, 이와 같이 학습을 하면 보지 못한 도메인에서는 성능 저하를 겪을 수 있다. 하지만 기존의 방법을 이용하여 도메인 일반화을 하게 되면, 연합학습 상황에서는 소스 도메인의 성능이 떨어 질 수도 있다. 그렇기에 본 논문에서 우리는 보지 못한 도메인과 소스 도메인의 성능을 둘 다 올릴 수 있게 일반화 할 수 있는 연합학습 문제를 해결하는 연합학습에서의 다중 소스 도메인 일반화의 문제를 정의하고 해결한다. FedDE라는 새로운 방법을 통해, 서버에서는 데이터에 접근 하지 않고 도메인 정보가 담긴 데이터를 general하게 학습 할 수 있는 방법을 제안한다. FedDE는 각 레이어별 vector를 추가하여 Domain Information Weights를 생성 한 후, Domain Information Weights에는 도메인 정보를 학습 시키고 기존의 weight에는 general한 정보를 학습 시키도록 유도한다. 또한 적대적 학습의 판별 기능을 이용하여 판별자를 통해 각 클라이언트의 feature extractor를 글로벌 모델의 도메인을 따라갈 수 있게 일반화 한 후, 일반화된 모델을 앙상블을 적용하여 소스 도메인과 보지 못한 도메인을 둘 다 잘할 수 있는 연합 다중 소스 도메인 일반화를 하게 된다. 다양한 데이터셋에 대한 광범위한 실험을 통해 FedDE가 소스 도메인과 보지 못한 도메인에서 기존의 기법에 비해 월등한 성능과 효율성을 보여주었다.
      번역하기

      연합학습을 사용하면 클라이언트의 데이터를 서버로 공유하지 않고 인공지능 모델을 학습 시킬 수 있다. 이와 같이 학습하게 되면 클라이언트의 데이터는 보호 받을 수 있다. 하지만 연합학...

      연합학습을 사용하면 클라이언트의 데이터를 서버로 공유하지 않고 인공지능 모델을 학습 시킬 수 있다. 이와 같이 학습하게 되면 클라이언트의 데이터는 보호 받을 수 있다. 하지만 연합학습으로 훈련된 모델은 각각의 기기에서 데이터를 수집하기에 도메인이 다르게 되는데, 이와 같이 학습을 하면 보지 못한 도메인에서는 성능 저하를 겪을 수 있다. 하지만 기존의 방법을 이용하여 도메인 일반화을 하게 되면, 연합학습 상황에서는 소스 도메인의 성능이 떨어 질 수도 있다. 그렇기에 본 논문에서 우리는 보지 못한 도메인과 소스 도메인의 성능을 둘 다 올릴 수 있게 일반화 할 수 있는 연합학습 문제를 해결하는 연합학습에서의 다중 소스 도메인 일반화의 문제를 정의하고 해결한다. FedDE라는 새로운 방법을 통해, 서버에서는 데이터에 접근 하지 않고 도메인 정보가 담긴 데이터를 general하게 학습 할 수 있는 방법을 제안한다. FedDE는 각 레이어별 vector를 추가하여 Domain Information Weights를 생성 한 후, Domain Information Weights에는 도메인 정보를 학습 시키고 기존의 weight에는 general한 정보를 학습 시키도록 유도한다. 또한 적대적 학습의 판별 기능을 이용하여 판별자를 통해 각 클라이언트의 feature extractor를 글로벌 모델의 도메인을 따라갈 수 있게 일반화 한 후, 일반화된 모델을 앙상블을 적용하여 소스 도메인과 보지 못한 도메인을 둘 다 잘할 수 있는 연합 다중 소스 도메인 일반화를 하게 된다. 다양한 데이터셋에 대한 광범위한 실험을 통해 FedDE가 소스 도메인과 보지 못한 도메인에서 기존의 기법에 비해 월등한 성능과 효율성을 보여주었다.

      더보기

      다국어 초록 (Multilingual Abstract)

      Federated learning (FL) allows AI models to be trained without sharing the client's data to the central server. Most federated learning approaches were developed with an assumption that all clients have similar data distributions. However, the assumption is not generally acceptable. Most clients collect data samples in different environments, which means that each client may have a dataset from different domain. Since clients do not share their data, it is hard to build up the central model which can generate multi-source domains by previous FL approaches.
      We try to solve this problem by separate learning of common features of all clients from local features of clients.
      We propose Federated Discriminative Ensemble (FedDE) to generalize multi-source domains in federated learning. The framework of our approach is similar to federated averaging.
      However, client models are composed of two parts: a common model and a local modifier. The common model parts are sent to the server and averaged. Each client has their own local modifier which are combined with the common model in each client, but is not sent to the server. Clients train both parts using their own datasets with adversarial training, so that their common part is not much updated. Through this mechanism, we can effectively separate common features from client dependent feature, and generate the model which can increase the performance of both unseen domains and each source domains.
      Through extensive experiments on various datasets, FedDE shows superior performance and efficiency compared to previous methods in the unseen and source domains.
      번역하기

      Federated learning (FL) allows AI models to be trained without sharing the client's data to the central server. Most federated learning approaches were developed with an assumption that all clients have similar data distributions. However, the assumpt...

      Federated learning (FL) allows AI models to be trained without sharing the client's data to the central server. Most federated learning approaches were developed with an assumption that all clients have similar data distributions. However, the assumption is not generally acceptable. Most clients collect data samples in different environments, which means that each client may have a dataset from different domain. Since clients do not share their data, it is hard to build up the central model which can generate multi-source domains by previous FL approaches.
      We try to solve this problem by separate learning of common features of all clients from local features of clients.
      We propose Federated Discriminative Ensemble (FedDE) to generalize multi-source domains in federated learning. The framework of our approach is similar to federated averaging.
      However, client models are composed of two parts: a common model and a local modifier. The common model parts are sent to the server and averaged. Each client has their own local modifier which are combined with the common model in each client, but is not sent to the server. Clients train both parts using their own datasets with adversarial training, so that their common part is not much updated. Through this mechanism, we can effectively separate common features from client dependent feature, and generate the model which can increase the performance of both unseen domains and each source domains.
      Through extensive experiments on various datasets, FedDE shows superior performance and efficiency compared to previous methods in the unseen and source domains.

      더보기

      목차 (Table of Contents)

      • 목차
      • 제1장 서론.................................................................................1
      • 1. 연구 목적 및 배경....................................................................................................................1
      • 2. 구성...............................................................................................................................................5
      • 목차
      • 제1장 서론.................................................................................1
      • 1. 연구 목적 및 배경....................................................................................................................1
      • 2. 구성...............................................................................................................................................5
      • 제2장 관련 연구........................................................................6
      • 1. 연합학습......................................................................................................................................6
      • 2. 도메인 일반화............................................................................................................................9
      • 제3장 제안 기법.......................................................................11
      • 1. 연합 도메인 일반화의 문제.................................................................................................11
      • 2. 기법의 동기..............................................................................................................................12
      • 3. 훈련 과정..................................................................................................................................14
      • 4. 추론 과정..................................................................................................................................21
      • 제4장 실험 및 결과.................................................................23
      • 1. 실험 환경..................................................................................................................................23
      • 2. 보지 못한 도메인 실험 결과...............................................................................................25
      • 3. 소스 도메인 실험 결과.........................................................................................................27
      • 3. Non-IID 실험 결과................................................................................................................29
      • 4. 종류별 실험..............................................................................................................................31
      • 제5장 결론...............................................................................36
      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼