RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      Zero-Shot 기반 기계번역 품질 예측 연구

      한글로보기

      https://www.riss.kr/link?id=A107934997

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      최근 다언어모델(Cross-lingual language model)을 활용하여 한 번도 보지 못한 특정 언어의 하위 태스크를 수행하는 제로샷 교차언어 전이(Zero-shot cross-lingual transfer)에 대한 관심이 증가하고 있다. ...

      최근 다언어모델(Cross-lingual language model)을 활용하여 한 번도 보지 못한 특정 언어의 하위 태스크를 수행하는 제로샷 교차언어 전이(Zero-shot cross-lingual transfer)에 대한 관심이 증가하고 있다. 본 논문은 기계번역 품질 예측(Quality Estimation, QE)을 학습하기 위한 데이터 구축적 측면에서의 한계점을 지적 하고, 데이터를 구축하기 어려운 상황에서도 QE를 수행할 수 있도록 제로샷 교차언어 전이를 수행한다. QE에서 제로샷을 다룬 연구는 드물며, 본 논문에서는 교차언어모델을 활용하여 영어-독일어 QE 데이터에 대해 미세조정을 실시한 후 다른 언어쌍으로의 제로샷 전이를 진행했고 이 과정에서 다양한 다언어모델을 활용하여 비교 연구를 수행했다. 또한 다양한 자원 크기로 구성된 언어쌍에 대해 제로샷 실험을 진행하고 실험 결과에 대해 언어별 언어 학적 특성 관점으로의 분석을 수행하였다. 실험결과 multilingual BART와 multillingual BERT에서 가장 높은 성능을 보였으며, 특정 언어쌍에 대해 QE 학습을 전혀 진행하지 않은 상황에서도 QE를 수행할 수 있도록 유도하였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      Recently, there has been a growing interest in zero-shot cross-lingual transfer, which leverages cross-lingual language models (CLLMs) to perform downstream tasks that are not trained in a specific language. In this paper, we point out the limitations...

      Recently, there has been a growing interest in zero-shot cross-lingual transfer, which leverages cross-lingual language models (CLLMs) to perform downstream tasks that are not trained in a specific language. In this paper, we point out the limitations of the data-centric aspect of quality estimation (QE), and perform zero-shot cross-lingual transfer even in environments where it is difficult to construct QE data. Few studies have dealt with zero-shots in QE, and after fine-tuning the English-German QE dataset, we perform zero-shot transfer leveraging CLLMs. We conduct comparative analysis between various CLLMs. We also perform zero-shot transfer on language pairs with different sized resources and analyze results based on the linguistic characteristics of each language. Experimental results showed the highest performance in multilingual BART and multillingual BERT, and we induced QE to be performed even when QE learning for a specific language pair was not performed at all.

      더보기

      목차 (Table of Contents)

      • 요약
      • Abstract
      • 1. 서론
      • 2. 관련 연구
      • 2.1 제로샷 전이 학습(Zero-shot transfer learning)
      • 요약
      • Abstract
      • 1. 서론
      • 2. 관련 연구
      • 2.1 제로샷 전이 학습(Zero-shot transfer learning)
      • 2.2 기계번역 품질 예측 (Quality Estimation)
      • 3. Zero-Shot기반 기계번역 품질예측 모델
      • 4. 실험
      • 4.1 데이터
      • 4.2 다언어모델
      • 4.3 실험 결과
      • 5. 결론
      • REFERENCES
      더보기

      참고문헌 (Reference)

      1 어수경, "최신 기계번역 품질 예측 연구" 한국융합학회 12 (12): 37-44, 2021

      2 문현석, "병렬 말뭉치 필터링을 적용한 Filter-mBART기반 기계번역 연구" 한국융합학회 12 (12): 1-7, 2021

      3 Z. Chi, "mT6 : Multilingual Pretrained Text-to-Text Transformer with Translation Pairs"

      4 L. Zhou, "Zero-shot translation quality estimation with explicit cross-lingual patterns"

      5 G. Campagna, "Zero-shot transfer learning with synthesized data for multi-domain dialogue state tracking"

      6 G. Chen, "Zero-shot Cross-lingual Transfer of Neural Machine Translation with Multilingual Pretrained Encoders"

      7 J. Hu, "Xtreme : A massively multilingual multi-task benchmark for evaluating cross-lingual generalisation" 4411-4421, 2020

      8 A. Conneau, "Unsupervised cross-lingual representation learning at scale"

      9 R. N. Patel., "Translation quality estimation using recurrent neural network"

      10 T. Ranasinghe, "TransQuest at WMT2020 : Sentence-Level Direct Assessment"

      1 어수경, "최신 기계번역 품질 예측 연구" 한국융합학회 12 (12): 37-44, 2021

      2 문현석, "병렬 말뭉치 필터링을 적용한 Filter-mBART기반 기계번역 연구" 한국융합학회 12 (12): 1-7, 2021

      3 Z. Chi, "mT6 : Multilingual Pretrained Text-to-Text Transformer with Translation Pairs"

      4 L. Zhou, "Zero-shot translation quality estimation with explicit cross-lingual patterns"

      5 G. Campagna, "Zero-shot transfer learning with synthesized data for multi-domain dialogue state tracking"

      6 G. Chen, "Zero-shot Cross-lingual Transfer of Neural Machine Translation with Multilingual Pretrained Encoders"

      7 J. Hu, "Xtreme : A massively multilingual multi-task benchmark for evaluating cross-lingual generalisation" 4411-4421, 2020

      8 A. Conneau, "Unsupervised cross-lingual representation learning at scale"

      9 R. N. Patel., "Translation quality estimation using recurrent neural network"

      10 T. Ranasinghe, "TransQuest at WMT2020 : Sentence-Level Direct Assessment"

      11 R. Soricut, "The SDL language weaver systems in the WMT12 quality estimation shared task" 145-151, 2012

      12 C. Park, "Should we find another model? : Improving Neural Machine Translation Performance with ONE-Piece Tokenization Method without Model Modification" 97-104, 2021

      13 C. Park, "Quality, not quantity? : Effect of parallel corpus quantity and quality on neural machine translation" 363-368, 2020

      14 L. Specia, "QuEst-A translation quality estimation framework" 79-84, 2013

      15 H. Kim, "QE BERT : bilingual BERT using multi-task learning for neural quality estimation" 3 : 85-89, 2019

      16 H. Kim, "Predictor-estimator using multilevel task learning with stack propagation for neural quality estimation" 562-568, 2017

      17 Y. Liu, "Multilingual denoising pre-training for neural machine translation" 8 : 726-742, 2020

      18 Lucia Specia, "Machine translation evaluation versus quality estimation" Springer Science and Business Media LLC 24 (24): 39-50, 2010

      19 S. Banerjee, "METEOR : An automatic metric for MT evaluation with improved correlation with human judgments" 65-72, 2005

      20 M. Wang, "Hw-tsc’s participation at wmt 2020 quality estimation shared task" 1056-1061, 2020

      21 T. Wolf, "Huggingface's transformers : State-of-the-art natural language processing"

      22 T. Pires, "How multilingual is multilingual BERT?"

      23 A. Lauscher, "From zero to hero : On the limitations of zero-shot cross-lingual transfer with multilingual transformers"

      24 Chanjun Park, "Decoding Strategies for Improving Low-Resource Machine Translation" MDPI AG 9 (9): 1562-, 2020

      25 S. Eo, "Dealing with the Paradox of Quality Estimation" 1-10, 2021

      26 D. Lee., "Cross-lingual transformers for neural automatic post-editing" 772-776, 2020

      27 Z. Chi, "Cross-lingual natural language generation via pre-training" 7570-7577, 2020

      28 G. Lample, "Cross-lingual language model pretraining"

      29 Sugyeong Eo, "Comparative Analysis of Current Approaches to Quality Estimation for Neural Machine Translation" MDPI AG 11 (11): 6584-, 2021

      30 K. Papineni, "Bleu : a method for automatic evaluation of machine translation" 311-318, 2002

      31 J. Devlin, "Bert : Pre-training of deep bidirectional transformers for language understanding"

      32 C. Park, "BTS : Back TranScription for Speech-to-Text Post-Processor using Text-to-Speech-to-Text" 106-116, 2021

      33 Kashif Shah, "A Bayesian non-linear method for feature selection in machine translation quality estimation" Springer Science and Business Media LLC 29 (29): 101-125, 2015

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2025 평가예정 신규평가 신청대상 (신규평가)
      2022-06-01 평가 등재학술지 취소
      2019-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2014-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 5.85 5.85 0
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0 0 0 0.76
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼