RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      Improving BERT-based Sentiment Analysis Model using Graph-based Ranking Mechanism

      한글로보기

      https://www.riss.kr/link?id=A107273589

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      문서 처리의 자동화에 대한 필요성이 대두됨에 따라 인공지능을 통한 자연어 처리(Natural Language Processing) 분야에서 연구가 활발하게 진행되고 있다. 본 연구에서는 자연어 처리 분야 중 특히 ...

      문서 처리의 자동화에 대한 필요성이 대두됨에 따라 인공지능을 통한 자연어 처리(Natural Language Processing) 분야에서 연구가 활발하게 진행되고 있다. 본 연구에서는 자연어 처리 분야 중 특히 감정분석(Sentiment Analysis) 분야에서 그래프 기반의 순위화 메커니즘을 통해 추출한 형태소, 또는 요약 기반의 벡터인 GRAB vector(GRAph-Based vector)를 제안하고 이를 통해 기존의 BERT(Bidirectional Embedding Representations from Transformers)모델에 적용한다. 이를 통하여 더욱 강인하고 성능이 향상된 GRAB-BERT 모델을 제안한다. 또한, GRAB vector가 모델에 미치는 영향을 분석하기 위하여 재귀적 인공신경망(Recurrent Neural Network) 기반 모델들과 BERT 기반 모델에 시퀀스 입력 길이를 각각 다르게 학습한 경우 GRAB vector의 적용 여부에 따른 성능을 한국어와 영어에 대하여 분석한다. 결과적으로 형태소 단위로 추출된 벡터가 BERT와 같은 병렬적으로 문자를 처리하는 모델의 경우, 더욱 강인한 학습이 가능하며 성능이 향상됨을 보인다. 추가로, BERT 기반의 모델과 반대로 재귀적 인공신경망 기반모델들의 경우 형태소 기반이 아닌 그래프 기반 요약문 추출을 통한 벡터를 적용한 경우가 더 효과적임을 보인다.

      더보기

      다국어 초록 (Multilingual Abstract)

      Due to the need for automated document processing, artificial intelligence research has been actively conducted in the field of natural language processing(NLP). In this paper, we propose the GRAB vector(GRAph-Based vector), which consists of vectoriz...

      Due to the need for automated document processing, artificial intelligence research has been actively conducted in the field of natural language processing(NLP). In this paper, we propose the GRAB vector(GRAph-Based vector), which consists of vectorized keyword-based morphemes or summaries extracted from the graph-based ranking mechanism. Next, we applied the GRAB vector to the sentiment analysis task, which is an NLP task, and we proposed a more accurate and robust model, GRAB-BERT(GRAB vector-BERT model). Then, to analyze the effect of the GRAB vector on this model, we compared the performances of recurrent neural network models(RNNs) and BERT models with or without the application of the GRAB vector on both English and Korean text samples with different sequence sizes. Our results demonstrate that applying the GRAB vector to models such as BERT to process inputs in parallel improves the robustness of the model and its performance. Furthermore, unlike BERT-based models, RNN models are more effective when applying graph-based extracted summaries than when applying morpheme-based summaries.

      더보기

      목차 (Table of Contents)

      • 요약
      • Abstract
      • 1. Introduction
      • 2. Theoretical Background and Related Works
      • 3. GRAB Model Architecture
      • 요약
      • Abstract
      • 1. Introduction
      • 2. Theoretical Background and Related Works
      • 3. GRAB Model Architecture
      • 4. Datasets
      • 5. Experiments
      • 6. Conclusions
      • References
      더보기

      참고문헌 (Reference)

      1 황상흠, "한국어 기술문서 분석을 위한 BERT 기반의 분류모델" 한국전자거래학회 25 (25): 203-214, 2020

      2 L. Page, "The PageRank citation ranking: Brining order to the web"

      3 R. Mihalcea, "Textrank: Bringing order into text" 404-411, 2004

      4 M. Abadi, "Tensorflow: Large-Scale Machine Learning on Heterogeneous Ststem"

      5 A. Paszke, "PyTorch: An Imperative Style, High-Performance Deep Learning Library" 9015-, 2019

      6 L. Park, "Naver sentiment movie corpus v1.0"

      7 K. Shim, "Mach: A supersonic korean morphological analyzer" 2002

      8 S. Hochreiter, "Long short-term Memory" 9 (9): 1735-1780, 1997

      9 A. Mass, "Learning word vectors for sentiment analysis" 142-150, 2011

      10 E. Kim, "KoNLPy: Korean natural language processing in Python" 1-4, 2014

      1 황상흠, "한국어 기술문서 분석을 위한 BERT 기반의 분류모델" 한국전자거래학회 25 (25): 203-214, 2020

      2 L. Page, "The PageRank citation ranking: Brining order to the web"

      3 R. Mihalcea, "Textrank: Bringing order into text" 404-411, 2004

      4 M. Abadi, "Tensorflow: Large-Scale Machine Learning on Heterogeneous Ststem"

      5 A. Paszke, "PyTorch: An Imperative Style, High-Performance Deep Learning Library" 9015-, 2019

      6 L. Park, "Naver sentiment movie corpus v1.0"

      7 K. Shim, "Mach: A supersonic korean morphological analyzer" 2002

      8 S. Hochreiter, "Long short-term Memory" 9 (9): 1735-1780, 1997

      9 A. Mass, "Learning word vectors for sentiment analysis" 142-150, 2011

      10 E. Kim, "KoNLPy: Korean natural language processing in Python" 1-4, 2014

      11 F. Chollet, "Keras"

      12 A. See, "Get to the point:Summarization with pointer-generator networks"

      13 J. Chung, "Empirical evaluation of gated recurrent neural networks on sequence modeling"

      14 J. Devlin, "Bert: Pre-training of deep bidirectional tranformers for language undersatnding"

      15 A. Vaswani, "Attention is all you need" 5998-6008, 2017

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2022 평가예정 재인증평가 신청대상 (재인증)
      2019-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2016-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2015-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2014-09-16 학술지명변경 한글명 : 정보과학회논문지 : 컴퓨팅의 실제 및 레터 -> 정보과학회 컴퓨팅의 실제 논문지
      외국어명 : Journal of KIISE : Computing Practices and Letters -> KIISE Transactions on Computing Practices
      KCI등재
      2013-04-26 학술지명변경 외국어명 : Journal of KISS : Computing Practices and Letters -> Journal of KIISE : Computing Practices and Letters KCI등재
      2011-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2009-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-10-02 학술지명변경 한글명 : 정보과학회논문지 : 컴퓨팅의 실제 -> 정보과학회논문지 : 컴퓨팅의 실제 및 레터
      외국어명 : Journal of KISS : Computing Practices -> Journal of KISS : Computing Practices and Letters
      KCI등재
      2007-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2005-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2002-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.29 0.29 0.27
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.24 0.21 0.503 0.04
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼