RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI우수등재

        효율적인 자동 주석을 위한 단어 임베딩 인공 신경 정리 증명계 구축

        양원석(Wonsuk Yang),박한철(Hancheol Park),박종철(Jong C. Park) 한국정보과학회 2017 정보과학회논문지 Vol.44 No.4

        본 연구는 전문기관에서 생산되는 검증된 문서의 정보를 웹상의 수많은 검증되지 않은 문서에 자동 주석하여 신뢰도를 향상하고 심화 정보를 추가하는 시스템을 제안한다. 제안하는 시스템은 국가암정보센터의 검증된 문서들에서 추출한 19,304개 명제를 위키피디아 암 관련 문서에서 추출한 1,486개 명제에 주석하는 과제를 수행하기 위해, 기존 인공 신경 정리 증명계의 순환 모듈을 단어 임베딩 모듈로 교체하였다. 이를 통해 기존의 근본적인 문제점이었던 학습 시간 문제를 해결하였고, 동일한 환경에서 기존 시스템의 학습 시간이 233.9일로 추정된 것에 비해 재구축한 시스템은 102.1분 내로 학습이 완료되었다. 제안하는 시스템의 장점은 명제를 텐서로 인코딩하여 미분 가능하게 전체적인 연산을 진행하는 인공 신경 정리 증명계가 단어의 정확한 일치를 파악하는 전통적인 정리 증명계를 포함하며 동시에 유사어 관계로부터의 논리 전개 역시 가능하게 한다는 점을 실제 문서 데이터에서 입증했다는 것이다. We present a system that automatically annotates unverified Web sentences with information from credible sources. The system turns to neural theorem proving for an annotating task for cancer related Wikipedia data (1,486 propositions) with Korean National Cancer Center data (19,304 propositions). By switching the recursive module in a neural theorem prover to a word embedding module, we overcome the fundamental problem of tremendous learning time. Within the identical environment, the original neural theorem prover was estimated to spend 233.9 days of learning time. In contrast, the revised neural theorem prover took only 102.1 minutes of learning time. We demonstrated that a neural theorem prover, which encodes a proposition in a tensor, includes a classic theorem prover for exact match and enables end-to-end differentiable logic for analogous words.

      • 뉴스 사설에 대한 문장 단위의 다차원 신뢰도 주석을 통한 신뢰도 코퍼스 구축

        양원석(Wonsuk Yang),김정호(Jung-Ho Kim),정진우(Jin-Woo Chung),박종철(Jong C. Park) 한국HCI학회 2019 한국HCI학회 학술대회 Vol.2019 No.2

        문서의 신뢰도 및 설득력에 대한 언어학적 분석을 위한 다양한 종류의 코퍼스 구축이 있어왔지만, 아직 문서 형태의 텍스트에 대한 문장 단위의 신뢰도 주석이 진행된 적은 없다. 본 연구는 문장 단위의 신뢰도 주석을 위해 인지성(Awareness), 검증성(Verifiability), 논란성(Disputability), 수용성(Acceptance), 신뢰성(Credibility)에 해당하는 5 개의 신뢰도 관련 지표를 제안하였고, 이에 따라 3,431 개의 문장 단위 주석을 수행하였다. 본 연구를 통해 구축한 코퍼스는 인지성을 제외한 4 개의 지표간 상관관계가 언어학적 직관에 일치하는 특징을 보였으며 다차원적인 신뢰도 주석을 통해 독자의 신뢰라는 개념에 대하여 보다 심층적인 이해를 가져올 것으로 기대한다. 또한 상품 신뢰 가능성의 자동 판단, 소비 의사 확인 및 증진, 문서 신뢰도 증강을 위한 자동 첨삭 등을 목적으로 독해과정에서의 신뢰 양태 변화에 대한 예측 모델을 구축하는 과정에 높은 활용성을 보일 것으로 기대한다.

      • TEA: 문장의 함의성이 수용성의 변화에 미치는 영향

        지준섭(Junseop Ji),양원석(Wonsuk Yang),박종철(Jong C. Park) 한국HCI학회 2020 한국HCI학회 학술대회 Vol.2020 No.2

        문장의 수용성과 설득력에 대한 분석은 논증 품질에 대한 심층 연구를 위해 필수적이며, 컴퓨터 보조작문의 중요한 축을 이룬다. 그런데 특정 문장이 참(True)인지 판별하는 문장의 수용성 개념은 문장 사이의 함의 관계와 밀접한 연관성이 있다. 그러나 함의 관계와 수용성의 연관성에 대한 실험적 관찰은 지금까지 없었다. 본 연구에서는 문장 쌍 단위의 함의 관계 주석 및 문장 단위의 수용성 주석을 위해 뉴스기사에서 문장을 추출하였고, 이 결과 총 1399 개의 수용성 주석과 총 420 개의 함의 관계 주석을 확보하였다. 그리고 이를 통해 문장 사이의 함의 관계와 수용성이 서로 밀접한 관계가 있음을 발견하였다. 그러나 동시에 문장 사이의 함의 관계가 수용성을 결정하는 단독 결정 요인이 아니라는 점 역시 확인하였다. 본 연구는 이에 대한 심층 분석을 제공한다.

      • KCI우수등재

        사전 학습된 한국어 언어 모델의 보정

        정소영(Soyeong Jeong),양원석(Wonsuk Yang),박채훈(ChaeHun Park),박종철(Jong C. Park) 한국정보과학회 2021 정보과학회논문지 Vol.48 No.4

        심층 학습 모델의 발전은 컴퓨터 비전, 자연언어 이해 문제들에서 인간을 뛰어넘는 성능을 보이고 있다. 특히 트랜스포머 기반의 사전 학습 모델은 질의응답, 대화문과 같은 자연언어 이해 문제에서 최근 높은 성능을 보인다. 하지만 심층 학습 모델의 급격한 발전 양상에 비해, 이의 동작 방식은 상대적으로 잘 알려져 있지 않다. 심층 학습 모델을 해석하는 방법으로 모델의 예측 값과 실제 값이 얼마나 일치하는지를 측정하는 모델의 보정이 있다. 본 연구는 한국어 기반의 사전 학습된 심층 학습 모델의 해석을 위해 모델의 보정을 수행했다. 그리고 사전 학습된 한국어 언어 모델이 문장이 내포하는 애매성을 잘 파악하는지의 여부를 확인하고, 완화 기법들을 적용하여 문장의 애매성을 확신 수준을 통해 정량적으로 출력할 수 있도록 했다. 또한 한국어의 문법적 특징으로 인한 문장의 의미 변화를 모델 보정 관점에서 평가하여 한국어의 문법적 특징을 사전 학습된 언어 모델이 잘 이해하고 있는지를 정량적으로 확인했다. The development of deep learning models has continuously demonstrated performance beyond humans reach in various tasks such as computer vision and natural language understanding tasks. In particular, pre-trained Transformer models have recently shown remarkable performance in natural language understanding problems such as question answering (QA) tasks and dialogue tasks. However, despite the rapid development of deep learning models such as Transformer-based models, the underlying mechanisms of action remain relatively unknown. As a method of analyzing deep learning models, calibration of models measures the extent of matching of the predicted value of the model (confidence) with the actual value (accuracy). Our study aims at interpreting pre-trained Korean language models based on calibration. In particular, we have analyzed whether pre-trained Korean language models can capture ambiguities in sentences and applied the smoothing methods to quantitatively measure such ambiguities with confidence. In addition, in terms of calibration, we have evaluated the capability of pre-trained Korean language models in identifying grammatical characteristics in the Korean language, which affect semantic changes in the Korean sentences.

      • 분산 표상 기법을 이용한 단어의 비표준 의미 사용 탐지

        이희제(Huije Lee),박한철(Hancheol Park),양원석(Wonsuk Yang),박종철(Jong C. Park) 한국HCI학회 2018 한국HCI학회 학술대회 Vol.2018 No.1

        본 연구에서는 분산 표상 기법으로 텍스트에서 사전상의 의미로 사용되지 않은 어휘(이하, 비표준의미 어휘)를 탐지하는 모델을 제안한다. 어휘의 어형은 동일하나 비표준 의미로 사용되는 경우를 판단하는 것은 자동화된 텍스트 분석 및 오역의 문제를 해결하는 데 중요한 요소이다. 본 연구에서는 분산 표상기법으로 생성된 문맥 및 대상 단어 벡터를 이용하여, 대상 단어가 주어진 문맥 내에서 적합한지를 검증하고 대상 단어가 비표준 의미로 사용되었는지 여부를 판단한다. 본 연구에서는 기존 연구에서의 문맥 벡터생성 방식이 지니는 문제점을 해결하기 위해, 통합적인 문맥 정보를 표상하는 방법과 문맥 내 단어들의 가중치를 주는 방법을 제안한다. 제안하는 방법은 트위터 데이터를 이용한 실험에서 기존에 제안된 모델보다 더 높은 성능을 보였다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼