RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • XML 전자서명과 암호화를 이용한 전자투표 시스템

        김유희(Euhee Kim),홍영식(Young Sik Hong) 한국정보과학회 2004 한국정보과학회 학술발표논문집 Vol.31 No.2Ⅲ

        현존하고 있는 HTML(Hyper Text Markup Language) 기반 인터넷 전자투표 시스템의 대안으로 웹 환경에서 XML(Xtensible Markup Language) 표준기술을 이용하여 이기종간의 시스템에서 동작가능하고 HTML의 구조적 단점을 보완하며 전자투표와 관련한 데이터를 XML로 저장하고, 표준화된 XML문서 인증과 데이터 무결성, 기밀성, 송신 부인봉쇄 등의 보안 서비스를 제공할 뿐만 아니라 부분 서명과 암호화가 가능하며 구현 측면에 있어서 편리함을 제공할 수 있는 XML 기반의 전자투표 시스템을 설계한다.

      • KCI등재

        The Unsupervised Learning-based Language Modeling of Word Comprehension in Korean

        Euhee Kim(김유희) 한국컴퓨터정보학회 2019 韓國컴퓨터情報學會論文誌 Vol.24 No.11

        본 연구는 비지도 기계학습 기술과 코퍼스의 각 단어를 이용하여 한국어 단어를 형태소 분석하는 언어 모델을 구축하는데 목적을 둔다. 그리고 이 언어 모델의 단어 형태소 분석의 결과와 언어 심리실험결과에서 얻은 한국어 언어사용자의 단어 이해/판단 시간이 상관관계을 갖는지를 규명하고자 한다. 논문에서는 한국어 세종코퍼스를 언어 모델로 학습하여 형태소 분리 규칙을 통해 한국어 단어를 자동 분리하는데 발생하는 단어 정보량(즉, surprisal(놀라움) 정도)을 측정하여 실제 단어를 읽는데 걸리는 반응 시간과 상관이 있는지 분석하였다. 이를 위해 코퍼스에서 단어에 대한 형태 구조 정보를 파악하기 위해 Morfessor 알고리즘을 적용하여 단어의 하위 단위 분리와 관련한 문법/패턴을 추출하고 형태소를 분석하는 언어 모델이 예측하는 정보량과 반응 시간 사이의 상관관계를 알아보기 위하여 선형 혼합 회귀(linear mixed regression) 모형을 설계하였다. 제안된 비지도 기계학습의 언어 모델은 파생단어를 d-형태소로 분석해서 파생단어의 음절의 형태로 처리를 하였다. 파생단어를 처리하는 데 필요한 사람의 인지 노력의 양 즉, 판독 시간 효과가 실제로 형태소 분류하는 기계학습 모델에 의한 단어 처리/이해로부터 초래될 수 있는 놀라움과 상관함을 보여 주었다. 본 연구는 놀라움의 가설 즉, 놀라움 효과는 단어 읽기 또는 처리 인지 노력과 관련이 있다는 가설을 뒷받침함을 확인하였다. We are to build an unsupervised machine learning-based language model which can estimate the amount of information that are in need to process words consisting of subword-level morphemes and syllables. We are then to investigate whether the reading times of words reflecting their morphemic and syllabic structures are predicted by an information-theoretic measure such as surprisal. Specifically, the proposed Morfessor-based unsupervised machine learning model is first to be trained on the large dataset of sentences on Sejong Corpus and is then to be applied to estimate the information-theoretic measure on each word in the test data of Korean words. The reading times of the words in the test data are to be recruited from Korean Lexicon Project (KLP) Database. A comparison between the information-theoretic measures of the words in point and the corresponding reading times by using a linear mixed effect model reveals a reliable correlation between surprisal and reading time. We conclude that surprisal is positively related to the processing effort (i.e. reading time), confirming the surprisal hypothesis.

      • KCI등재

        Probing Sentence Embeddings in L2 Learners’ LSTM Neural Language Models Using Adaptation Learning

        Euhee Kim(김유희) 한국컴퓨터정보학회 2022 韓國컴퓨터情報學會論文誌 Vol.27 No.3

        Prasad et al.는 사전학습(pre-trained)한 신경망 L1 글로다바(Gulordava) 언어모델을 여러 유형의 영어관계절과 등위절 문장들로 적응 학습(adaptation learning)시켜 문장 간 유사성(sentence similarity)을 평가할 수 있는 통사 프라이밍(syntactic priming)-기반 프로빙 방법((probing method)을 제안했다. 본 논문에서는 한국인 영어학습자가 배우는 영어 자료를 바탕으로 훈련된 L2 LSTM 신경망 언어 모델의 영어 관계절 혹은 등위절 구조의 문장들에 대한 임베딩 표현 방식을 평가하기 위하여 프로빙 방법을 적용한다. 프로빙 실험은 사전 학습한 LSTM 언어 모델을 기반으로 추가로 적응 학습을 시킨 LSTM 언어 모델을 사용하여 문장 임베딩 벡터 표현의 통사적 속성을 추적한다. 이 프로빙 실험을 위한 데이터셋은 문장의 통사 구조를 생성하는 템플릿을 사용하여 자동으로 구축했다. 특히, 프로빙 과제별 문장의 통사적 속성을 분류하기 위해 통사 프라이밍을 이용한 언어 모델의 적응 효과(adaptation effect)를 측정했다. 영어 문장에 대한 언어 모델의 적응 효과와 통사적 속성 관계를 복합적으로 통계분석하기 위해 선형 혼합효과 모형(linear mixed-effects model) 분석을 수행했다. 제안한 L2 LSTM 언어 모델이 베이스라인 L1 글로다바 언어모델과 비교했을 때, 프로빙 과제별 동일한 양상을 공유함을 확인했다. 또한 L2 LSTM 언어 모델은 다양한 관계절 혹은 등위절이 있는 문장들을 임베딩 표현할 때 관계절 혹은 등위절 세부 유형별로 통사적 속성에 따라 계층 구조로 구분하고 있음을 확인했다. In this study we leveraged a probing method to evaluate how a pre-trained L2 LSTM language model represents sentences with relative and coordinate clauses. The probing experiment employed adapted models based on the pre-trained L2 language models to trace the syntactic properties of sentence embedding vector representations. The dataset for probing was automatically generated using several templates related to different sentence structures. To classify the syntactic properties of sentences for each probing task, we measured the adaptation effects of the language models using syntactic priming. We performed linear mixed-effects model analyses to analyze the relation between adaptation effects in a complex statistical manner and reveal how the L2 language models represent syntactic features for English sentences. When the L2 language models were compared with the baseline L1 Gulordava language models, the analogous results were found for each probing task. In addition, it was confirmed that the L2 language models contain syntactic features of relative and coordinate clauses hierarchically in the sentence embedding representations.

      • KCI등재
      • KCI등재

        The Relation between Working-memory Capacity and Island Effects

        Euhee Kim(김유희),Myung-Kwan Park(박명관) 언어과학회 2016 언어과학연구 Vol.0 No.79

        In this paper we report three experiments designed to test one of the premises of the WM-based processing analysis: that the strength of island effects should vary as a function of individual differences in WM capacity. Adopting the methodology that Sprouse, Wagers, and Phillips (2012a) use for L1 speakers, we tested forty Korean learners of English on four different island-effect types by employing the acceptability rating task and two different measures of WM capacity involving reading span and n- back. Applying several statistical analysis techniques we find no evidence of a statistically significant relation between WM capacity and island effects. These results indicate that island effects evident even for L2 learners are more likely to be attributed to grammatical constraints than to limited processing resources.

      • KCI등재

        탭 패턴 유사도를 이용한 사용자 맞춤형 즐겨찾기 스마트 폰 UX/UI개발

        영빈(Yeongbin Kim),곽문상(Moon-Sang Kwak),김유희(Euhee Kim) 한국컴퓨터정보학회 2014 韓國컴퓨터情報學會論文誌 Vol.19 No.8

        본 논문에서는 화면터치에 따른 탭 동작을 패턴 화하여 인식할 수 있는 UX/UI와 탭 패턴인식 알고리즘을 설계하여 사용자 맞춤형 즐겨찾기 애플리케이션 구현을 하였다. 스마트 폰 사용자가 입력패드에 손가락으로 탭 하는 동작들을 패턴으로 생성하고, 이 탭 패턴에 스마트 폰에서 사용자가 즐겨 사용하는 서비스를 설정할 수 있도록 한다. 사용자가 입력패드를 이용하여 탭 패턴을 입력했을 때, 탭 패턴 유사도를 측정하여 등록된 탭 패턴과 유사하면 설정된 스마트 폰의 서비스 기능을 수행한다. 실험을 통해 제안한 방법이 사용자 편의성을 고려한 다양한 형태의 탭 패턴에 대하여 높은 인식률과 입력 종료 후의 지연 시간 단축을 보장함을 보여주었다. In this paper, we design a smart phone UX/UI and a tap pattern recognition algorithm that can recognize tap patterns from a tapping user's fingers on the screen, and implement an application that provides user-customizable smart phones's services from the tap patterns. A user can generate a pattern by tapping the input pad several times and register it by using a smart phone's favorite program. More specifically, when the user inputs a tap pattern on the input pad, the proposed application searches a stored similar tap pattern and can run a service registered on it by measuring tap pattern similarity. Our experimental results show that the proposed method helps to guarantee the higher recognition rate and shorter input time for a variety of tap patterns.

      • KCI등재

        언어 학습자로서의 신경망 언어모델: 영어 주어-동사 일치를 중심으로

        정원일 ( Chung Wonil ),김유희 ( Kim Euhee ),박명관 ( Park Myung-kwan ) 서강대학교 언어정보연구소 2021 언어와 정보 사회 Vol.44 No.-

        This paper assesses the language-processing ability of the neural language model (L2-GPT-2) trained on data sets of English textbooks published in Korea using the Generative Pre-trained Transformer (GPT)-2. Assuming that the language model (LM) is also an (artificial) language learner, we test it focusing on subject-verb agreement in English. It is a well-established fact that L1 speakers exhibit facilitatory interference effects in ungrammatical sentences with a plural subject and a singular form of verb. Unlike human native speakers, L2-GPT-2 as well as L1-GPT-2 display such effects in ungrammatical sentences either with a plural subject and a singular form of verb, or with a singular subject and a plural form of verb. Though there is a significant difference between human speakers and neural LMs in processing subject-verb agreement, the two LMs’ sensitivity to interference by a distractor NP points to the fact that they can attain a remarkably human-like linguistic generalization on subject-verb agreement.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼