http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
김경열 ( Kyungy-yeul Kim ),양영보 ( Cheol-soo Kim ),김미라 ( Mi-ra Kim ),박지수 ( Ji Su Park ),김지희 ( Jihie Kim ) 한국정보처리학회 2022 한국정보처리학회 학술대회논문집 Vol.29 No.1
청소년의 성격유형을 분석할 때 소셜미디어 데이터를 활용하여 텍스트 처리로 분석하는 연구는 많이 알려져 있다. 그러나 이미지를 사용하여 성격유형을 분석한 연구는 미비하다. 본 연구는 청소년의 발테그 그림검사로 표현된 이미지를 데이터로 사용하고, CNN을 활용하여 MMTIC의 16가지 청소년의 성격유형을 예측한다. 연구 대상은 중학교 재학생을 대상으로 한다. MMTIC에서 U-band를 제외한 340명의 학생으로 2012년 4월부터 2013년 3월까지 조사하였다. 연구 결과 CNN을 사용하였을 때 21.6% 예측율을 보였으며, CNN Ensemble을 적용하였을 때 23.1%로 2.5%가 증가한다.
상대방 화자의 상태 문맥을 파악해 대화에서 화자의 감정을 인식하는 RNN 모델
임승욱(Seunguook Lim),김지희(Jihie Kim) 한국정보과학회 2021 정보과학회논문지 Vol.48 No.7
감정 분석은 인공지능 분야에서 지속적으로 관심을 받고 있는 주제이다. 본 연구에서는 RNN 모델을 통해 대화 내에서 발화를 통해 나타나는 특정 화자의 감정을 분석하고 파악한다. 대화(dialogue)에는 화자(speaker)를 두 가지 문맥 정보가 있는데, 하나는 해당 화자의 문맥 정보(self-dependency)이고 다른 하나는 해당화자와 상대방 화자 간의 문맥 정보(inter-speaker dependency)이다. 특히, 상대방 화자의 상태 문맥 정보가 현재 화자의 감정에 끼칠 수 있는 영향(inter-speaker dependency)을 고려하여 감정을 분석한다. 이를 위해, 기존의 DialogueRNN 모델에서 상대방의 상태 문맥을 파악할 수 있는 GRU(Gated Recurrent Unit) Cell을 하나 추가한 모델을 제안한다. 본 연구에서 제안하는 모델이 기존의 DialogueRNN 모델 및 3가지 변형 모델과 비교했을 때, 더 높은 성능을 보였다. Emotion recognition has increasingly received much attention in artificial intelligence, lately. In this paper, we present an RNN model that analyzes and identifies a speaker’s emotion appeared through utterances in conversation. There are two kinds of speaker considered context, self-dependency and inter-speaker dependency. In particular, we focus more on inter-speaker dependency by considering that the state context information of the relative speaker can affect the emotions of the current speaker. We propose a DialogueRNN based model that adds a new GRU Cell for catching inter-speaker dependency. Our model shows higher performance than the performances of DialogueRNN and its three variants on multiple emotion classification datasets.
한국어 노래 음성 합성을 위한 웹 서비스 개발 및 연구
박지은(Jieun Park),김지희(Jihie Kim) 한국정보기술학회 2022 한국정보기술학회논문지 Vol.20 No.1
Recently, video content production has become more active, and there have been many demands for voice synthesis, such as cover song production, as well as dubbing and narration, which explain subtitles of video with desired voices. In this paper, a platform that allows users to experience various types of services in various voice options is presented. In the Proof of Concept that we developed, the Text To Speech was produced using Generative Flow for Text-to-Speech (Glow-TTS) and Generative Adversarial Networks for Efficient and High Fidelity Speech Synthesis (HIFI-GAN) and the Singing Voice Synthesis was generated with a parallel Korean singing voice synthesis system (MLP-Singer) and HIFI-GAN. Frontend, backend, and web server were built on the docker container. The service is provided as a website, and when the server gets a request, the voice synthesis result can be printed and used through voice file download. In this study, the overall system structure and implementation method for producing a voice synthesis platform were presented, and a method for additional supplementation and service was provided.
사이버 강의 수강자의 학습 행동 및 패턴에 따른 성취도 연구
이수민(Sumin Lee),김지희(Jihie Kim) 한국HCI학회 2021 한국HCI학회 학술대회 Vol.2021 No.1
2019년 발생한 코로나-19로 인하여 많은 학교가 수업을 비대면 사이버 강의로 전환하였다. 본 논문은 이러한 비대면 사이버 강의에 대한 수강생의 행동 패턴을 분석하고, 그 패턴에 따른 학업성취도의 관계를 분석하였다. T-Test 함수를 사용하기 충분한 인원이 갖춰진 수업에 대하여 지각이 잦은 수강자들에 비해 적은 수강자들 집단의 성취도가 더 높았으며, 수업 중 채팅 참여도가 높은 학생일수록 전체적으로 학점의 추이가 더 높게 나타났다. 이러한 연구를 통하여 사이버 강의 시스템에서 제공하는 다양한 기능에 대한 추후 개선 방안과 수업 성취도에 대한 추가적인 연구 사항을 고려할 예정이다.
일반 상식 기반 기계 독해를 위한 Type-specific 다중 헤드 공유 인코더 모델
채진영(Jinyeong Chae),김지희(Jihie Kim) 한국정보과학회 2023 정보과학회논문지 Vol.50 No.5
기계 독해는 주어진 컨텍스트를 기반으로 다양한 문제를 해결함으로써 기계의 자연어 이해를 평가할 수 있도록 도입된 태스크이다. 기계의 자연어 이해 평가를 위해서는 주어진 맥락을 완전히 이해한 상태에서 상식적인 추론이 가능해야 한다. 이러한 추론이 가능하도록 본 연구에서는 일반 상식 기반 기계 독해를 위한 멀티-태스크 학습 방법과 모델을 제안한다. 연구의 기여는 다음과 같이 요약된다: 1) 일반 상식 기반 기계 독해 기술 학습을 위한 태스크 유형별 데이터셋 구성 방법을 제안한다. 2) 상식 학습이 가능한 Type-specific 다중 헤드 공유 인코더 모델을 포함해 멀티-태스크 학습 방법과 배치 샘플링 기법을 제안한다. 3) 제안된 방법을 CosmosQA데이터셋에 평가했을 때 기존 베이스라인 모델보다 2.38% 향상된 성능을 보인다. Machine reading comprehension (MRC) is a task introduced to a machine that can understand natural languages by solving various tasks based on given context. To evaluate natural language understanding of machine, a machine must make commonsense inference under full comprehension of a given context. To enhance model obtaining such abilities, we proposed a multi-task learning scheme and a model for commonsense MRC. Contributions of this study are as follows: 1) a method of task-specific dataset configuration is proposed; 2) a type-specific multi-head shared-encoder model with multi-task learning scheme including batch sampling and loss scaling is developed; and 3) when the method is evaluated on CosmosQA dataset (commonsense MRC), the accuracy was improved by 2.38% compared to the performance at baseline with fine-tuning.