http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
온라인 시험 환경에서의 응시자 행동로그와 영상데이터 분석을 통한 부정행위자 감별
연희연 ( Heui-yeen Yeen ),남로아 ( Roah Nam ),이충녕 ( Chung-nyeong Lee ),오헤민 ( Hye-min Oh ),우태강 ( Tae-kang Woo ) 한국정보처리학회 2021 한국정보처리학회 학술대회논문집 Vol.28 No.2
비대면 교육 형식이 보편화됨에 따라 온라인 학습 및 시험 형태가 교육기관에서 일반화되고 있다. 이러한 급격한 변화로 교육의 공정성 문제와 온라인 시험의 부정행위 문제가 대두되고 있다. 시험응시자의 다양한 환경을 고려하여 정확하게 부정행위자를 판별하는 방법이 중요해지고 있다. 이를 위해 본 연구에서는 온라인 시험환경에서의 응시자의 행동 데이터와 영상데이터 분석을 진행하여 부정행위자를 감별하는 연구를 진행하였다. 분석 결과 기존의 부정행위자 감별방식의 한계점을 보완할 수 있는 방식에 대해 제안하였으며 온라인 시험환경에 대한 시사점을 제공하였다.
연희연(Yeen HeuiYeen),신용하(Shin YongHa),고우준(Ko WooJun),이석준(Lee SeokJune),구명완(Koo MyoungWan) 한국HCI학회 2022 한국HCI학회 학술대회 Vol.2022 No.2
산업현장에서 직무 적합성에 대한 중요성 증가로 진로에 따른 대학 전공 설계의 관심이 늘어나고 있다. 하지만 대학생들의 수강 과목 설계 과정의 복잡함으로 실질적인 전공 설계가 이뤄지지 못하고 있다. 따라서 대화형으로 전공 추천 및 일반 대화가 가능한 챗봇에 대한 연구를 진행했다.
감정에 기반한 가상인간의 대화 및 표정 실시간 생성 시스템 구현
김기락,연희연,은태영,정문열 (사)한국컴퓨터그래픽스학회 2022 컴퓨터그래픽스학회논문지 Vol.28 No.3
Virtual humans are implemented with dedicated modeling tools like Unity 3D Engine in virtual space (virtual reality, mixed reality, metaverse, etc.). Various human modeling tools have been introduced to implement virtual human-like appearance, voice, expression, and behavior similar to real people, and virtual humans implemented via these tools can communicate with users to some extent. However, most of the virtual humans so far have stayed unimodal using only text or speech. As AI technologies advance, the outdated machine-centered dialogue system is now changing to a human-centered, natural multi-modal system. By using several pre-trained networks, we implemented an emotion-based multi-modal dialogue system, which generates human-like utterances and displays appropriate facial expressions in real-time. 가상인간은 가상공간(가상 현실, 혼합 현실, 메타버스 등)에서 Unity와 같은 3D Engine 전용 모델링 도구로 구현된다. 실제 사람과 유사한 외모, 목소리, 표정이나 행동 등을 구현하기 위해 다양한 가상인간 모델링 도구가도입되었고, 어느 정도 수준까지 인간과 의사소통이 가능한 가상인간을 구현할 수 있게 되었다. 하지만, 지금까지의 가상인간 의사소통 방식은 대부분 텍스트 혹은 스피치만을 사용하는 단일모달에 머물러 있다. 최근 AI 기술이 발전함에 따라 가상인간의 의사소통 방식은 과거 기계 중심의 텍스트 기반 시스템에서 인간 중심의 자연스러운 멀티모달 의사소통 방식으로 변화할 수 있게 되었다. 본 논문에서는 다양한 대화 데이터셋으로 미세조정한 인공신경망을 사용해 사용자와 자연스럽게 대화 할 수 있는 가상인간을 구현하고, 해당 가상인간이 생성하는 문장의 감정값을 분석하여 이에 맞는 표정을 발화 중에 나타내는 시스템을 구현하여 사용자와 가상인간간의 실시간 멀티모달 대화가 가능하게 하였다.
T5-GPT 간 상징적 증류 지식 활용 프롬프트 엔지니어링
백지수,방나모,연희연,김민주,구명완 한국정보과학회 2024 정보과학회 컴퓨팅의 실제 논문지 Vol.30 No.3
This study proposes a prompt engineering method for 'Cross-model Symbolic Knowledge Distillation' of generative natural language models (LM)s. Our approach defines the text outputs generated from the generative LMs’ reasoning for a specific downstream task as the 'Symbolic Distilled Knowledge (SDK)'. We aim to improve the reasoning abilities of each generative LM for downstream tasks by training each model in such a way that leverages the SDK from the counterpart model, with the goal of minimizing human labor. We implemented our approach using GPT-J and T5, which differ in model structure and parameter scale. The models that were semi-pretrained by prompting for cross-model symbolic knowledge distillation showed better downstream task performance compared to the baseline. For example, on the SLURP benchmark, which is used for the Intent Classification task, GPT-J-distillated T5 showed an accuracy of 81.95%, which was approximately 10% higher than those achieved by the standard T5 models. T5-distillated GPT-J also showed an accuracy of 29.76% on the SLURP benchmark, representing an improvement of approximately 7.38% over the standard GPT-J.