http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
SleepTube: 취침 전 영상 시청의 효용 증대를 위한 디지털 자기 통제 도구 제언
정은서(Eunseo Jeong),홍승욱(Seung Wook Hong),송정인(Jeong In Song),임하진(Hajin Lim) 한국HCI학회 2024 한국HCI학회 학술대회 Vol.2024 No.1
오늘날 많은 현대인들은 수면 부족 문제를 겪고 있다. 그중 취침 전 영상 시청 습관은 수면의 질을 악화시키고 수면 부족을 유발하는 주요 원인으로 지적되고 있다. 그러나 취침 전 영상 시청이 반드시 부정적인 영향을 미치는 것은 아니며 오히려 수면의 질을 높이는 것에 효과적이라는 연구 결과 또한 존재한다. 이에 우리는 취침 전 영상을 시청하는 사용자의 다양한 맥락적 요인과 니즈를 이해하고 이를 바탕으로 취침 전 영상 시청 행위를 조절하는 디지털 도구, ‘SleepTube’를 제안하였다. 본 연구는 취침 전 영상 시청 행위에 대해 다각적인 이해를 바탕으로 개개인의 구체적인 시청 상황과 수면 목표에 초점을 둔 디지털 자기 통제 도구의 디자인 방향성을 이끌어냈다는 점에서 의의를 갖는다.
Bi-gram단위 학습을 통한 문서 분류에서의 이중부정 문제해소
김균엽(Gyunyeop Kim),유은석(Eunseok Yoo),정은서(Eunseo Jeong),강상우(Sangwoo Kanag) 한국정보과학회 2021 한국정보과학회 학술발표논문집 Vol.2021 No.6
한국어 문서 분류 과정에서 이중부정 표현은 문장의 의미 파악에 오류를 야기할 수 있다. 특히 ‘싫진 않다’와 같이 이중부정은 이중부정에 포함된 두 개의 단어를 모두 확인하여야 해당 문장의 뜻을 확인할 수 있다. 또한 최근 자연어처리에서는 BERT와 같이 pre-trained된 모델이 도입되었고 한국어 또한 해당 모델을 도입하여 높은 성능을 보였다. 하지만 BERT와 같은 모델의 입력과 결과는 mono-gram 단위이기에 이중부정의 양 단어를 동시에 feature로 사용하지 않는다. 본 논문에서는 BERT와 같은 encoder의 결과를 bi-gram 단위로 학습하여 문서 분류에서 이중부정에 의한 성능 저하 문제를 해소하는 방법을 제시한다.