RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        가상 아바타의 홍채색과 동공 조절에 따른 시각적 실재감에 대한 실감표현요소

        원명주(Myoung Ju Won),박상인(Sang-In Park),이의철(Eui Chul Lee),황민철(Min-Cheol Whang) 한국콘텐츠학회 2014 한국콘텐츠학회논문지 Vol.14 No.4

        가상환경에서 가상 아바타는 말과 감정을 전달하는 주요한 의사소통 수단이다. 본 연구에서는 가상 아바타의 홍채색과 동공 조절 요소를 기반으로 사용자의 시각적 실재감에 대한 반응을 평가하고자 한다. 이를 위해 홍채색과 동공 조절 요소를 적용한 가상 아바타를 모델링하였다. 32명의 피실험자를 대상으로 상기 이미지를 제시한 후, 선행연구를 기반으로 설문문항(18문항)을 구성하여 5점 척도로 보고하게 하였다. 실험결과,동공 크기변화가 적용된 경우 높은 실감을 느끼는 것으로 나타났으며,홍채색은 실재감에 영향을 주지 않는 것으로 나타났다.이 결과는 새로운 시각적 실감 표현요소를 제안하고, 제안된 실감 표현요소의 타당성을 검증함으로써 실재감 있는 가상 아바타를 설계하기 위한 기초 연구로써 활용 가능할 것으로 사료된다. The virtual avatar is a principal way as media for communicating language and affective feelings in virtual environment. As similar purpose, this study evaluates users visual feeling according to the changes of iris color and pupil size of virtual avatar which is considered as new factors for representing realistic avatar. Virtual avatars were configured by pupil accommodation and iris color(green, brown). After presenting above image to 32 participants, a questionnaire (18 items)based on previous studies was created, and reported as a 5-point scale. Experimental result showed that the case of adopting pupil accommodation induced more realistic visual feeling of subjects. This result can be regarded as a basis for designing realistic virtual avatar by confirming the effectiveness of pupil accommodation of avatar in terms of representing visual presence.

      • KCI등재

        가상 아바타의 각막면에 비친 반사영상의 시각적 실재감에 대한 실감표현 요소

        원명주(Myoung Ju Won),이의철(Eui Chul Lee),황민철(Min-Cheol Whang) 한국콘텐츠학회 2013 한국콘텐츠학회논문지 Vol.13 No.7

        최근 가상환경에서는 실재감 있는 인간의 얼굴 모델을 설계하기 위하여 얼굴의 형태나 근육의 움직임과 같이 단순히 일반적인 표현요소를 중심으로 모델링 되고 있다. 하지만, 이러한 얼굴 자체의 외형적 요소 이외에도 외적 요소에 의한 얼굴 부분의 변화 인자는 가상 아바타를 효과적으로 표현하기 위한 중요한 요소이다. 따라서 본 연구에서는 가상 아바타의 각막면에 비친 반사영상(eye reflection)을 기반으로 사용자의 시각적 실재감에 대한 반응을 평가한다. 실험결과, 각막면의 반사율을 크게 하여 반사영상이 뚜렷하게 나타난 경우 높은 실감을 느끼는 것으로 나타났다. 이 결과는 새로운 시각적 실감표현요소를 제안하고, 제안된 실감표현요소의 구체적인 표현 범위를 제시함으로써 사실적인 가상 아바타를 설계하기 위한 기초 연구로써 활용 가능할 것으로 사료된다. In the VnR (Virtual and Real Worlds) of recent virtual reality convergence, the modelling of realistic human face is focused on the facial appearance such as the shape of facial parts and muscle movement. However, the facial changing parameters caused by environmental factors beyond the facial appearance factors can be regarded as important ones in terms of effectively representing virtual avatar. Therefore, this study evaluates user’s visual feeling response according to the opacity variation of eye reflection of virtual avatar which is considered as a new parameter for reprenting realistic avatar. Experimental result showed that more clear eye reflection induced more realistic visual feeling of subjects. This result can be regarded as a basis for designing realistic virtual avatar by supporting a new visual realistic representing factor (eye reflection) and its degree of representation (reflectance ratio).

      • KCI등재

        다양한 눈의 특징 분석을 통한 감성 분류 방법

        김윤경(Yoonkyoung Kim),원명주(Myoung Ju Won),이의철(Eui Chul Lee) 한국콘텐츠학회 2014 한국콘텐츠학회논문지 Vol.14 No.10

        본 논문에서는 근적외선 카메라를 이용한 눈의 다양한 특징 분석을 통해 감성을 분류하는 방법에 관한 연구를 진행하였다. 제안하는 방법은 기존의 유사한 연구와 비교했을 때, 감성 분류를 위해 더 많은 눈의 특징을 사용하였고, 각 특징이 모두 유의미한 정보를 포함하고 있음을 검증하였다. 긍정-부정, 각성-이완의 상반된 감성 유발을 위해 청각 자극을 사용함으로써, 눈의 특징에 끼치는 영향을 최소화하였다. 감성 분류를 위한 특징으로써, 동공 크기, 동공 크기 변화율, 깜박임 빈도, 눈을 감은 지속시간을 사용하였으며, 이들은 근적외선 카메라 영상으로부터 자체 개발한 자동화된 처리 방법을 통해 추출된다. 분석 결과, 각성-이완 감성 유발 자극에 대해서는 동공 크기 변화율과 깜박임 빈도 특징이 유의한 차이를 보였다. 또한, 긍정-부정 감성 유발 자극에 대해에서는 눈을 감은 지속시간 특징이 유의한 차이를 보였다. 특히 동공 크기 특징은 각성-이완, 긍정-부정의 상반된 감성 자극 유발 상황에서 모두 유의한 차이가 없음을 확인할 수 있었다. In this paper, emotion classification was performed by using four ocular features extracted from near-infrared camera image. According to comparing with previous work, the proposed method used more ocular features and each feature was validated as significant one in terms of emotion classification. To minimize side effects on ocular features caused by using visual stimuli, auditory stimuli for causing two opposite emotion pairs such as “positive-negative” and “arousal-relaxation” were used. As four features for emotion classification, pupil size, pupil accommodation rate, blink frequency, and eye cloased duration were adopted which could be automatically extracted by using lab-made image processing software. At result, pupil accommodation rate and blink frequency were statistically significant features for classification arousal-relaxation. Also, eye closed duration was the most significant feature for classification positive-negative.

      • KCI등재

        인체 미동을 이용한 공감도 평가 방법

        황성택 ( Sung Teac Hwang ),박상인 ( Sangin Park ),원명주 ( Myoung Ju Won ),황민철 ( Mincheol Whang ) 한국감성과학회 2017 감성과학 Vol.20 No.1

        본 연구는 사회 감성(Social emotion)중 공감도 정량화 방법을 제안하고자 한다. 비접촉형 센싱 방법인 인체 미동 기술을 이용하였다. 참가자들은 공감한 그룹과 공감하지 않은 그룹으로 분류하였다. 웹캠(Web-cam)을 이용해 표정Task를 수행하는 동안 영상의 상반신 데이터를 수집하였다. 수집 된 데이터는 각 주파수 성분 별로 0.5 Hz, 1 Hz, 3 Hz, 5 Hz, 15 Hz로 분류하여 추출하였다. 추출 된 데이터는 움직임의 평균과 변화량, 움직임의 동조현상을 비교하였다. 그 결과 공감한 그룹의 움직임 평균과 움직임의 변화정도가 낮게 나타났다. 공감하지 못한 그룹의 경우 평균 움직임과 변화정도가 큰 것으로 나타났으며 통계적으로 유의한 차이를 보였다. 또한 공감한 그룹의 두 피험자의 경우 표정 Task를 수행하는 동안 움직임에 동조 현상이 나타나는 것을 확인하였다. 이는 두 사람 간에 공감이 형성 되었을 때 자연스럽게 집중을 하게 되고 그에 따라 움직임에 정도가 차이가 나는 것으로 볼 수 있다. 본 연구는 비접촉 센싱방법을 통해 공감도 측정 가능성을 확인하는데 의의가 있다. The goal of this study is to present quantification method for empathy. The micro-movement technology (non-contact sensing method) was used to identify empathy level. Participants were first divided into two groups: Empathized and not empathized. Then, the upper body data of participants were collected utilizing web-cam when participants carried expression tasks. The data were analyzed and categorized into 0.5 Hz, 1 Hz, 3 Hz, 5 Hz, 15 Hz. The average movement, variation, and synchronization of the movement were then compared. The results showed a low average movement and variation in a group who empathized. Also, the participants, who empathized, synchronized their movement during the task. This indicates that the people concentrates with each other when empathy has been established and show different levels of movement. These findings suggest the possibility of empathy quantification using non-contact sensing method.

      • KCI등재

        친밀도, 공감도, 긍정도에 따른 얼굴 근육의 미세움직임 반응 차이

        조지은(Ji Eun Cho),박상인(Sang-In Park),원명주(Myoung Ju Won),박민지(Min Ji Park),황민철(Min-Cheol Whang) 한국콘텐츠학회 2017 한국콘텐츠학회논문지 Vol.17 No.2

        얼굴 표정은 상호간의 소통에 있어 중요한 의미를 갖는다. 얼굴 근육의 움직임은 감성 정보를 제공하는데, 이는 사회적 관계를 향상하는 데 중요한 역할을 한다. 그러나 얼굴의 단순 움직임만으로는 복잡한 사회 감성을 인식하기에 정확하지 않다. 본 연구의 목적은 친밀도, 공감도, 긍정도와 같은 사회감성을 인식하기 위한 얼굴의 미세 움직임을 분석하는 것이다. 76명의 피험자를 대상으로 상기 사회감성을 유발하는 자극을 제시하였고 카메라를 사용하여 얼굴 표정을 측정하였다. 결론적으로 친밀함, 공감도, 긍정도의 사회 감성에서 얼굴의 미세움직임이 다르게 나타났다. 총 44개의 얼굴 근육 중 3개의 무의식 근육과 18개의 의식 근육의 움직임 양을 추출한 후, 고속푸리에변환(Fast Fourier Tranform, FFT)을 통하여 (Dominant) Frequency 대역을 확인하였다. 독립 t-검정 결과, 친밀도 상황에서는 코 주변과 볼 주변 근육, 공감도 상황에서는 입 주변 근육, 긍정도 상황에서는 턱 주변 근육에서 유의한 차이를 보였다. 이는 애니메이션의 가상아바타 등 얼굴 표정의 새로운 표현요소를 제안하고 근육에 따른 사회감성 인식의 기초 연구로서 활용 가능할 것으로 사료 된다. Facial expression is important factor on social interaction. Facial muscle movement provides emotion information to develop social network. However, facial movement has less determined to recognize social emotion. This study is to analyze facial micro-movements and to recognize the social emotion such as intimacy, empathy, and valence. 76 university students were presented to the stimuli for social emotions and was measure their facial expression using camera. As a results, facial micro-movement. showed significant difference of social emotion. After extracting the movement amount of 3 unconscious muscles and 18 conscious muscles, Dominant Frequency band was confirmed. While muscle around the nose and cheek showed significant difference in the intimacy, one around mouth did in the empathy and one around jaw in the valence. The results proposed new facial movement to express social emotion in virtual avatars and to recognize social emotion.

      • Development of ‘LightMeCup’ Prototypes Using Entry-Level 3D Printers

        Soo Ji Choi(최수지),Seung Ryul Lee(이승렬),Myoung Ju Won(원명주) 한국HCI학회 2019 한국HCI학회 학술대회 Vol.2019 No.2

        The purpose of this study was to develop a multisensory product using an entry-level 3D printer. This study developed a prototype of the product, which functions as a tumbler type cup while being responsive to the environmental sound and motion of the cup. A survey for usability test was performed in questionnaires by 20 subjects on a 5-point Likert scale. The product has been designed and modeled by the Autodesk Fusion 360 software and printed on an entry-level 3D printer 3DISON PRO with lowcost PLA filaments. The design of the product was made based on usability and convenience, and contains three main detachable parts of a cap, body, and support (sensor case).

      • KCI등재

        3D 시각피로 유발에 따른 안면 온도 변화

        황성택 ( Sung Teac Hwang ),박상인 ( Sang In Park ),원명주 ( Myoung Ju Won ),황민철 ( Min Cheol Whang ) 한국감성과학회 2013 감성과학 Vol.16 No.4

        본 연구는 3D 산업의 안전성 문제인 3차원 콘텐츠로 유발된 시각피로를 안면 온도 변화로 정량화하는 방법을 제안하고자 한다. 콘텐츠 시청 전과 후에 각 1분간 열화상 카메라를 이용하여 안면온도를 측정하였고 주관설문과 인지부하 실험을 통해 시각피로를 판단하였다. 2D와 3D의 시청 전과 후를 비교하여 3D 콘텐츠 시청에 따른 시각피로 유발 시 안면 온도에 차이를 확인하였다. 시청 전과 후에 차이를 비교한 결과 주관 설문과 인지부하 실험은 유의한 차이를 보였고 ERP latency는 3D 시청 시 증가하는 것으로 나타났다. 안면 온도의 경우 미간(forehead)과 코끝(tip of the nose) 영역의 최대값을 비교 결과 유의한 차이를 보였다. 선행 연구에서 3D 시각피로 발생 시 교감신경계가 항진됐던 결과와 비교해보면 교감신경계가 항진되면 심박 수가 증가하고 목동맥계(carotid arteries system)를 통한 안면으로의 혈류량이 증가하게 된다. 2D와 3D 시청 시 교감신경계 항진 정도에 따라서 혈류량 변화로 안면 온도에 영향을 미치는 것으로 확인되었다. 본 연구는 열화상이미지를 이용한 3D 시각피로 측정 가능성을 확인하는데 의의가 있다. As the visual fatigue induced by 3D visual stimulation has raised some safety concerns in the industry, this study aims to quantify the visual fatigue through the means of measuring the facial temperature changes. Facial temperature was measured for one minute before and after watching a visual stimulus. Whether the visual fatigue has occurred was measured through subjective evaluations and high cognitive tasks. The difference in the changes that occurred after watching a 2D stimulus and a 3D stimulus was computed in order to associate the facial temperature changes and the visual fatigue induced by watching 3D contents. The results showed significant differences in the subjective evaluations and in the high cognitive tasks. Also, the ERP latency increased after watching 3D stimuli. There were significant differences in the maximum value of the temperature at the forehead and at the tip of the nose. A previous study showed that 3D visual fatigue activates the sympathetic nervous system. Activation of the sympathetic nervous system is known to increase the heart rate as well as the blood flow into the face through the carotid arteries system. When watching 2D or 3D stimuli, the sympathetic nervous system activation dictates the blood flow, which then influences the facial temperature. This study is meaningful in that it is one of the first investigations that looks into the possibility to measure 3D visual fatigue with thermal images.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼