RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        연기자의 얼굴훈련을 위한 자각화 프로그램 적용과 효과 - Facial Action Coding System(FACS)를 바탕으로 -

        안경희 한국연기예술학회 2020 연기예술연구 Vol.20 No.4

        본 연구는 얼굴 근육 해부학과 근육 행동의 객관적인 기준을 제시하는 FACS(Facial Action Coding System)를 적용한 자각화 프로그램이 연기자의 얼굴자각 능력 향상을 위한 얼굴훈련으로 어떻게 활용될 수 있는지 밝히고 그 효과를 검증하여 연기자 훈련의 새로운 방법론을 제시하는 것이다. 이러한 목적을 바탕으로 연구 범위를 텍스트 발화 부분을 제외하고 자각화 프로그램의 범주를 머리부터 목까지로 한정 함으로써 연기자가 비언어적 훈련에 더 집중할 수 있도록 하였다. 더불어 프로그램의 효과를 검증하기 위해 연구 참여자들을 대상으로 신체자각에 관한 2가지 척도의 사전·사후 변화를 측정하였고, 연구 참 여자들의 심신적 변화를 심도 있게 탐구하고자 심층면담, 연구자 관찰일지, 자기보고서를 추가적으로 수 집하였다. 수집된 자료들은 통계 분석 패키지(IBM SPSS Statistics 22)와 NVivo 12 소프트웨어를 사용한 양 적·질적 분석이 이루어졌다. 결과적으로 첫째, 자신의 습관과 타인에 대한 얼굴 자각화는 얼굴표현의 절제와 중립의 상태를 일깨워주었고 내적 표현에 머무는 것이 아니라 외부 표출의 중요성을 알려주었다. 둘째, 자각화를 통한 얼굴 근육의 섬세한 조절은 감정환기를 불러일으켰고 얼굴의 무표현 또한 표현의 범주에 속한다는 것을 확인할 수 있었다. 본 연구에서 연구 참여자들이 본 프로그램을 경험한 후 얼굴 자각 능력 향상과 연기자를 위한 얼굴훈련의 토대를 만들었다는 결과를 밝힐 수 있었다. 본 연구의 목적 은 FACS를 활용한 자각화 프로그램이 연기자를 위한 얼굴자각 능력 향상 훈련으로써 그 효과를 검증하 고 어떻게 활용할 수 있는지를 밝힘으로써 새로운 방법론을 제시하는 것이다. 따라서 자각화 프로그램은 연기자가 얼굴표현에 집중할 수 있도록 텍스트를 제외한 비언어적 범위로 연구 범위를 축소하였고 훈련 의 신체 범주도 머리에서부터 목까지로 제한하였다. The purpose of this study is to clarify how the awareness programme applying FACS(Facial Action Coding System), which presents an objective criterion for facial muscle anatomy and muscle action, can be used as facial training to improve the actor's facial awareness ability. It is to prove and propose a new methodology of actor training. In this purpose, except for the speech part based on text utterance in the research scope, the body category of the training was limited to the face from head to neck so that the young actors could focus more on non-verbal face training. To verify the effectiveness of the programme, the pre-and post-changes of two scales of body awareness among young actors were measured. Additionally, in-depth interviews, researcher observation logs, and self-reports were collected in order to closely investigate the psychological and physical changes of the young actors. The collected quantitative and qualitative data were analysed using a statistical analysis package(IBM SPSS Statistics 22) and a qualitative analysis using NVivo 12 software. As a result, firstly, the self-awareness of one's own habits and other people's faces awakened the state of restraint and neutrality in facial expressions, and informed the importance of external expressions rather than staying in inner expressions. Secondly, it was confirmed that the delicate control of facial muscles through self-awareness evoked emotional arousal, and non-facial expressiveness also belonged to the category of expressiveness. As a result, it was possible to reveal that the younge actors improved their facial awareness ability and laid the foundation for facial training for actors after experiencing this programme.

      • KCI등재

        사실적인 디지털 휴먼 디자인을 위한 표정 정합성 비교 연구 -메타휴먼 리그와 ARkit 리그를 중심으로-

        김륭희 (사)한국커뮤니케이션디자인협회 커뮤니케이션디자인학회 2023 커뮤니케이션 디자인학연구 Vol.85 No.-

        본 연구의 목표는 얼굴 동작 코딩 시스템(FACS)을 활용하여 MetaHuman과 ARKit 디지털 휴먼 시스템 간의 얼굴 표정을 비교하고 분석하고자 한다. 연구 방법은 MetaHuman 리그와 ARKit 리그를 생성하고, FACS 기반 얼굴 표정에 대한 동일한 모델의 얼굴 형태를 비교한다. 이후, Cloud Compare를 활용하여 시각적 이미지 비교를 넘어, 얼굴 표정의 구조적 차이를 시각화하고 평가한다. 연구 가설은 개별 FACS 작업 단위 내에서의 표정은 큰 차이가 없으며, 두 개 이상의 작업 단위를 포함하는 복합 표정에서는 상당한 차이가 있을 것으로 가정한다. 연구 결과, 제시한 가설과 같이 단독 표정에서는 두 리그 시스템 간 차이가 없으나, 두 개 이상의 액션유닛(Action Unit, AU)이 포함된 복잡한 표정에 대해서는 표정의 차이가 발생하는 것을 확인할 수 있었다. 특히, 입술 오므리기와 입을 동그랗게 만들 때에 이러한 차이가 더욱 두드러졌다. 입술을 벌리는 Jaw Drop(AU26)과 Lip Pucker(AU18)를 혼합한 경우 약 7.1mm의 평균차이를 나타내며 13mm 이상의 높은 표준편차를 나타냈다. 이러한 현상은 2개 이상의 복합 표정에서 각 타겟에 대한 벡터가 더해짐으로써, 근육의 수축 한계를 초과하는 것처럼 표현되는 문제가 발생하는 것이라 생각한다.연구의 결과는 애니메이션 스튜디오, 게임 개발자 또는 연구원들이 특정 요구에 적합한 디지털 휴먼 프레임워크를 선택하는 데, 도움을 줄 수 있는 중요한 통찰력을 제공할 것이라 기대하고 더 나아가 휴먼 디자인 작업자들에게 얼굴 표정과 디지털 표현의 복잡성에 대한 이해를 증가시킬 수 있을 것으로 기대된다. The goal of this study is to compare and analyze facial expressions between MetaHuman and ARKit digital human systems using the Facial Action Coding System (FACS). The research method creates MetaHuman rigs and ARKit rigs and compares the facial shapes of the same models against FACS-based facial expressions. Afterwards, using Cloud Compare, we go beyond visual image comparisons in order to visualize and evaluate structural differences in facial expressions. The research hypothesis assumes that there will be no significant differences in expressions within individual FACS work units, but that there will be significant differences in complex expressions involving two or more work units. The results of the study showed that there were no significant differences between MetaHuman and ARKit when comparing individual FACS work units, but significant differences were seen in complex expressions combining two or more units. In particular, this difference was more noticeable when puckering the lips and rounding the mouth.The results of the study are expected to provide important insights that can help animation studios, game developers, and researchers select the right digital human framework for their specific needs. Furthermore, it is expected that human design workers will be able to use facial expressions and It is expected to lead to an increased understanding of the complexities of digital expression.

      • KCI등재

        얼굴 특징 정보를 이용한 동작 인식

        배철수(Cheol-Soo Bae) 한국정보기술학회 2007 한국정보기술학회논문지 Vol.5 No.3

        This paper describes a computer vision system based on active IR illumination for real-time gaze discrimination system. Unlike most of the existing gaze discrimination techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze discrimination system can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using generalized regression neural networks (GRNNs). With GRNNs, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. To further improve the gaze estimation accuracy, we employ a reclassification scheme that deals with the classes that tend to be misclassified. This leads to a 10% improvement in classification error. The angular gaze accuracy is about 5°horizontally and 8°vertically. The effectiveness of our gaze tracker is demonstrated by experiments that involve gaze-contingent interactive graphic display.

      • KCI등재
      • KCI등재

        3~5세 말더듬 아동의 비유창성에 동반되는 수반행동의 특성

        이혜란(Hyeran Lee),박은숙(Eun Sook Park),김향희(HayngHee Kim),심현섭(Hyun-Sub Sim) 한국언어청각임상학회 2008 Communication Sciences and Disorders Vol.13 No.4

        배경 및 목적: 이론 및 임상에서의 중요성에도 불 구하고 말더듬에서 보이는 수반행동에 대한 체계적인 연구는 많지 않은 실정이다. 어린 아동을 대상으 로 한 연구는 더욱 그러하였다. 이 연구에서는 비유창성 종류에 따른 수반행동의 빈도 특성을 알아보고 비유창성 종류와 수반행동 부위별 출현빈도가 관련되는지 살펴보았다. 이로써 말더듬 아동의 수반행동 특성을 체계적으로 파악하고자 하였다. 방법: 15명의 만 3~5세 말더듬 아동이 연구에 참여하였다. 아 동들이 파라다이스 유창성 검사 중 필수과제인 말하기 과제 동안 보인 수반행동을 안면/고개 행동 및 사지/몸통 행동으로 나누어 분류하였다. 결과: 비유창성 유형(말더듬, 정상적인 비유창성)별 빈도가 뚜 렷한 차이를 보이지 않았다. 3말더듬 구간 중 97%, 정상비유창성의 총 95%에서 수반행동이 나타났으 며, 비유창성 평균빈도가 말더듬의 경우 4.0, 정상적인 비유창성 4.4였다. 비유창성과 관련 없이 안면/고 개행동이(50~60%) 사지/몸통행동보다(40~50%) 자주 나타났다. 비유창성 종류에 따른 수반행동 부위 별 빈도 역 유의한 차이를 보이지 않았다( χ2 = 23.855, p = .068). 논의 및 결론: 연구 결과 어린 말더듬 아동들도 비유창하게 말을 하는 동안 다양한 종류의 수반행동을 비교적 자주 보였던 점은 조작적조건 화의 결과로서 수반행동이 나타난다는 기존의 설명만으로는 어린 말더듬 아동들의 수반행동 출현을 설명하는데 한계가 있을 수 있음을 시사한다. 비유창성 유형(말더듬, 정상적인 비유창성)에 따른 수반 행동의 빈도 특성 및 위치와의 관련성에서 차이를 보이지 않았던 결과를 고려할 때 빈도 분석 이외의 다른 분석 체계를 이용한 후속 연구가 필요할 것으로 보인다. Background & Objectives: Investigators has rarely studied on nonspeech behaviors- especially children’s nonspeech behaviors associated with stuttering comparing with core stuttering speech events. This study investigated the characteristics of nonspeech behaviors associated with disfluencies of children who stutter, by examination of the frequency of nonspeech behaviors and the relationship between the type of disfluencies and associated nonspeech behaviors. Methods: 15 three-to-five year old children who stutter participated in this study. Participants’ nonspeech behaviors during speech tasks were classified into face/head movement and limb/torso movements using facial action coding system and category instrumentally defined for this study. Results: There was no differences in the frequency of nonspeech behaviors by the type of disfluencies(stuttering: 97%, normal disfluencies: 95%) and in the mean number of the frequency of nonspeech behaviors per disfluency by the type of disfluencies(stuttering: 4.0, nonspeech behaviors: 4.4). There were more face/head movements than limb/torso movements during total disfluencies. The type of associated nonspeech behaviors was not significantly related with the type of disfluencies(χ2=23.855, p=.068). Discussion & Conclusion: The results propose the possibility of various functions of associated behaviors. Young children who stutter frequently showed various type of nonspeech behaviors during disfluencies. Other methods than frequency analysis will be needed to investigate the relationship between the type of disfluencies and associated nonspeech behaviors in future studies.

      • KCI등재

        아담의 손가락 -미켈란젤로 ‘천지창조’ 중 <아담의 창조>에 대한 기호학적 주석

        오장근 한국독어학회 2011 독어학 Vol.23 No.-

        Die vorliegende Arbeit setzt sich zum Ziel, eine semiotische Annotation zum Verstehen der Freskomalerei <Schöpfung des Menschen>, die von Michelangelo in der Sixtinischen Kapelle dargestellt wird, zu geben. Dazu wird zunächst die Körpersprache von Adam mit Hilfe der kinetischen Semiotik und FACS analysiert, so dann die Körpersprache des Schöpfers. Zum Schluss wird die Freskomalerei <Schöpfung des Menschen> als Untersuchungsgegenstand in der integrierten Perspektive betrachtet. In dieser Arbeit wird zudem thematisiert, warum Michelangelo die Schöpfung des Menschen durch den Fingerkontakt zwischen Adam und Gott darstellen will.

      • KCI등재후보

        마스크 착용이 소아청소년의 감정 추론에 미치는 최근 연구 동향 및 한계점 고찰 -FACS 이론에 근거하여-

        안경희 사단법인 방정환연구소 2023 방정환연구 Vol.9 No.-

        본 연구의 목적은 코로나19 팬데믹으로 인한 마스크 착용이 소아청소년의 감정 추론에 미치는 영향에 대한 연구 동향을 살피고 후속 연구를 시도하는 것이다. 코로나 팬데믹 이후 소아청소년들의 감정 지수에 마스크 착용이 영향을 주는 유무에 대한 다양한담론과 연구들이 전 세계적으로 이루어지고 있다. 그러나 Ekman의 <FACS Emotion Prediction(감정 예측도)>을 활용한 선행 연구의 분석에 의하면, 소아청소년들이 마스크를 착용한 타인의 감정을 올바르게 추론할 수 있다는 연구 결과에 한계가 있음이 밝혀졌다. 이 연구는 크게 두 가지 결과를 도출했다. 첫째, 논의된 연구들에서 감정 인식의자극제로 사용한 사진 자료들이 몇 개의 감정만 취사선택하여 기본 감정 6가지(놀라움, 두려움, 화, 혐오, 행복, 슬픔)가 종합적으로 연구되지 않은 점이다. 둘째, 화를 제외한놀라움, 두려움, 혐오, 행복, 슬픔 감정의 주요 표정 변화는 하부 얼굴에서 일어나므로마스크 착용시 소아청소년들이 타인의 감정을 오인할 수 있다는 점이다. 따라서, 마스크를 착용한 타인의 감정을 추론할 경우, 소아청소년들은 상⋅하부 얼굴 근육의 움직임, 즉 얼굴 전체의 표정을 확인해야만 감정 인식의 오류를 최소화한다는 결론을 내릴 수있다. 그러므로, 기존 연구들과는 상반되게 이 연구를 통해 우리는 코로나19 팬데믹으로인한 마스크 착용이 소아청소년의 기본 감정 추론에 부정적인 영향을 줄 수 있음을 고찰할 수 있다. 이에 본 연구는 해외의 주요한 팬데믹 관련 선행 연구에 대한 문헌 연구를 수행하여, 그 연구 동향 및 한계를 검토하였으며, 향후 이 제한점에서 더 나아가 실제 실험을 바탕으로 한 소아청소년의 얼굴 표정, 발음, 그리고 복합감정 추론에 관한 후속 연구가 필요함을 제시하였다.

      • KCI우수등재

        정서 유발 맥락이 영아의 미소 얼굴 표정에 미치는 영향

        홍희영(Hong Hui Yeong),이영(Lee Young) 한국아동학회 2003 아동학회지 Vol.24 No.6

        This study examined the effects of emotion inducing contexts on types of infants smiling. Facial expressions of forty-five 11-to 15-month-old infants were videotaped in an experimental lab with positive and negative emotional contests. Infants` smiling was identified as the Duchenne smile of non-Duchenne smile based on FACS(Facial Action Coding System, Ekman & Friesen, 1978). Duration of smiling types was analyzed. Occurrence of Duchenne smiling was more likely in the positive than in the negative context and in the peek-a-boo than in the melody toy condition within the same positive context. Non-Duchenne smiling did not differ by context.

      • KCI등재

        3-5세 말더듬 아동의 비유창성 종류 및 수반행동의 종류가 수반행동의 시작시점에 미치는 영향

        이혜란,심현섭 한국특수교육학회 2009 특수교육학연구 Vol.44 No.2

        The purpose of this study was to show that temporal characteristics of NBs are related with disfluency type. Participants were 15 children who stutter aged 3 to 5 years old. Disfluency were classified as tonic(TD), clonic(CD), normal(ND), and normal tensed(ND-t) type. NBs were classified into face/head movement and limb/torso movements using facial action coding system(FACS) and category instrumentally defined for this study. Comparisons of interval between disfluency onset time and non-speech behavior onset time by the type of disfluency and NBs and temporal characteristics of non-speech behavior(pre-disfluency/ post-disfluency) were analyzed. There were significant main effects of type of disfluencies(F = 19.604, p = .000), type of NBs(F = 13.0.2, p = .000), and temporal characteristics of NBs(F = 2.642, p = .048). There were significant interactions between the type and temporal characteristics of NBs(F = 12.963, p = .000), and between the type of NBs and the type of disfluencies(F = 2.668, p = .046). These results suggest that NBs of tonic or clonic disfluency were initiated more before than that of ND when NBs had started earlier than disfluency. 이 연구는 만 3-5세 말더듬 아동 15명을 대상으로 비유창성과 수반행동의 출현시점을 시간적인 차원에서 분석하여 살펴보았다. 비유창성과 수반행동 간의 시작시간차를 측정하고, 이에 대한 비유창성의 종류(정상비유창성, 정상비유창성-긴장, 경련성비유창성, 긴장성비유창성), 수반행동의 종류(안면/고개행동, 몸통/사지행동), 출현시점(비유창성이전행동, 비유창성이후행동)의 영향을 살펴보았다. 그 결과 출현시점(F = 19.604, p = .000), 수반행동 종류(F = 13.02, p = .000), 비유창성 종류(F = 2.642, p = .048)에 따른 시작시간차가 유의한 차이를 보이고 있었다. 수반행동 종류와 출현시점(F =12.963, p = .000), 그리고 비유창성 종류와 출현시점사이의(F = 2.668, p = .046) 상호작용이 유의하게 나타났다. 이러한 결과는 중한 형태의 비유창성의 경우 미리부터 반응을 보였기 때문으로 해석할 수 있다.

      • KCI등재

        애니메이션 사건 속 정서분할과 정서판정 모델

        김종대(Kim, Jong Dae),김재호(Kim, Jae Ho) 한국전시산업융합연구원 2016 한국과학예술융합학회 Vol.24 No.-

        본 논문은 정서와 사운드 관계 분석 위한 선행 연구이다. 거장 Hans Zimmer가 작곡한 애니메이션 ‘라이온 킹’ 의 1장 ‘코끼리 무덤 방문’사건을 정서 이론에 따라 분절하고, 그 정서를 찾아내는 모델을 제안하였다. 이를 5명의 전문가 실험을 통하여 그 타당성을 입증하였다. Plutchik는 정서 피드백이론에 따라 사건을 18개의 정서비츠로 분절하였다. 정서판단 기준으로는 Plutchik 의 8개의 기본 정서와 24 개의 2차 복합정서를 사용하였다. 제안된 방법에 의한 정서비츠의 분절과 정서판정의 일치율은 92.3% 로 나타났다. 또한 각 분절된 정서비츠의 요소 정서 값도 심리 실험으로 측정 되었다. 이는 향후 애니메이션의 음악과 정서, 비주얼 스토리텔링의 상호 관계를 연구하는 초석이 될 것이다. This paper is a preliminary study for the relationship between sound and emotion. The method of dividing the incident of ’Visiting Elephant’s Graveyard’, in which a maestro Hans Zimmer composed, based on the emotion theories and finding the emotion is proposed. This is verified through the experiments of 5 specialists. The incident is divided into 18 Emotion Beats (Emo_Beats). The 8 basic emotions of Plutchik and it’s 24 secondary emotions are used for the basis of the emotion decision. The division and decision of Emo-Beats by the proposed method is verified through the experiment showing 92.3% accuracy Additionally, the emotional strength of Emo-BeatSs are also measured. These will be a basis for the relationship study of music, emotion, and visual story telling of animations.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼