http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
송진의(Jin-Ui Song),이강훈(Kang Hoon Lee) 한국HCI학회 2011 한국HCI학회 학술대회 Vol.2011 No.1
본 논문은 3-자유도 자이로스코프 입력을 이용하여 3치원 인간형 아바타의 동작을 직관적으로 제어하는 새로운 방법을 제안한다. 사용자는 한 손에 자이로스코프를 든 상태에서 자신의 몸짓을 이용하여 원하는 동작을 기술하고, 아바타는 미리 캡처된 여러 가지 동작 데이터 중에서 자이로스코프 센서로부터 획득한 3차원 회전 정보와 가장 잘 부합하는 동작을 선택하여 수행한다. 3 자유도의 사용자 입력을 높은 자유도의 아바타 동작과 대응시키는 방법으로서, 우리는 아바타의 신체를 몸통, 팔, 다리 등의 5개의 대표적인 부위로 구분하고, 입력과 가장 유사하게 움직이는 부위를 사용자가 제어하고자 하는 부위로 추정함 방식을 택한다. 이를 효율적으로 수행하기 위하여, 전처리 과정에서 40 자유도 이상의 높은 정밀도로 캡처된 동작 데이터들로부터 각 신체 부위의 3차원 회전 시퀀스를 추출한다. 실행 시간에 자이로스코프 입력이 주어지면 3차원 회전 간의 거리 함수를 이용하여 모든 동작 데이터에 대하여 업력 회전 시퀀스와 가장 유사한 신체 부위와의 거리를 계산한 후, 그 중 가장 가까운 거리의 동작 데이터를 선택한다. 이와 같이 사용자 입력으로부터 제어 대상 부위를 추정한 후 아바타 동작을 대응시키는 방식은 사용자가 미리 훈련을 거치지 않고도 직관적이고 직접적으로 자신의 아바타를 제어하도록 한다. 본 논문은 권투, 농구, 브레이크댄스 등 다양한 동작 데이터에 대하여 아바타 제어의 신속성과 정확성을 평가함으로써 제안된 방법의 유용성을 보인다. This thesis presents a novel method of controlling human-like 3D avatars by using 3-DOF gyroscopes. The user describes intended motions by body gestures with gyroscopes in his/her hands, then the avatar selects and plays back the motion clips that best matches to the rotational sequences of the gyroscopes from pre-captured motion database. As a way of matching 3-DOF user input to high-DOF avatar motion, we classify the body of avatar into five representative parts including a trunk, arms, and legs, and estimate one of the parts that move in the most similar trajectory to the user input as the target part to be controlled. For efficient control, we pre-compute the 3D rotational sequence of each body part for every motion clip at the pre-processing stage. Given an input sequence of rotation at run-time, we calculate its distance to every motion clip based on the measure of 3D rotational distance, and select one of the clip that is nearest to the input. Our method of finding the best matched clip after estimating the target body part allows the user to intuitively control his/her avatar without learning the correspondences between input gestures and avatar motions. We demonstrate the usefulness of our method by evaluating the speed and accuracy of controlling avatars that perform a large diversity of motions including boxing, basketball, and breakdance.