RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 가상현실 시스템에서의 이벤트 핸들링 및 행위결정

        정문렬 한국정보처리학회 1998 정보처리학회지 Vol.5 No.2

        가상현실(virtual reality)은 인공현실 (artificial reality), 가상환경 (virtual environment), 가상공간 (cyberspace) 등으로도 불리는데, 컴퓨터에 의해 만들어진 가상의 3 차원 공간으로서 인간이 현실세계에서 하는 것처럼 이 공간과 상호작용을 할 수 있는 그런 공간을 의미한다. Zeltzer [10] 는 그래픽 기반 시뮬레이션 시스템을 세가지 독립된 축, 즉 자율성(autonomy), 상호작용 (interaction), 현장임재 (presence) 를 가지고 여러가지 부류로 분류하였다. 가상현실 시스템은 이 세가지 특성이 모두 완벽하게 존재하는 그런 시스템이다. 완벽한 상호작용은 시각, 청각, 촉각, 등을 통해, 가상 공간을 인식하는 것과 손, 발 등 신체의 일부분을 이용하여 가상공간에 어떤 행동을 가하는 것을 모두 포함한다. 현장임재는 인간이 가상공간속에 완전히 들어가 있다는 착각 (몰입감, immersion)을 느낄 수 있어야 가능한 것이다. 자율성은 가상공간내의 물체나 생명체가 외부의 자극과 스스로의 욕구에 의해 자율적으로 움직이는 것을 말하는데 이를 위해서는 물체나 생명체의 행위모델링이 중요하다. 본 글에서는 현실을 감안하여, 3차원 공간과의 상호작용이 있으면 가상현실의 범주에 드는 것으로 간주하고, 실용적인 관점에서 이러한 가상공간을 구축하는데 필요한 요소에 대하여 살펴본다. 가상현실 시스템의 요소기술은 결국 가상현실 시스템 프로그래밍을 보다 효과적으로 그리고 보다 쉽게 도와주는 기술이다. 현장임재를 위해서는 기본적으로 출력 장치 (Headmount Display(HMD), stereoglass, wide screen)에 관한 기술이 중요하다. [2]. 그러나 본 글에서는 이에 대해서는 다루지 않는다. 입출력 장치를 다루는 구체적인 방법에 대해서도 기술하지 않고 이를 추상적으로 다룬다. 즉 요구되는 기능을 갖춘 입출력 장치가 있다고 가정하고 이들을 이용하여 상호작용을 어떻게 구현할 것인지 그리고 가상공간의 자율성을 위한 행위모델링에 대해 주로 언급하고자 한다. 다시 말하면 인간참여자로부터 발생되는 입력사건(이벤트)을 처리하는 문제와 입력사건과 관련된 물체의 행위를 결정하는 문제에 대하여 다루고자 한다. 가상현실에 대한 보다 개념적인 소개의 글은 [1,4,7]을 참고하기 바란다.

      • KCI등재

        An Analytical Approach to Color Composition in Ray Tracing of Volume Data

        정문렬,백두원,김웅환,Jung, Moon-Ryul,Paik, Doowon,Kim, Eunghwan Korea Computer Graphics Society 1996 컴퓨터그래픽스학회논문지 Vol.2 No.1

        3차원 체적데이터의 광선추적법에서는, 영상을 구성하는 각 화소의 색깔을 보통 각 화소점에서부터 발사한 광선 위의 각 표본점들이 미치는 영향의 합으로 구한다. 이 합을 자연스럽게 표현하는 법은 적분이다. 그러나, 대부분의 방법에서는 적분을 통한 분석적 해법을 찾기 어렵기 때문에 수치누적계산법을 통하여 구한다. 본 논문에서는 체적데이터의 광선추적법을 위한 분석적 해법을 구할 수 있다는 것을 보여준다. 끝으로 우리의 접근법에 대한 의의와 유용함에 대한 가설적인 결론을 실험에 근겋여 이끌어낸다. In ray tracing of 3D volume data, the color of each pixel in the image is typically obtained by accumulating the contributions of sample points on the ray cast from the pixel point. This accumulation is most naturally represented by integration. In most methods, however, it is done by numerical summation because analytical solution to the integration are hard to find. This paper shows that a semi-analytical solution can be obtained for a typical ray tracing of volume data. Tentative conclusions about the significance and usefulness of our approach are presented based on our experiments.

      • KCI등재
      • KCI등재
      • KCI등재

        모션 데이터의 계층적 가시화에 의한 3차원 아바타의 표정 제어

        김성호,정문렬,Kim, Sung-Ho,Jung, Moon-Ryul 한국정보처리학회 2004 정보처리학회논문지 A Vol.11 No.4

        본 논문은 사용자로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정 제어기법을 기술한다. 본 시스템에서는 2,40P0여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해하면서 수행한다. 그러나 표정의 수가 너무 많아 사용자가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 2,400여개의 표정들을 이용하여 약 11개의 클러스터센터를 가지도록 클러스터링한다. 클러스터 센터들은 2차원 평면에 표시되며 후보 키 프레임으로 사용된다 사용자는 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 초기 항해경로를 생성한다. 사용자가 줌 인(이산적인 단계를 가지고 있음)을 하면 상세한 단계를 보기를 원한다는 의미이므로 줌 인된 단계에 적합한 표정 클러스터들을 생성한다. 단계가 증가될 때 마다 클러스터의 수를 두 배로 하고, 클러스터의 수만큼 표정들을 클러스터링한다. 사용자는 현재 단계에서 그전 단계의 항해경로를 따라 새로운 키 프레임(클러스터 센터)들을 선택하여 항해경로를 갱신한다. 줌 인을 최대로 한 마지막 단계에서 항해경로를 갱신하면 표정 제어 설정이 끝난다. 사용자는 언제든지 줌 아웃을 통해 그 전단계로 돌아가서 항해경로를 수정할 수 있다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 표정 제어를 수행하게 하였으며, 그 결과를 평가한다. This paper presents a facial expression control method of 3D avatar that enables the user to select a sequence of facial frames from the facial expression space, whose level of details the user can select hierarchically. Our system creates the facial expression spare from about 2,400 captured facial frames. But because there are too many facial expressions to select from, the user faces difficulty in navigating the space. So, we visualize the space hierarchically. To partition the space into a hierarchy of subspaces, we use fuzzy clustering. In the beginning, the system creates about 11 clusters from the space of 2,400 facial expressions. The cluster centers are displayed on 2D screen and are used as candidate key frames for key frame animation. When the user zooms in (zoom is discrete), it means that the user wants to see mort details. So, the system creates more clusters for the new level of zoom-in. Every time the level of zoom-in increases, the system doubles the number of clusters. The user selects new key frames along the navigation path of the previous level. At the maximum zoom-in, the user completes facial expression control specification. At the maximum, the user can go back to previous level by zooming out, and update the navigation path. We let users use the system to control facial expression of 3D avatar, and evaluate the system based on the results.

      • KCI등재

        모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어

        김성호,정문렬,Kim Sung-Ho,Jung Moon-Ryul 한국정보처리학회 2004 정보처리학회논문지 A Vol.11 No.5

        본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간 적으로 선택하게 함으로써 3차원 아바타의 얼굴 표정을 제어하는 기법을 제안하고, 해당 시스템을 구축한다. 본 시스템에서는 얼굴 모션 캡쳐 데이터로 구성된 2400여개의 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정에서 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 이 경로를 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 원하는 표정을 실시간 적으로 선택함으로써 제어한다. 이를 도와주기 위해 표정공간을 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화 했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 해본 결과, 3차원 아바타의 실시간 얼굴 표정 제어가 필요한 각 분야에서 매우 유용하게 사용될 것으로 판단되었다.24시간 경과시킨 후 치아의 장축에 따라 절단하여 침투된 색소의 정도를 광학현미경상에서 40배로 관찰하였다. 각각의 실험결과는 ANOVA/Tukey's test 및 Kruskal-Wallis non-parametric independent analysis와 Mann-Whitney U test에 의하여 통계 분석하여 다음과 같은 결론을 얻었다. 1. 대조군에 있어서 혼합형 복합레진의 미세인장 결합강도는 미세혼합형에 비하여 높았으며, 실험군 사이에는 유의차를 보이지 않았다. 2.모든 복합레진의 미세인장 결합강도는 와동의 C-factor증가에 따라 감소하는 경향을 나타내었고, 혼합형 복합레진의 실험군은 대조군에 비하여 낮게 나타났으며, 미세혼합형 복합레진에서는 유의차를 보이지 않았다. 3. 절단측 및 치은측 변연부의 미세누출정도는 혼합형 복합레진이 미세혼합형에 비하여 대체로 높게 나타났다. 4. 모든 실험군에서 미세누출은 C-factor증가에 따라 증가하였고 절단측에 비하여 치은측 변연이 높게 나타났으나 통계학적 유의차는 보이지 않았다. C-factor의 변화에 대하여 필러함량과 탄성계수가 높은 혼합형 복합레진이 미세혼합형에 비하여 더 민감한 결과를 보인다. 이는 복합레진 수복시 재료의 선택과 중합수축의 적절한 조절이 중요한 요소임을 시사한다.s에서는 1주, 2주에서 강한 염증반응을 보였으나 12주에서는 염증반응이 감소하였다. 4) 새로 개발된 봉함제 Adseal-1,2는 1주, 2주에서는 가장 약한 염증반응을 보이나 4주, 12주 후에는 AH Plus와 비슷한 수준의 염증 반응을 보였다. 5) Pulp Canal Sealer를 제외한 모든 군에서 인정할 만한 생체친화성을 보였다. 6) This paper propose a method that controls facial expression of 3D avatar by having the user select a sequence of facial expressions in the space of facial expressions. And we setup its system. The space of expression is created from about 2400 frames consist of motion captured data of facial expressions. To represent the state of each expression, we use the distance matrix that represents the distances between pairs of feature points on the face. The set of distance matrices is used as the space of expressions. But this space is not such a space where one state can go to another state via the straight trajectory between them. We derive trajectories between two states from the captured set of expressions in an approximate manner. First, two states are regarded adjacent if the distance between their distance matrices is below a given threshold. Any two states are considered to have a trajectory between them If there is a sequence of adjacent states between them. It is assumed . that one states goes to another state via the shortest trajectory between them. The shortest trajectories are found by dynamic programming. The space of facial expressions, as the set of distance matrices, is multidimensional. Facial expression of 3D avatar Is controled in real time as the user navigates the space. To help this process, we visualized the space of expressions in 2D space by using the multidimensional scaling(MDS). To see how effective this system is, we had users control facial expressions of 3D avatar by using the system. As a result of that, users estimate that system is very useful to control facial expression of 3D avatar in real-time.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼