
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
가상환경의 인터랙티브 사운드를 위한‘EVE-SoundTM’툴킷
남양희,성숙정 한국정보처리학회 2007 정보처리학회논문지. 소프트웨어 및 데이터 공학 Vol.(이전)14 No.4
This paper presents a new 3D sound toolkit called EVE-SoundTM that consists of pre-processing tool for environment simplification preserving sound effect and 3D sound API for real-time rendering. It is designed so that it can allow users to interact with complex 3D virtual environments by audio-visual modalities. EVE-SoundTM toolkit would serve two different types of users: high-level programmers who need an easy-to-use sound API for developing realistic 3D audio-visually rendered applications, and the researchers in 3D sound field who need to experiment with or develop new algorithms while not wanting to re-write all the required code from scratch. An interactive virtual environment application is created with the sound engine constructed using EVE-SoundTM toolkit, and it shows the real-time audio-visual rendering performance and the applicability of proposed EVE-SoundTM for building interactive applications with complex 3D environments.
남양희,주재율,장성호 한국항공우주학회 2013 한국항공우주학회 학술발표회 논문집 Vol.2013 No.4
비행조종컴퓨터는 비행조종시스템의 핵심 구성요소로서 각종센서로부터 항공기의 운동상태를 입력받고, 조종면의 제어명령을 생성하여 복잡한 조종문제를 제어법칙으로 해결할 수 있게 해준다. 이를 위해 비행조종컴퓨터는 디지털 비행제어 기술이 필요하고, 안정성의 증대를 위해 다중화 기술이 필요하다. 특히 스마트무인기와 같은 틸트로터 무인기에 탑재되는 비행조종컴퓨터는, 헬리콥터 모드와 프로펠러 모드일 때의 각각의 환경규격에 맞게 설계/제작 되고, 시험되어져야 한다. 본 논문에서는 이러한 요구사항에 맞게 설계된 이중화 비행조종컴퓨터에 대해 기술하였다. As DFCC is a core component of flight control system, DFCC receive the aircraft status from the sensors and generate the control command for actuator to solve the complex control problem by the control law. For doing this, the digital control technology for aviation must be required. Especially, the DFCC equipped with the Tilt rotor UAV such as SMART UAV must consider the environmental standard when the aircraft is in helicopter mode or in propeller mode. In this paper, we deal with dual flight control computer designed to satisfy this requirement.
가상환경의 인터랙티브 사운드를 위한 'EVE-Sound<sup>TM</sup>' 툴킷
남양희,성숙정,Nam, Yang-Hee,Sung, Suk-Jeong 한국정보처리학회 2007 정보처리학회논문지B Vol.14 No.4
본 논문은 2D/3D 가상환경에서 실감 사운드의 실시간 합성을 위한 $EVE-Sound^{TM}$ 툴킷의 설계와 개발결과를 제시한다. $EVE-Sound^{TM}$는 사운드 효과 계산에 필요한 장면요소를 간추리는 전처리 도구와 실시간 렌더링 API들로 구성되며, 다중 모달리티의 실감 재현을 필요로 하는 가상현실, 게임 등의 각종 인터랙티브 콘텐츠에서 사용자에게 고급 그래픽 환경을 허용하면서 동시에 사운드의 실시간 재현을 가능하게 함을 목표로 하였다. 3차원 사운드 계산이 매우 복잡하기 때문에 기존의 사운드 API들이 간단한 사운드 효과와 재생을 제공하는 것과 달리, 복잡한 가상환경에서 3차원 사운드의 원리를 반영하되 그 렌더링을 실시간화하는 데 초점을 두었고, 이를 위해 새로운 장면 간략화 및 공간사운드 계산 방법이 제시되었다. 응용 사례 및 실험, 알고리즘 분석을 통해 제시된 툴킷의 활용성 및 향상된 실시간성을 확인하였다. This paper presents a new 3D sound toolkit called $EVE-Sound^{TM}$ that consists of pre-processing tool for environment simplification preserving sound effect and 3D sound API for real-time rendering. It is designed so that it can allow users to interact with complex 3D virtual environments by audio-visual modalities. $EVE-Sound^{TM}$ toolkit would serve two different types of users: high-level programmers who need an easy-to-use sound API for developing realistic 3D audio-visually rendered applications, and the researchers in 3D sound field who need to experiment with or develop new algorithms while not wanting to re-write all the required code from scratch. An interactive virtual environment application is created with the sound engine constructed using $EVE-Sound^{TM}$ toolkit, and it shows the real-time audio-visual rendering performance and the applicability of proposed $EVE-Sound^{TM}$ for building interactive applications with complex 3D environments.
남양희(Yang-Hee Nam) 한국콘텐츠학회 2013 한국콘텐츠학회논문지 Vol.13 No.5
본 논문에서는 객체 간 충돌음과 같이 가상환경의 발생 상황을 전달할 수 있는 중요한 감각 채널 중 하나인 소리를 통해 청각적 인터랙션을 디자인할 수 있는 방법을 제시하였다. 철, 고무, 유리 등 물질별 기본음 샘플에 대해 각각의 고유음을 특징짓는 모드 게인 값의 스케일 변경을 허용함으로써 디자인적 변형이 가능 하도록 하고, 충돌 상황에 대한 인지적 속성인 충돌체의 크기, 딱딱한 정도, 접촉면적, 충돌 속도 차이에의한 충돌음의 변화를 실시간에 재현할 수 있게 하는 계산적 알고리즘을 사용한 방법이다. 소리를 통한 충돌물체의 물질 및 충돌 상황 인지 실험을 통해 제안된 방법이 가상환경 청각적 인터랙션 디자인에 사용될 수 있음을 보였다. Focused on the fact that sound is one of the important sensory cues delivering situations such as impact, this paper proposes an auditory interaction design approach for virtual environment. Based on a few sampling of basic material sound for various materials such as steel, rubber, and glass, the proposed method enables design transformations of the basic sound by allowing modification of mode gains that characterize natural sound for the material. In real-time virtual environment, it also provides simulation of modified sound according to the change of impact situation’s perceptual properties such as colliding objects’ size, hardness, contacting area, and speed. The test results on cognition experiment for discriminating objects’ materials and impact situation by sound showed the feasibility of proposed auditory interaction design method.
남양희(Yang-Hee Nam),이서진(Seo-Jin Lee) 한국콘텐츠학회 2013 한국콘텐츠학회논문지 Vol.13 No.6
증강현실에서 움직이는 가상 모델을 증강물로 활용하려면 대개 별도의 모델링이나 애니메이션 도구 사용이 필요하며 이는 매우 전문적이고 복잡한 작업이다. 본 논문에서는 그러한 과정 없이 동적 가상 객체를 증강 환경에 삽입할 수 있는 방법으로 비디오 객체 기반 저작 방법을 제시한다. 그랩컷과 그로컷을 통합 적용하여 대상물의 초기 영역을 분리한 후, 스냅컷을 이용해 프레임간 경계선 변화를 자동 추적하여 동작이 담긴 연속 프레임을 실사 비디오에 증강하는 방식이다. 실험결과로, 몇 단계의 메뉴 선택과 경계선 오류 정정 스케치만으로 특정 비디오 객체 컷아웃 및 증강 객체 저작이 가능함을 보였다. It is generally required to use modeling or animation tools for inserting dynamic objects into augmented reality, and this process demands high expertise and complexity. This paper proposes a video object based authoring method that enables augmentation with dynamic video objects without such process. Integrated grab-cut and grow-cut method strips initial area of video target off the existing video clips, and snap-cut method is then applied to track objects’ boundaries over frames so as to augment real world with continuous motion frames. Experiment shows video cut-out and authoring results achieved by only a few menu selections and simple correcting sketch.