RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        원형 머리 모델을 이용한 머리 전달 함수의 보간

        이기승,이석필,Lee, Ki-Seung,Lee, Seok-Pil 한국음향학회 2008 韓國音響學會誌 Vol.27 No.7

        본 논문에서는 머리 전달 함수에 대한 새로운 보간 기법을 제안하였다. 제안된 기법은 각 방위각에 대한 머리 전달 함수의 충격파 응답이 인접 방위각에 대한 시간 지연된 충격파 응답의 선형 보간으로 주어진다고 가정하였다. 각 방위각에 대한 충격파 응답의 시간 지연은 방위각, 머리의 물리적 형태, 음원과 머리의 거리 정보를 이용하여 추정될 수 있는 귀와 음원간의 전파시간과 최소 자승 오차를 갖도록 하는 교정값의 합으로 주어진다. 또한 제안된 모델에서는 보간 시 방위각의 간격을 고정 간격이 아닌 가변 간격으로 하였으며 본래 충격파 응답과 보간된 충격파 응답이 본래의 충격파 응답과 비교하여 청취 상으로 큰 차이가 느껴지지 않고, 보간에 필요한 충격파 응답의 재수가 최소화되는 조건을 만족하도록 결정하였다. 제안된 보간 모델의 유용성을 검증하기 위하여 더미 헤드 및 3명의 사람으로부터 측정된 머리 전달 함수에 대해 제안된 보간 모델을 적용하였다 머리 전달 함수는 0도의 고도각을 갖는 수평면을 5도 간격의 방위각으로 분할한 총 72개가 사용되었으며, 실험 결과 전체 머리 전달 함수 중 단지 $30\sim40%$ 만을 사용하고 나머지는 보간에 의해 얻어진 머리전달 함수를 사용하더라도 청취상의 음원의 위치가 변동되지 않음을 알 수 있었다. In this paper, a new interpolation model for the head related transfer function (HRTF) was proposed. In the method herein, we assume that the impulse response of the HRTF for each azimuth angle is given by linear interpolation of the time-delayed neighboring impulse responses of HRTFs. The time delay of the HRTF for each azimuth angle is given by sum of the sound wave propagation time from the ears to the sound source, which can be estimated by using azimuth angle, the physical shape of the underlying head and the distance between the head and sound source, and the refinement time yielding the minimum mean square error. Moreover, in the proposed model, the interpolation intervals were not fixed but varied, which were determined by minimizing the total number of HRTFs while the synthesized signals have no perceptual difference from the original signals in terms of sound location. To validate the usefulness of the proposed interpolation model, the proposed model was applied to the several HRTFs that were obtained from one dummy-head and three human heads. We used the HRTFs that have 5 degree azimuth angle resolution at 0 degree elevation (horizontal plane). The experimental results showed that using only $30\sim40%$ of the original HRTFs were sufficient for producing the signals that have no audible differences from the original ones in terms of sound location.

      • KCI등재

        영상 기반 음성합성에서 심도 영상의 유용성

        이기승 한국음향학회 2023 韓國音響學會誌 Vol.42 No.1

        The images acquired from the speaker’s mouth region revealed the unique patterns according to the corresponding voices. By using this principle, the several methods were proposed in which speech signals were recognized or synthesized from the images acquired at the speaker’s lower face. In this study, an image-based speech synthesis method was proposed in which the depth images were cooperatively used. Since depth images yielded depth information that cannot be acquired from optical image, it can be used for the purpose of supplementing flat optical images. In this paper, the usefulness of depth images from the perspective of speech synthesis was evaluated. The validation experiment was carried out on 60 Korean isolated words, it was confirmed that the performance in terms of both subjective and objective evaluation was comparable to the optical image-based method. When the two images were used in combination, performance improvements were observed compared with when each image was used alone. 발성하고 있는 입 주변에서 취득한 영상은 발성 음에 따라 특이적인 패턴을 나타낸다. 이를 이용하여 화자의얼굴 하단에서 취득한 영상으로부터 발성 음을 인식하거나 합성하는 방법이 제안되고 있다. 본 연구에서는 심도 영상을 협력적으로 이용하는 영상 기반 음성합성 기법을 제안하였다. 심도 영상은 광학 영상에서는 관찰되지 않는 깊이 정보의 취득이 가능하기 때문에 평면적인 광학 영상을 보완하는 목적으로 사용이 가능하다. 본 논문에서는 음성 합성 관점에서 심도 영상의 유용성을 평가하고자 한다. 60개의 한국어 고립어 음성에 대해 검증 실험을 수행하였으며, 실험결과 객관적, 주관적 평가에서 광학적 영상과 근접한 성능을 얻는 것을 확인할 수 있었으며 두 영상을 조합하여 사용하는 경우 각 영상을 단독으로 사용하는 경우보다 향상된 성능을 나타내었다.

      • 신호 부공간 기법을 이용한 영상화질 향상

        이기승,도원,윤대희,Lee, Ki-Seung,Doh, Won,Youn, Dae-Hee 대한전자공학회 1996 전자공학회논문지-B Vol.b33 No.11

        In this paper, newly developed algorithm for enhancing images corrupted by white gaussian noise is proposed. In the method proposed here, image is subdivided into a number of subblocks, and each block is separated into cimponents corresponding to signal and noise subspaces, respectively through the signal subspace method. A clean signal is then estimated form the signal subspace by the adaptive wiener filtering. The decomposition of noisy signal into noise and signal subspaces in is implemented by eigendecomposition of covariance matrix for noisy image, and by performing blockwise KLT (karhunen loeve transformation) using eigenvector. To reduce the perceptual noise level and distortion, wiener filtering is implementd by adaptively adjusting noise level according to activity characteristics of given block. Simulation results show the effectiveness of proposed method. In particular, edge bluring effects are reduced compared to the previous methods.

      • KCI등재

        머리 전달 함수의 보간에 적합한 왜곡 척도

        이기승,이석필,Lee, Ki-Seung,Lee, Seok-Pil 한국음향학회 2009 韓國音響學會誌 Vol.28 No.2

        양이 재생 환경에서 다양하고 정확한 공간 이미지 형성을 위해서는 다양하고 세분화된 머리 전달 함수가 요구된다. 방대한 양의 머리 전달 함수를 효과적으로 감축하기 위한 방법으로, 모든 방향에 대한 머리 전달 함수를 몇 개의 대표 값들을 이용해 보간을 통해 얻는 방법이 주로 사용되고 있다. 본 논문에서는 머리 전달 함수의 보간 시 중요한 역할을 하는 보간 왜곡의 측정 방법에 대해 연구하였다. 다양한 객관적 왜곡 측정 방법을 이용하여 보간된 머리전달 함수와 본래의 머리전달 함수 간 차이를 표현하였으며 차이 값과 청취 테스트의 결과를 비교, 분석하였다. 분석 결과로부터 음원의 공간 이미지 차이를 가장 잘 반영하는 객관적 왜곡 측정 방법을 선택하였으며 이를 실제 보간 기법에 적용하였다. 3명의 사람으로부터 측정된 머리전달함수와 1개의 마네킹에서 측정된 머리 전달함수에 제안된 방법을 적용한 결과, 3명의 사람에 대한 머리전달 함수에 대해서는 멜-주파수 켑스트럼 왜곡이, 4 종류의 머리전달 함수에 대해서는 시간 영역의 신호 대 왜곡비자 음원의 공간 이미지 차이를 가장 잘 예측하는 왜곡 척도임을 알 수 있었다. In the binaural synthesis environments, wide varieties of the head-related transfer functions (HRTFs) that have measured with a various direction would be desirable to obtain the accurate and various spatial sound images. To reduce the size' of HRTFs, interpolation has been often employed, where the HRTF for any direction is obtained by a limited number of the representative HRTFs. In this paper, we study on the distortion measures for interpolation, which has an important role in interpolation. With lhe various objective distortion metrics, the differences between the interpolated and the measured HRTFs were computed. These were then compared and analyzed with the results from the listening tests. From the results, the objective distortion measures were selected, that reflected the perceptual differences in spatial sound image. This measure was employed in a practical interpolation technique. We applied the proposed method to four kinds of an HRTF set, measured from three human heads and one mannequin. As a result, the Mel-frequency cepstral distortion was shown to be a good predictor for the differences in spatial sound location, when three HRTF measured from human, and the time-domain signal to distortion ratio revealed good prediction results for the entire four HRTF sets.

      • KCI등재

        SOLA를 이용한 더빙 신호의 시간축 동기화

        이기승,지철근,차일환,윤대희 한국방송∙미디어공학회 1996 방송공학회논문지 Vol.1 No.2

        본 논문에서는 음성 신호의 시간축 변화에 널리 사용되고 있는 SOLA(Synchronized Over-Lap and ADD)기법을 사용하여 더빙된 신호를 본래의 음성 신호와 시간적으로 일치시키는 기법을 제안하였다. 방송 녹음의 경우, 큰 레벨의 배경 잡음등으로 인하여 스튜디오에서의 재녹음이 필요한 경우가 발생하게 된다. 이러한 재녹음 신호는 원래의 녹음 시간과 비교하여 대략 200msec의 시간차이를 갖게 되며, 이러한 시간차이는 화면과 음성과의 합성시 입모양이 서로 불일치하는 현상을 야기시킨다. 본 논문에서는 이러한 문제점을 해결하기 먼저 에너지궤적을 통해 원녹음 신호와 더빙 신호간의 어절 시작점을 서로 일치시키고, 어절내의 음소 위치를 동기화시키기 위하여 LPC 켑스트럼 분석과 DTW(Dynamic Time Warping)을 적용하였다. 음소가 서로 일치하는 지점은 원래의 녹음 신호와 더빙된 신호간의 LPC켑스트럼 자승 오차가 취소로 되는 지점을 탐색함으로서 결정된다. 음성의 합성시에는 인접 프레임간의 위상 관계가 서로 일치하도록 SOLA 방법을 사용하였다. 컴퓨터를 이용하여 모의 실험을 수행한 결과, 제안된 알고리즘을 통해 시간축 보정된 음성 신호는 음성 파형, 스펙트로그램 및 청취상으로 원래의 녹음 신호와 시간적으로 서로 일치함을 확인할 수 있었다. The purpose of this paper Is to propose a dubbed signal time-synchroniztion technique based on the SOLA(Synchronized Over-Lap and Add) method which has been widely used to modify the time scale of speech signal. In broadcasting audio recording environments, the high degree of background noise requires dubbing process. Since the time difference between the original and the dubbed signal ranges about 200mili seconds, process is required to make the dubbed signal synchronize to the corresponding image. The proposed method finds he starting point of the dubbing signal using the short-time energy of the two signals. Thereafter, LPC cepstrum analysis and DTW(Dynamic Time Warping) process are applied to synchronize phoneme positions of the two signals. After determining the matched point by the minimum mean square error between orignal and dubbed LPC cepstrums, the SOLA method is applied to the dubbed signal, to maintain the consistency of the corresponding phase. Effectiveness of proposed method is verified by comparing the waveforms and the spectrograms of the original and the time synchronized dubbing signal.

      • KCI등재

        헤드폰의 음향적 특성과 주관적 선호도간의 상관 관계

        이기승,이석필,Lee, Ki-Seung,Lee, Seok-Pil 한국음향학회 2009 韓國音響學會誌 Vol.28 No.2

        본 논문에서는 헤드폰의 음향적 특성과 주관적인 선호도간의 상관관계를 분석하고, 이로부터 음향적 특성을 이용한 주관적 선호도의 예측 가능성을 알아보았다. 헤드폰의 음향적 특성으로 좌, 우 채널에 대한 고조파 왜곡, 주파수 특성의 분산, 그리고 충격파 응답의 양이 상관 계수가 사용되었다. 이들 특성은 머리 모형을 이용하여 잡음이 없는 무향 환경에서 측정되었다. 주관적인 선호도는 음량감, 선명감, 공간감, 포만감, 전체적인 느낌의 5개 항목으로 점수화하여 나타내었다. 선호도 평가에는 음악 청취에 경험이 많은 12명의 청취자가 참여하였으며 샘플 음악은 가요, 팝, 경음악, 음성, 클래식의 5 종류의 음악이 사용되었다. 실험에 사용된 헤드폰은 밀폐형 4종, 개방형 2종 귓속 삽입형 2종 등 총 8개가 사용되었다. 주관적인 선호도는 이원 배치 법을 이용하여 주관적 선호도에 영향을 끼치는 요인을 분석하였으며 음향적 특성과 주관적인 선호도 점수 간의 상관 계수를 구하였다. 실험 결과 오른쪽 채널에서 측정된 주파수 크기 응답의 분산이 주관적인 선호도와 가장 높은 상관 계수를 갖는 것으로 나타났으며, 충격파 응답의 양이 상관 계수는 거의 상관 관계가 없는 것으로 나타났다. In this paper, correlation between the headphone's acoustical characteristics and the subjective preferences is analyzed, and a possibility of predicting the subjective preferences using the acoustical characteristics is investigated, The headphone's acoustical characteristics include the total harmonic distortions, the variation of the frequency response which were measured by separate channel and the inter-aural correlation coefficients, Those characteristics were measured in a noise-free anechoic chamber, using a head and torso simulator, The subjective preferences were scored in terms of loudness, clearness, spaciousness, fullness and overall impression, In the subjective listening test, 12 subjects were participated who have plentiful listening experiences, The programs include 5 kinds of musics; korean popular song, pop song, light music, male-voice and classic, The 8 models of the headphones were employed, including 4 closed-type circumaural headphones, 2 open-type supraaural headphones and 2 intra-concha headphones, A significant test was carred on the results from the subjective test, using a two-way ANOVA test, The correlation coefficients between the acoustical parameters and the subjective preferences were computed, Experimental results showed that the variation of the magnitude of frequency response measured from a right channel revealed higher correlation with the subjective preferences. Whereas the inter-aural correlation coefficients have very low correlation coefficients.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼