http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
이석명,최정윤,강홍구,Lee, Suk-Myung,Choi, Jeung-Yoon,Kang, Hong-Goo 한국음향학회 2012 韓國音響學會誌 Vol.31 No.6
논문은 지식기반의 음성인식 시스템에서 비음 위치를 검출하기 위한 음향음성학적 파라미터를 제시하였다. 음향음성학적 파라미터는 앞선 연구자들의 연구내용을 토대로 비강을 통해 음성이 발성될 때 나타나는 특징을 기반으로 하여 선별하였다. 선별된 파라미터들은 대역별 에너지 비율, 대역별 에너지의 차이, 포먼트 그리고 포먼트의 차이로써, 비음 위치에 따라 변화하는 조음기관의 영향을 잘 나타내 주었다. 이러한 음향음성학 파라미터를 이용하여 비음을 순비음(/m/), 치경비음(/n/), 그리고 연구개비음(/ng/)으로 나누는 실험을 진행하였고, TIMIT 데이터베이스로 실험하였을 때 57.5%의 검출률을 얻을 수 있었다. This paper describes acoustic phonetic parameters for detecting nasal place in a knowledge-based speech recognition system. Initial acoustic phonetic parameters are selected by studying nasal production mechanisms which are radiation of the sound through the nasal cavity. Nasals are produced with differing articulatory configuration which can be classified by measuring acoustic phonetic parameters such as band energy ratio, band energy differences, formants and formant differences. These acoustic phonetic parameters were tested in a classification experiment among labial nasal, alveolar nasal and velar nasal. An overall classification rate of 57.5% is obtained using the proposed acoustic phonetic parameters on the TIMIT database.
Classification of Diphthongs using Acoustic Phonetic Parameters
이석명,최정윤,Lee, Suk-Myung,Choi, Jeung-Yoon The Acoustical Society of Korea 2013 韓國音響學會誌 Vol.32 No.2
본 논문은 이중모음을 분류하기 위한 음향음성학적 파라메터를 연구하였다. 음향음성학적 파라메터는 성도를 통해 음성이 발성될 때 나타나는 특징을 기반으로 하여 분산분석(ANOVA) 방법을 통해 선별한 모음의 길이, 에너지 궤적, 그리고 포먼트의 차이를 이용하였다. TIMIT 데이터 베이스를 사용하였을 때, 단모음과 이중모음만을 구분하는 실험에서는 17.8% 의 밸런스 에러율(BER)을 얻을 수 있었고, /aw/, /ay/, 그리고 /oy/를 단모음과 분류하는 실험에서는 각각 32.9%, 29.9%, 그리고 20.2%의 에러율을 얻을 수 있었다. 추가적으로 진행한 실험에서, 음향음성학적 파라메터와 음성인식에 널리 쓰이고 있는 MFCC를 함께 사용하였을 경우 역시 성능향상이 나타나는 것을 확인하였다. This work examines classification of diphthongs, as part of a distinctive feature-based speech recognition system. Acoustic measurements related to the vocal tract and the voice source are examined, and analysis of variance (ANOVA) results show that vowel duration, energy trajectory, and formant variation are significant. A balanced error rate of 17.8% is obtained for 2-way diphthong classification on the TIMIT database, and error rates of 32.9%, 29.9%, and 20.2% are obtained for /aw/, /ay/, and /oy/, for 4-way classification, respectively. Adding the acoustic features to widely used Mel-frequency cepstral coefficients also improves classification.
이형구(Hyunggu Lee),이철한(Chulhan Lee),최정윤(Jeung-Yoon Choi),김재희(Jaihie Kim) 대한전자공학회 2007 대한전자공학회 학술대회 Vol.2007 No.11
Cancelable biometrics has been introduced for secure usage of biometric data in biometric recognition system. Cancelable template is a revocably and non-invertibly transformed version of original biometric data. Normally, the face biometric data can be interpreted by machine and human. However, due to non-invertible transform, cancelable template cannot be understood by human. In this paper, we propose a method about human interpretable face image synthesis. Because, face image is synthesized using revocable cancelable template, synthesized face image is also revocable. In other words, we can simply regenerate face image with newly issued cancelable template.
독립성분 분석 계수의 합성에 의한 가변 얼굴 생체정보 생성 방법
정민이(MinYi Jeong),이철한(Chelhan Lee),최정윤(Jeung-Yoon Choi),김재희(Jaihie Kim) 대한전자공학회 2007 電子工學會論文誌-SP (Signal processing) Vol.44 No.6
개인 인증 방법 중 하나인 생체인식(Biometrics)은 개인 생체정보의 수가 한정되어 있기 때문에 생체정보의 도난 시 프라이버시 침해라는 문제를 가진다. 이 문제를 해결하기 위해 등장한 개념이 가변 생체인식(Changeable biometrics)이다. 가변 생체인식은 생체정보가 훼손당했을 경우 새로운 생체정보로 대체하기 어렵다는 생체인식의 가장 큰 단점을 보완하기 위한 방법으로 원 생체정보가 아닌 변환된 생체정보로 개인을 인증한다. 이 논문에서는 가변 생체인식 가운데 얼굴인식을 위한 가변 생체인식에 대해 제안한다. 기존에 알려진 얼굴인식의 방법 가운데 하나인 외형 기반 기법(Appearance-based method) 중 독립성분 분석(Independent Component Analysis)의 계수(coefficient)를 변형하는 방법을 제안한다. 제안된 얼굴 생체정보 생성 방법은 계수의 일부분을 가우시안 분포(Gaussian distribution)에 따른 임의의 값으로 치환한 후 계수의 순서를 임의로 변경하여 무수히 많은 가변 얼굴 정보를 생성할 수 있도록 하였고 서로 다르게 변경된 계수들을 서로 합성함으로써 비가역성(Non-invertibility)을 만족 시키려고 시도했다. Changeable biometrics has been developed as a solution to problem of enhancing security and privacy. The idea is to transform a biometric signal or feature into a new one for the purposes of enrollment and matching. In this paper, we propose a changeable biometric system that can be applied to appearance based face recognition system. In the first step when using feature extraction, ICA(Independent Component Analysis) coefficient vectors extracted from an input face image are replaced randomly using their mean and variation. The transformed vectors by replacement are scrambled randomly and a new transformed face coefficient vector (transformed template) is generated by combination of the two transformed vectors. When this transformed template is compromised, it is replaced with new random numbers and a new scrambling rule. Because the transformed template is generated by the addition of two vectors, the original ICA coefficients could not be easily recovered from the transformed coefficients.