http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
박규봉(Park Gyu-Bong),박전규(Park Jeon-Gue),황두성(Hwang Doosung),한문성(Han Mun-Sung) 한국정보과학회 1997 한국정보과학회 학술발표논문집 Vol.24 No.2Ⅱ
널리 알려진 N-best 후보 추정 알고리즘들 중에 AT&T에서 나온 2-best 탐색 기법과 N-best 탐색 기법이 있다. 전자에는 전방향 탐색만 있고 탐색시 문법을 적용한다. 후자에는 전후방향 탐색이 모두 존재하고 문법은 후처리 과정에서 적용된다. 그러나 본 논문에서는 전방향 탐색 도중 문법을 적용하는 데 따른 잘못을 지적하고 이에 대한 대안으로 후방향 문법 적용 방안을 소개한다. 새 안은 후처리에서 문법을 고려하는 것보다 훨씬 효율적이다. 실험에 따르면 효율이 50% 정도 높아졌다.
운율 정보를 이용한 한국어 위치 정보 데이터의 발음 모델링
김선희(Sun-hee Kim),박전규(Jeon-Gue Park),전재훈(Je-Hun Jeon),나민수(Min-soo Na),정민화(Min-hwa Chung) 한국정보과학회 언어공학연구회 2006 한국정보과학회 언어공학연구회 학술발표 논문집 Vol.2006 No.10
일반적으로 운율 정보를 음성인식에 이용한 연구들에 있어서는 대부분 운율의 음향적 정보를 이용하는데 반하여, 본 연구에서는 운율어나 음절수와 같은 운율의 구조적 정보가 인식률 향상에 기여함을 보인다. 본 논문은 두 가지 운율 정보, 즉 운율어와 음절수를 이용하여 발음모델링을 할 경우에 음성인식기의 성능을 평가하는 것을 목표로 하는 것으로, 먼저, 운율어를 이용하여 위치 정보 데이터의 가능한 모든 발음을 생성하고, 다시 음절수를 기분으로 발음변이 수를 조절하는 방법을 제시한 다음, 제안한 방법에 의하여 생성한 발음사전을 이용하여 음성인식의 성능을 평하였다. 실험결과 운율어를 이용하여 발음 사전을 제작한 모든 경우에 베이스라인과 비교하여 성능이 향상됨을 보였는데, 베이스라인의 WER 4.63%에서 최대 8.4%의 WER가 감소하였다. 위치 정보 데이터의 음절수에 따라서 발음 변이의 수를 조절한 결과도 전체적으로는 3음절로 그 수를 제한한 경우, 6음절 이상 단어에서는 4음절로 제한한 경우에 가장 좋은 인식 성능을 얻을 수 있어서, 음절수에 따른 발음변이 수의 조절이 효과적임을 알 수 있었다.
운율 정보를 이용한 한국어 위치 정보 데이타의 발음 모델링
김선희(Sunhe Kim),박전규(Jeongue Park),나민수(Minsoo Na),전재훈(Jehun Jeon),정민화(Minwha Chung) 한국정보과학회 2007 정보과학회논문지 : 소프트웨어 및 응용 Vol.34 No.2
본 논문은 두 가지의 구조적 운율 정보, 즉 운율어와 음절 수를 이용하여 한국어 위치 정보 데이타의 발음모델링을 수행할 경우에 음성인식기의 성능을 평가하는 것을 목표로 하는 것이다. 먼저, 위치 정보 데이타가 운율어로 구성되어 있다는 전제 하에 운율어를 이용하여 위치 정보 데이타의 가능한 모든 발음을 생성하고, 다시 음절 수를 기준으로 발음변이 수를 조절하는 방법을 제시하였다. 제안한 방법에 의하여 9개의 테스트 세트와 9개의 학습 세트로 총 81개의 실험을 통하여 음성인식의 성능을 평가하였다. 실험 결과 운율어를 이용하여 발음 사전을 제작한 모든 경우에 베이스라인과 비교하여 성능이 향상되었다. 음절 수에 따라서 발음 변이의 수를 조절한 결과도 전체적으로는 3음절로 그 수를 제한한 경우에 가장 좋은 인식 성능을 얻을 수 있어서, 음절 수에 따른 발음 변이 수의 조절이 효과적임을 알 수 있었다. 제안한 방법과 같이 운율어와 음절수를 이용한 경우에 베이스라인의 WER 4.63%에서 최대 8.4%의 WER가 감소하였다. This paper examines how the performance of an automatic speech recognizer was improved for Korean Point-of-Interest (POI) data by modeling pronunciation variation using structural prosodic information such as prosodic words and syllable length. First, multiple pronunciation variants are generated using prosodic words given that each POI word can be broken down into prosodic words. And the cross-prosodic-word variations were modeled considering the syllable length of word. A total of 81 experiments were conducted using 9 test sets (3 baseline and 6 proposed) on 9 trained sets (3 baseline, 6 proposed). The results show: (i) the performance was improved when the pronunciation lexica were generated using prosodic words; (ii) the best performance was achieved when the maximum number of variants was constrained to 3 based on the syllable length; and (iii) compared to the baseline word error rate (WER) of 4.63%, a maximum of 8.4% in WER reduction was achieved when both prosodic words and syllable length were considered.
워드 임베딩과 품사 태깅을 이용한 클래스 언어모델 연구
정의석(Euisok Chung),박전규(Jeon-Gue Park) 한국정보과학회 2016 정보과학회 컴퓨팅의 실제 논문지 Vol.22 No.7
음성인식 성능 개선을 위한 언어모델의 기술적 진보는 최근 심층 신경망을 기반으로 한 접근방법으로 한 단계 더 진보한 모양새다. 그러나 연구되고 있는 심층 신경망 기반 언어모델은 대부분 음성인식 이후 리스코링 단계에서 적용할 수 있는 한계를 지닌다. 또한 대규모 어휘에 대한 심층 신경망 접근방법은 아직 시간이 필요하다고 본다. 따라서 본 논문은 심층 신경망 언어 모델의 단순화된 형태인 워드임베딩 기술을 음성인식 후처리가 아닌 기반 N-gram모델에 바로 적용할 수 있는 접근 방법을 찾는다. 클래스 언어모델이 한 접근 방법이 될 수 있는데, 본 연구에서는 워드 임베딩을 우선 구축하고, 해당 어휘별 벡터 정보를 클러스터링하여 클래스 언어모델을 구축 방법을 제시한다. 이를 기존 어휘기반 N-gram 모델에 통합한 후, 언어모델의 성능 개선 여부를 확인한다. 클래스 언어모델의 타당성 검증을 위해 다양한 클래스 개수의 언어모델 실험과 RNN LM과의 비교 결과를 검토한 후, 모든 언어모델의 성능 개선을 보장하는 품사 부착 언어모델 생성 방법을 제안한다. Recurrent neural network based language models (RNN LM) have shown improved results in language model researches. The RNN LMs are limited to post processing sessions, such as the N-best rescoring step of the wFST based speech recognition. However, it has considerable vocabulary problems that require large computing powers for the LM training. In this paper, we try to find the 1st pass N-gram model using word embedding, which is the simplified deep neural network. The class based language model (LM) can be a way to approach to this issue. We have built class based vocabulary through word embedding, by combining the class LM with word N-gram LM to evaluate the performance of LMs. In addition, we propose that part-of-speech (POS) tagging based LM shows an improvement of perplexity in all types of the LM tests.