http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
황희융(Hee Yeung Hwang),김민환(Min Hwan Kim),정주성(Ju Seong Jong) 한국정보과학회 1987 정보과학회논문지 Vol.14 No.4
Hough변환에서의 매개변수공간(parameter space)을 다차원의 누적배열(accumulator array)로 표현하는 대신에 단지 매개변수 갯수만큼의 일차원 배열들로 표현하여, 후보점의 각 매개변수값이 따로따로 누적되도록 하였다. 이때 이러한 배열에 이미 누적된 값들로부터 얻어지는 지역적 최대값(local maximum)들간의 관계를 이용해 가중치(weighting value)를 누적시켜 나가는 상호협력연산방법을 사용하였다. 본 변환방법은 매우 적은 양의 소요메모리를 필요로 하므로 소형전산기에서도 구현가능하다. 특히, 매개변수가 많은 경우에 매우 유용하다. 본 연구에서는 유한 개의 매개변수로 표현되는 함수패턴에 대해서만 다루었다. In this paper, a cooperative computation model for the Hough transform is suggested. The parameter space is represented as a set of one-dimensional arrays, which are designated by projection arrays. The votes on this space are accumulated with weighting values, by using the contextual information which can be obtained from the relation between local maxima of these arrays. Only the analytical shapes are treated in this paper. This model can be implemented on a microcomputer, because the amount of storage required for the parameter space is very small. It is especially useful when the parameter space has a large number of dimensions.
Study on Error Check and State Reduction of State Diagram Using Logic Programming
이극,김민환,황희융,Lee, Geuk,Kim, Min-Hwan,Hwang, Hee-Yeung 대한전기학회 1986 전기학회논문지 Vol.35 No.11
This paper is concerned with the techniques of error check and reduction of state diagram using logic programming. Error check program aims to check not only syntax errors but also semantic errors. And reduction program optimizes the state diagram by finding the redundant equivalence states and removing those from the set of states. The input of both program is state diagram represented as state table form. The output of error check program is error comment. The output of reduction program is equivalence reduced state table. Both programs are implemented using prolog. Prolog has very powerful pattern matching, and its automatic back-tracking capabilities facilitate easy-to-write error check and reduction programs.
김기석,임은진,황희융,Kim, Ki-Seok,Im, Eun-Jin,Hwang, Hee-Yung 한국음향학회 1992 韓國音響學會誌 Vol.11 No.3
There have been many researches that uses neural network models for automatic speech recognition, but the main trend was finding the neural network models and learning rules appropriate to automatic speech recognition. However, the choice of the input speech parameter for the neural network as well as neural network model itself is a very important factor for the improvement of performance of the automatic speech recognition system using neural network. In this paper we select 6 speech parameters from surveys of the speech recognition papers which uses neural networks, and analyze the performance for the same data and the same neural network model. We use 8 sets of 9 Korean plosives and 18 sets of 8 Korean vowels. We use recurrent neural network and compare the performance of the 6 speech parameters while the number of nodes is constant. The delta cepstrum of linear predictive coefficients showed best result and the recognition rates are 95.1% for the vowels and 100.0% for plosives. 음성 인식에 신경망 모델을 적용하는 많은 연구들이 있었지만, 주된 관심은 음성인식에 적합한 구조와 학습 방법이었다. 그러나 음성인식에 신경망 모델을 적용한 시스템의 효율 향상은 모델 자체의 구조뿐 아니라, 신경망 모델의 입력으로 어떤 음성 파라미터를 사용하는가에 따라서도 큰 영향을 받는다. 본 논문은 기존 음성인식에 신경망 모델을 적용한 많은 연구들에서 사용한 음성 파라미터를 살펴보고, 대표적인 음성 파라미터 6개를 선정하여, 같은 데이타와 같은 신경망 모델 하에서 어떻게 성능이 달라지는지를 분석한다. 인식 실험에 있어서는 한국어 파열음 9개에 대한 8개 데이터 집합과 모음 8개에 대한 18개 데이터 집합을 음성 파라미터로 하고 신경망 모델은 순환 신경망 모델을 사용하여 노드의 수를 일정하게 한뒤 다양한 입력 파라미터의 성능을 비교하였다. 그 결과 선형 예측 계수로부터 얻어진 delta cepstrum의 음성 파라미터가 가장 좋은 성능을 보였으며 이때 인식률은 같은 학습 데이터에 대해 파열음 100.0%, 모음 95.1%이었다.