http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
권구락,고성제,Kwon Goo-Rak,Ko Sung-Jea 대한전자공학회 2006 電子工學會論文誌-SP (Signal processing) Vol.43 No.3
본 논문에서는 EVRC와 G.729A 음성부호화기를 위한 상호부호화 알고리듬을 제안한다. 다른 음성 표준을 사용하는 통신망간에 음성신호를 연동시키는 가장 간단한 방법은 이중 부/복호화 (tandem coding) 방법이다. 이 방법은 두 번의 부/복호화 과정을 거치기 때문에 많은 계산량이 요구되며 아울러 음성 지연이 발생하게 된다. 이러한 문제점들을 개선하기 위하여 상호부호화를 사용한다. 상호부호화는 LSP (Line Spectral Pair) 변환과 피치 지연 변환 그리고 지연 시간 단축 알고리듬을 통하여 수행한다. 제안된 알고리듬은 $18{\sim}22%$의 적은 계산량과 $5{\sim}10ms$의 짧은 지연으로 상호 부/복호화에 상응하는 음성 품질을 제공함을 실험을 통해 확인할 수 있다. This paper presents an effective algorithm for transcoding between the Enhanced Variable Rate Codec(EVRC) and G.729A. The simplest way to communicate between heterogeneous speech networks is the cascade connection of two different codecs, called tandem coding. However, tandem coding not only produces high computational loads, but also makes long delay, These problems can be solved by using the transcoding algorithm. The proposed algorithm consists of LSP (Line Spectral Pair) conversion, pitch delay conversion and algorithm for reduction of delay. Experimental results show the proposed algorithm produces lower computational complexity, shorter algorithm delay, and similar speech quality when compared with the tandem algorithm.
Multi-scale Convolutional Neural Network 기반의 컬러 영상 가이드를 활용한 깊이 영상 초해상도 기법
박상현(Sang-Hyun Park),김준연(Joon-Yeon Kim),고성제(Sung-Jea Ko) 대한전자공학회 2020 대한전자공학회 학술대회 Vol.2020 No.8
In this paper, we propose a color guided depth map super resolution method based on multi-scale convolutional neural network. The proposed method gradually improves resolution of the depth map by using each scale information through subnetwork. To train the network, each subnetwork is supervised by the down-sampled ground truth depth map. In addition, we reduced the number of trainable parameters through the weight sharing of the subnetworks. Experimental results demonstrate that the proposed method shows better performance than the conventional method.
적록 색각 이상자를 위한 HSV색공간을 이용한 색변환 기법
김현지,조재영,고성제,Kim, Hyun-Ji,Cho, Jae-Young,Ko, Sung-Jea 대한전자공학회 2013 전자공학회논문지 Vol.49 No.11
본 논문에서는 적록색각 이상자를 위한 색 변환 알고리즘을 제안한다. 적록색각 이상자는 원추세포의 이상으로 인해 색상과 명도를 일반인과 다르게 인지하기 때문에 적색과 녹색의 구분에 어려움을 겪는다. HSV 색공간은 이러한 특성을 파악할 수 있는 인간의 색지각과 유사한 색 공간으로, 제안하는 방법에서는 HSV 색 공간에서 색상과 명도를 보정하여 색을 변환 한다. 이때 색상과 명도 보정정도는 개개인의 색각이상 심각도에 따라 다르게 결정된다. 색각 이상자 개개인에 따라 다른 보정정도를 적용함으로서 기존 이미지의 자연스러움은 유지 하고 구분하기 힘들었던 색상들도 구분 가능하게 변환된다. 제안하는 방법을 색각 이상자에게 적용하여 시뮬레이션으로 확인한 결과, 색각 이상자가 구분하기 힘든 색상들이 색상의 자연스러움을 유지하면도 색차를 인지할 수 있는 색으로 변환되는 것을 확인할 수 있었다. This paper proposes a new re-coloring method for the people with the red-green color vision deficiency (CVD). These people have difficulty in discriminating the red and green colors since they abnormally perceive the hue and luminance value of the colors. We introduce a color transformation that adjusts the hue and luminance value in HSV color space. The color transformation is determined according to the severity of CVD. Our aim is to maintain the color differences in original image while maintaining the recolored image to be natural to the people with normal color vision. Experimental results show that the proposed method can yield more comprehensible images for the people with red-green CVD while maintaining the naturalness of the recolored images.
김남호,김형곤,고성제,Kim, Nam-Ho,Kim, Hyoung-Gon,Ko, Sung-Jea 대한전자공학회 1998 電子工學會論文誌, S Vol.s35 No.8
본 논문에서는 컬러 비디오 시퀀스 상에서 눈과 입에 해당하는 얼굴 특징점을 고속으로 추출하는 방법을 제안한다. 자유로운 움직임을 갖는 얼굴 영역을 안정적으로 추출하기 위해 얼굴 색상 분포를 이용한 색상 변환 영상에 움직임 검출 기법을 적용하여 움직이는 살색 부분만을 효율적으로 검출하는 색상 움직임 개념을 사용하였다. 움직임 정보는 살색의 가능성 정도에 따라 가중치가 주어지며 화소 단위의 움직임 여부를 결정하는 문턱값도 살색의 가능성 정도에 따라 적응적으로 결정된다. 눈의 색상분포와 형태소 연산자를 사용한 움직임 살색 영역에서 눈 후보 영역을 추출하고 눈과 눈썹의 상호 위치 관계를 이용하여 눈의 영역을 최종 결정한다. 입의 영역은 눈의 위치를 기준으로 입 후보 영역을 정하고 색상 히스토그램을 이용하여 입의 영역을 검출한다. 찾아진 눈과 입의 영역에서 정확한 특징점의 위치를 구하기 위해 PCA (Principal Component Analysis)를 사용하였다. 실험 결과 복잡한 배경, 개인적인 편차, 얼굴의 방향과 크기 등에 영향을 받지 않고 고속으로 정확한 얼굴의 특징점을 추출할 수 있었다. This paper presents an automatic facial feature point extraction algorithm in sequential color images. To extract facial region in the video sequence, a moving color detection technique is proposed that emphasize moving skin color region by applying motion detection algorithm on the skin-color transformed images. The threshold value for the pixel difference detection is also decided according to the transformed pixel value that represents the probability of the desired color information. Eye candidate regions are selected using both of the black/white color information inside the skin-color region and the valley information of the moving skin region detected using morphological operators. Eye region is finally decided by the geometrical relationship of the eyes and color histogram. To decide the exact feature points, the PCA(Principal Component Analysis) is used on each eye and mouth regions. Experimental results show that the feature points of eye and mouth can be obtained correctly irrespective of background, direction and size of face.
색차 왜곡 방지를 위한 벡터투사 기반 언샤프 마스킹 기법
이광욱,단병규,김승균,고성제,Lee, Kwang-Wook,Dan, Byung-Kyu,Kim, Seung-Kyun,Ko, Sung-Jea 한국전기전자학회 2009 전기전자학회논문지 Vol.13 No.2
언샤프 마스킹 기법은 회색조 영상의 화질 향상을 위해 널리 사용되는 영상 강화기법 중 하나이다. 하지만 언샤프마스킹 알고리즘은 노이즈에 민감하며 오버/언더슛이 발생하여 영상을 열화시키는 문제가 있다. 또한 칼라 영상성분에 기존 알고리즘을 그대로 적용하게 되면 영상에서 색차의 왜곡현상이 발생한다. 이러한 여러 가지 문제를 해결하기 위하여 본 논문에서는 고급 언샤프 마스킹 알고리즘을 사용하여 색차왜곡 없이 영상의 경계를 강조하고 노이즈와 오버/언더슛 문제를 해결한다. 제안하는 알고리즘은 오버/언더슛과 노이즈 문제를 해결하기 위하여 인간의 시각적 특성과 영상의 지역적 색차 대비 특성을 이용하여 영상 강화의 단계를 조절하고, RGB영상과 HSI영상의 관계를 바탕으로 RGB의 벡터적 특성에 기반한 투사 방법을 이용하여 색차왜곡을 방지한다. 실험 결과는 제안하는 알고리즘이 성공적으로 경계 영상을 강조하는 동시에 타 알고리즘을 적용했을 때 발생하는 색차왜곡과 노이즈 및 오버/언더슛 현상 없이 영상이 강조된다는 것을 확인할 수 있다. Unsharp masking is a popular image enhancement technique used to sharpen an image appearance in gray images. However, the conventional unsharp making techniques amplify the noise and easily cause overshoot artifacts. Moreover, the unsharp masking tends to introduce color distortion when it is applied to the each color component independently. To solve these problems, we propose a novel unsharp masking technique based on human visual system and vector projection. The proposed algorithm consists of two steps. First, the proposed algorithm controls the level of sharpening by exploiting the characteristics of the human visual system and contrast region. Then the vector projection is applied to remove the color distortion. Experiment results show that our proposed algorithm successfully produces sharpened images that are free of noise and color distortion commonly found in the conventional unsharp masking algorithms.