http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
SoC 하드웨어 설계를 위한 SIFT 특징점 위치 결정 알고리즘의 고정 소수점 모델링 및 성능 분석
박찬일(Chan-Ill Park),이수현(Su-Hyun Lee),정용진(Yong-Jin Jeong) 대한전자공학회 2008 電子工學會論文誌-SD (Semiconductor and devices) Vol.45 No.6
본 논문에서는 SIFT(Scale Invariant Feature Transform) 알고리즘을 임베디드 환경에서 실시간으로 처리하기 위해 가장 연산량이 많은 특징점 위치 결정 단계를 고정 소수점 모델로 설계 및 분석하고 그에 근거한 하드웨어 구조를 제안한다. SIFT 알고리즘은 객체의 꼭지점이나 모서리와 같이 색상 성분의 차가 심한 구역에서 얻어진 특징점 주위 픽셀의 벡터성분을 추출하는 알고리즘으로, 현재 얼굴인식, 3차원 객체 인식, 파노라마, 3차원 영상 복원 작업의 핵심 알고리즘으로 연구 되고 있다. 본 알고리즘에 대한 최적의 하드웨어 구현을 위해 특징점 위치(Keypoint Localization)와 방향(Orient Assignment)에 대한 정확도, 오차율을 사용하여 고정 소수점 모델에서 각 중요 변수들의 비트 크기를 결정 한다. 얻어진 고정 소수점 모델은 원래의 부동소수점 모델과 비교했을 때 정확도 93.57%, 오차율 2.72%의 결과를 보이며, 고정 소수점 모델은 부동 소수점 모델과 비교하여 제거된 특징점의 대부분이 두 영상에서 추출된 특징점 끼리의 매칭과정에서 불필요한 객체의 모서리 영역에 몰려있음을 확인 했다. 고정 소수점 모델링 결과 ARM 400㎒ 환경에서 약 3시간, Pentium Core2Duo 2.13㎓ 환경에서 약 15초의 연산시간을 갖는 부동 소수점 모델이 동일한 환경에서 약 1시간과 10초의 연산시간을 가지며, 최적화된 고정 소수점 모델을 하드웨어로 구현 시 10~15 frame/sec의 성능을 보일 것으로 예상한다. SIFT(Scale Invariant Feature Transform) is an algorithm to extract vectors at pixels around keypoints, in which the pixel colors are very different from neighbors, such as vertices and edges of an object. The SIFT algorithm is being actively researched for various image processing applications including 3-D image constructions, and its most computation-intensive stage is a keypoint localization. In this paper, we develope a fixed-point model of the keypoint localization and propose its efficient hardware architecture for embedded applications. The bit-length of key variables are determined based on two performance measures: localization accuracy and error rate. Comparing with the original algorithm (implemented in Matlab), the accuracy and error rate of the proposed fixed point model are 93.57% and 2.72% respectively. In addition, we found that most of missing keypoints appeared at the edges of an object which are not very important in the case of keypoints matching. We estimate that the hardware implementation will give processing speed of 10 ~ 15 frame/sec, while its fixed point implementation on Pentium Core2Duo (2.13 ㎓) and ARM9 (400 ㎒) takes 10 seconds and one hour each to process a frame.
이용환,김흥준 한국반도체디스플레이기술학회 2019 반도체디스플레이기술학회지 Vol.18 No.1
Understanding and classification of the human’s emotion play an important tasks in interacting with human and machine communication systems. This paper proposes a novel emotion recognition method by extracting facial keypoints, which is able to understand and classify the human emotion, using active Appearance Model and the proposed classification model of the facial features. The existing appearance model scheme takes an expression of variations, which is calculated by the proposed classification model according to the change of human facial expression. The proposed method classifies four basic emotions (normal, happy, sad and angry). To evaluate the performance of the proposed method, we assess the ratio of success with common datasets, and we achieve the best 93% accuracy, average 82.2% in facial emotion recognition. The results show that the proposed method effectively performed well over the emotion recognition, compared to the existing schemes.