http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
주종태,박경진,고광은,양현창,심귀보 한국지능시스템학회 2007 한국지능시스템학회 학술발표 논문집 Vol.17 No.1
본 논문에서는 사람의 얼굴표정을 통해 4개의 기본감정(기쁨, 슬픔, 화남, 놀람)에 대한 특징을 추출하고 인식하여 그 결과를 이용하여 감정표현 시스템을 구현한다. 먼저 주성분 분석(Principal Component Analysis)법을 이용하여 고차원의 영상 특징 데이터를 저차원 특징 데이터로 변환한 후 이를 선형 판별 분석(Linear Discriminant Analysis)법에 적용시켜 좀 더 효율적인 특징벡터를 추출한 다음 감정을 인식하고, 인식된 결과를 얼굴 표현 시스템에 적용시켜 감정을 표현한다.
자기 조직화 신경망을 이용한 음성 신호의 감정 특징 패턴 분류 알고리즘
주종태,박창현,심귀보 한국지능시스템학회 2006 한국지능시스템학회 학술발표 논문집 Vol.16 No.2
현재 감정을 인식할 수 있는 방법으로는 음성, 뇌파, 심박, 표정 등 많은 방법들이 존재한다. 본 논문은 이러한 방법 중 음성 신호를 이용한 방법으로써 특징들은 크게 피치, 에너지, 포만트 3가지 특징 점을 고려하였으며 이렇게 다양한 특징들을 사용하는 이유는 아직 획기적인 특징점이 정립되지 않았기 때문이며 이러한 선택의 문제를 해결하기 위해 본 논문에서는 특징 선택 방법 중 Multi Feature Selection(MFS) 방법을 사용하였으며 학습 알고리즘은 Self Organizing Map 알고리즘을 이용하여 음성 신호의 감정 특징 패턴을 분류하는 방법을 제안한다.
음성 신호와 얼굴 표정을 이용한 감정인식 및 표현 기법
주종태,문병현,서상욱,장인훈,심귀보 한국지능시스템학회 2007 한국지능시스템학회 학술발표 논문집 Vol.17 No.1
본 논문에서는 감정인식 분야에서 가장 많이 사용되어지는 음성신호와 얼굴영상을 가지고 4개의 (기쁨, 슬픔, 화남, 놀람) 감정으로 인식하고 각각 얻어진 감정인식 결과를 Multi modal 기법을 이용해서 이들의 감정을 융합한다. 이를 위해 얼굴영상을 이용한 감정인식에서는 주성분 분석(Principal Component Analysis)법을 이용해 특징벡터를 추출하고, 음성신호는 언어적 특성을 배재한 acoustic feature를 사용하였으며 이와 같이 추출된 특징들을 각각 신경망에 적용시켜 감정별로 패턴을 분류하였고, 인식된 결과는 감정표현 시스템에 작용하여 감정을 표현하였다.
음성 신호와 얼굴 영상을 이용한 특징 및 결정 융합 기반 감정 인식 방법
주종태(Jong-Tae Joo),양현창(Hyun-Chang Yang),심귀보(Kwee-Bo Sim) 한국지능시스템학회 2007 한국지능시스템학회 학술발표 논문집 Vol.17 No.2
인간과 컴퓨터간의 상호교류 하는데 있어서 감정 인식은 필수라 하겠다. 그래서 본 논문에서는 음성 신호 및 얼굴 영상을 BL(Bayesian Learning)과 PCA(Principal Component Analysis)에 적용하여 5가지 감정(Normal, Happy, Sad, Anger, Surprise)으로 패턴 분류하였다. 그리고 각각 신호의 단점을 보완하고 인식률을 높이기 위해 결정 융합 방법과 특징 융합 방법을 이용하여 감정 융합을 실행하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 융합하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 융합을 실행하였다.
주종태(Jong-Tae Joo),김대욱(Dae-Wook Kim),심귀보(Kwee-Bo Sim) 한국지능시스템학회 2006 한국지능시스템학회논문지 Vol.16 No.5
DNA칩 영상의 패턴 분류는 인간의 유전적 질병에 대한 유용한 정보를 획득할 수 있다는 점에서 아주 중요한 것이다. 본 논문에서는 DNA칩 영상의 패턴을 분류하기 위해 신경망의 학습 알고리즘 중 Back-propagation과 Self Organizing Map을 이용하여 패턴을 분류하는 알고리즘을 개발하고 이들의 결과를 비교 분석하였다. 또한 개발한 알고리즘은 PC 환경 및 S3C2440 (ARM920T)을 CPU Core로 사용한 MV2440 보드에서 실험하여 그 결과를 디스플레이 함으로써 사용자가 다양한 환경에서 보다 쉽게 유전자 정보를 얻는데 도움을 줄 수 있도록 하였다. It is very important to classify the DNA Chip image pattern in order to acquire useful information about genetic disease of people. In this paper, we developed the novel pattern classification method of DNA Chip image using MLP based back-propagation and Self organizing Map learning algorithm. And then we compared and analyzed these classified pattern results. Also we carried out experiment in the MV2440 board using CPU Core for S3C2440(ARM 920T) and PC environment, and displayed its results in order to give the genetic information to user more easily in various environment.
다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템
염홍기(Hong-Gi Yeom),주종태(Jong-Tae Joo),심귀보(Kwee-Bo Sim) 한국지능시스템학회 2008 한국지능시스템학회논문지 Vol.18 No.1
지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다. As they have more and more intelligence robots or computers these days. so the interaction between intelligence robot(computer) - human is getting more and more important also the emotion recognition and expression are indispensable for interaction between intelligence robot(computer) - human. In this paper, firstly we extract emotional features at speech signal and facial image. Secondly we apply both BL(Bayesian Learning) and PCA(Principal Component Analysis). lastly we classify five emotions patterns(normal, happy, anger, surprise and sad) also, we experiment with decision fusion and feature fusion to enhance emotion recognition rate. The decision fusion method experiment on emotion recognition that result values of each recognition system apply Fuzzy membership function and the feature fusion method selects superior features through SFS(Sequential Forward Selection) method and superior features are applied to Neural Networks based on MLP(Multi Layer Perceptron) for classifying five emotions patterns and recognized result apply to 2D facial shape for express emotion.