http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Cascade 안면 검출기와 컨볼루셔널 신경망을 이용한 얼굴 분류
유제훈(Je-Hun Yu),심귀보(Kwee-Bo Sim) 한국지능시스템학회 2016 한국지능시스템학회논문지 Vol.26 No.1
머신비전을 사용하여 사람의 얼굴을 인식하는 다양한 연구가 진행되고 있다. 머신비전은 기계에 시각을 부여하여 이미지를 분류 혹은 분석하는 기술을 의미한다. 본 논문에서는 이러한 머신비전 기술을 적용한 얼굴을 분류하는 알고리즘을 제안한다. 이 얼굴 분류 알고리즘을 구현하기 위해 컨볼루셔널 신경망(Convolution neural network)과 Cascade 안면 검출기를 사용하였고, 피험자들의 얼굴을 분류하였다. 구현한 얼굴 분류 알고리즘의 학습을 위해 한 피험자 당 이미지 2,000장, 3,000장, 40,00장을 10회와 20회 컨볼루셔널 신경망에 각각 반복하여 학습과 분류를 진행하였고, 학습된 컨볼루셔널 신경망과 얼굴 분류 알고리즘의 실효성을 테스트하기 위해 약 6,000장의 이미지를 분류하였다. 또한 USB 카메라 영상을 실험 데이터로 입력받아 실시간으로 얼굴을 검출하고 분류하는 시스템을 구현하였다. Nowadays, there are many research for recognizing face of people using the machine vision. the machine vision is classification and analysis technology using machine that has sight such as human eyes. In this paper, we propose algorithm for classifying human face using this machine vision system. This algorithm consist of Convolutional Neural Network and cascade face detector. And using this algorithm, we classified the face of subjects. For training the face classification algorithm, 2,000, 3,000, and 4,000 images of each subject are used. Training iteration of Convolutional Neural Network had 10 and 20. Then we classified the images. In this paper, about 6,000 images was classified for effectiveness. And we implement the system that can classify the face of subjects in realtime using USB camera.
컨볼루셔널 신경망과 케스케이드 안면 특징점 검출기를 이용한 얼굴의 특징점 분류
유제훈(Je-Hun Yu),고광은(Kwang-Eun Ko),심귀보(Kwee-Bo Sim) 제어로봇시스템학회 2016 제어·로봇·시스템학회 논문지 Vol.22 No.3
Nowadays many people have an interest in facial expression and the behavior of people. These are human-robot interaction (HRI) researchers utilize digital image processing, pattern recognition and machine learning for their studies. Facial feature point detector algorithms are very important for face recognition, gaze tracking, expression, and emotion recognition. In this paper, a cascade facial feature point detector is used for finding facial feature points such as the eyes, nose and mouth. However, the detector has difficulty extracting the feature points from several images, because images have different conditions such as size, color, brightness, etc. Therefore, in this paper, we propose an algorithm using a modified cascade facial feature point detector using a convolutional neural network. The structure of the convolution neural network is based on LeNet-5 of Yann LeCun. For input data of the convolutional neural network, outputs from a cascade facial feature point detector that have color and gray images were used. The images were resized to 32×32 . In addition, the gray images were made into the YUV format. The gray and color images are the basis for the convolution neural network. Then, we classified about 1,200 testing images that show subjects. This research found that the proposed method is more accurate than a cascade facial feature point detector, because the algorithm provides modified results from the cascade facial feature point detector.
사물인터넷 구축을 위한 스마트폰을 이용한 이동로봇의 제어
유제훈(Je-Hun Yu),안성인(Seong-In Ahn),이성원(Sung-Won Lee),심귀보(Kwee-Bo Sim) 한국지능시스템학회 2016 한국지능시스템학회논문지 Vol.26 No.5
사물인터넷이 발전함에 따라 다양한 분야에서 적용될 수 있는 제품들이 개발되고 있고, 여러 연구들이 진행되고 있다. 사물인터넷의 여러 분야 중 스마트 홈은 실생활과 밀접하기 때문에 다른 분야보다 주목받고 있다. 자율이동로봇 또한 산업과 군사, 가정 등에서 적용되어 여러 역할을 수행하고 있다. 본 논문에서는 자율이동로봇과 사물인터넷을 결합하여 Smart housekeeping 로봇을 구현하였다. Smart housekeeping 로봇을 구현하기 위해 라즈베리 파이와 무선 USB 카메라, Huins 사의 uBrain 로봇을 사용하였다. 로봇을 제어하기 위해 핸드폰을 라즈베리 파이의 IP에 접속하였고 라즈베리 파이에서는 uBrain 로봇과 블루투스 연결을 하였다. 핸드폰에서 해당 명령에 맞춰 로봇을 제어하도록 구현하였다. 또한 사용자가 원할 경우로봇이 자율 주행을 선택할 수 있도록 구현하였다. 무선 USB 카메라로 실시간 촬영하는 영상을 핸드폰 혹은 개인용 컴퓨터로 확인할 수 있도록 하였다. 이 Smart housekeeping 로봇은 집 내부를 실시간으로 확인할 수 있도록 울도 것이다. Owing to developments in the internet of things, many products have developed and various researches have processed. Smart home systems in Internet of things area are receiving attention from many people than the other areas. Autonomous mobile robots perform various parts in many industries. In this paper, a smart housekeeping robot was implemented using internet of things and an autonomous mobile robot. In order to make a smart housekeeping robot, Raspberry Pi, wireless USB camera, and uBrain robot of Huins Corp. is used. To control the robot, cell-phone connected with IP of Raspberry Pi, and then Raspberry Pi connected with uBrain robot using Bluetooth. a smart housekeeping robot was controlled using commands of a cell-phone application. If some user wants to move a robot automatically, we implemented that a robot can be chosen an autonomous driving mode from the user. In addition, we checked a realtime video using a cell-phone and computer. This smart housekeeping robot can help user check their own homes in real time.
아두이노와 Emotiv Epoc을 이용한 정상상태시각유발 전위(SSVEP) 기반의 로봇 제어
유제훈(Je-Hun Yu),심귀보(Kwee-Bo Sim) 한국지능시스템학회 2015 한국지능시스템학회논문지 Vol.25 No.3
본 논문은 BCI(Brain Computer Interface)기반의 정상상태시각유발전위(SSVEP : Steady-State Visual Evoked Potential)를 사용하여 무선 로봇 제어를 위한 시스템을 제안하였다. CPSD(Cross Poser Spectral Density)를 사용하여 전극의 신호를 분석하였다. 또한 분류를 위해서 LDA(Linear Discriminant Analysis)와 SVM(Support Vector Machine)을 사용하였다. 그 결과 피험자들의 평균 분류율은 약 70%로 나타났다. 로봇제어의 경우 뇌파의 값을 분류하여 나타난 결과 값으로 로봇이 움직일 수 있도록 구현하였고, 블루투스 통신을 이용하여 로봇제어를 수행하였다. In this paper, The wireless robot control system was proposed using Brain-computer interface(BCI) systems based on the steady-state visual evoked potential(SSVEP). Cross Poser Spectral Density(CPSD) was used for analysis of electroencephalogram(EEG) and extraction of feature data. And Linear Discriminant Analysis(LDA) and Support Vector Machine(SVM) was used for patterns classification. We obtained the average classification rates of about 70% of each subject. Robot control was implemented using the results of classification of EEG and commanded using bluetooth communication for robot moving.
Fruit Fly Optimization based EEG Channel Selection Method for BCI
Xin-Yang Yu,Je-Hun Yu(유제훈),Kwee-Bo Sim(심귀보) 제어로봇시스템학회 2016 제어·로봇·시스템학회 논문지 Vol.22 No.3
A brain–computer interface or BCI provides an alternative method for acting on the world. Brain signals can be recorded from the electrical activity along the scalp using an electrode cap. By analyzing the EEG, it is possible to determine whether a person is thinking about his/her hand or foot movement and this information can be transferred to a machine and then translated into commands. However, we do not know which information relates to motor imagery and which channel is good for extracting features. A general approach is to use all electronic channels to analyze the EEG signals, but this causes many problems, such as overfitting and problems removing noisy and artificial signals. To overcome these problems, in this paper we used a new optimization method called the Fruit Fly optimization algorithm (FOA) to select the best channels and then combine them with CSP method to extract features to improve the classification accuracy by linear discriminant analysis. We also used particle swarm optimization (PSO) and a genetic algorithm (GA) to select the optimal EEG channel and compared the performance with that of the FOA algorithm. The results show that for some subjects, the FOA algorithm is a better method for selecting the optimal EEG channel in a short time.