http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
이충연(Chung-Yeon Lee),김지섭(Ji-seob Kim),김은솔(Eun-Sol Kim),Karinne Ramírez Amaro,Michael Beetz,장병탁(Byoung-Tak Zhang) 한국정보과학회 2011 한국정보과학회 학술발표논문집 Vol.38 No.2B
카메라 영상 기반 모션 캡처 시스템을 이용하여 수집한 주방 공간에서의 인간 행동 데이터로부터 기본 동작들의 모션 데이터를 추출 및 전처리한 후 non-linear generative model인 cRBM을 이용하여 각 모션 데이터를 학습하였다. 초기 모션 일부를 seed로 사용하여 자동으로 생성한 새로운 모션들은 학습에서 사용된 모션들과 동일한 작업을 수행하는 결과를 나타냈다. 본 실험 결과는 일상 환경에서 인간으로부터 획득한 모션 데이터를 이용하여 생성된 가상의 모션 데이터를 통해 로봇이나 아바타의 움직임을 보다 유연하게 제어할 수 있으며 또한 인간이 유아기 때부터 주위 사람들의 행동을 따라하며 자연스럽게 자신의 행동 방법을 배우는 방식과 유사한 행동 학습 메커니즘이 로봇에게도 적용시킬 수 있음을 보인다.
모바일 멀티모달 센서 정보의 앙상블 학습을 이용한 장소 인식
이충연(Chung-Yeon Lee),이범진(Beom-Jin Lee),온경운(Kyoung-Woon On),하정우(Jung-Woo Ha),김홍일(Hong-Il Kim),장병탁(Byoung-Tak Zhang) 한국정보과학회 2015 정보과학회 컴퓨팅의 실제 논문지 Vol.21 No.1
본 논문에서는 시각, 음향, 위치 정보를 포함하는 멀티모달 센서 입력 정보로부터 사용자가 위치한 장소의 환경 정보를 학습하고 기계학습 추론을 통해 장소를 인식하는 방법을 제안한다. 이 방법은 음영 지역에서의 정확도 감소나 추가 하드웨어 필요 등 기존 위치 정보 인식 방법이 가지는 제약을 극복 가능하고, 지도상의 단순 좌표 인식이 아닌 논리적 위치 정보 인식을 수행 가능하다는 점에서 해당 위치와 관련된 특정 정보를 활용하여 다양한 생활편의를 제공하는 위치 기반 서비스를 수행하는데 보다 효과적인 방법이 될 수 있다. 제안하는 방법에서는 스마트폰에 내장된 카메라, 마이크로폰, GPS 센서 모듈로부터 획득한 시각, 음향, 위치 정보로부터 특징 벡터들을 추출하여 학습한다. 이때 서로 다른 특성을 가진 특징 벡터들을 학습하기 위해 각각의 특징 벡터들을 서로 다른 분류기를 통해 학습한 후, 그 결과를 기반으로 최종적인 하나의 분류 결과를 얻어내는 앙상블 기법을 사용한다. 실험 결과에서는 각각의 데이터를 따로 학습하여 분류한 결과와 비교하여 높은 성능을 보였다. 또한 사용자 상황인지 기반 서비스의 성능 향상을 위한 방법으로서 제안하는 모델의 스마트폰 앱 구현을 통한 활용 가능성에 대해 논의한다. Place awareness is an essential for location-based services that are widely provided to smartphone users. However, traditional GPS-based methods are only valid outdoors where the GPS signal is strong and also require symbolic place information of the physical location. In this paper, environmental sounds and images are used to recognize important aspects of each place. The proposed method extracts feature vectors from visual, auditory and location data recorded by a smartphone with built-in camera, microphone and GPS sensors modules. The heterogeneous feature vectors were then learned by an ensemble learning method that learns each group of feature vectors for each classifier respectively and votes to produce the highest weighted result. The proposed method is evaluated for place recognition using a data group of 3000 samples in six places and the experimental results show a remarkably improved recognition accuracy when using all kinds of sensory data comparing to results using data from a single sensor or audio-visual integrated data only.
이충연(Chung-Yeon Lee),이범진(Beom-Jin Lee),하정우(Jung-Woo Ha),장병탁(Byoung-Tak Zhang) 한국정보과학회 2013 정보과학회 컴퓨팅의 실제 논문지 Vol.19 No.5
위치인식은 정확한 장소기반서비스(LBS)를 위해 필수적인 기술이다. 그러나 일반적으로 널리 활용되는 GPS기반 위치 인식 기술은 GPS신호가 충분히 강한 야외에서만 활용가능하며 실내 혹은 건물 밀집지역과 같은 음영지역에서 적용되는 데에는 한계가 존재한다. 본 논문에서는 서포트벡터머신(SVM)을 이용하여 스마트폰에 장착된 카메라와 GPS 센서를 통해 입력받은 영상 데이터와 GPS 좌표의 통합정보로부터 장소를 인식하는 방법을 제안한다. 제안하는 방법을 평가하기 위해 네 종류의 실내외 장소에서 촬영한 약 4000개의 영상-GPS 데이터로부터 사용자의 현재 장소를 인식하였다. 실험 결과는 제안하는 방법을 통해 위치관련 정보가 없는 상황에서도 영상정보 만으로도 사용자의 현재 장소를 인식하는 것이 가능함을 보여준다. 또한 영상 데이터와 동시에 기록된 GPS 데이터를 SVM에 입력되는 벡터의 가중치로 사용함으로써 인식 정확도를 향상시킬 수 있음을 확인하였다. Place awareness (logical location context awareness) is an essential method for a location-based service (LBS) that is widely provided to smartphone users. However, GPS-based place awareness is only valid when not only a user is located at outdoor positions where a GPS signal is strong enough but also the information on the relation between a physical location and a symbolic place is available. Here we propose a novel place awareness method using visual information as well as GPS data. The proposed method predicts the current place of a user from GPS-tagged scene photographs taken by the digital camera equipped in a smartphone. Our method uses a modified support vector machine (SVM) where scene images and GPS coordinates are given as the instances and the weight parameters of the model, respectively, for classifying the place from the scene. We evaluate our method on the place awareness from approximately 4,000 photographs of four places including hallway, classroom, restaurant, and outdoor. Experimental results show that the proposed method can precisely recognize the place with scene photos only when GPS information is not available and the awareness accuracy is improved in the GPSavailable case.
이충연(Chung-Yeon Lee),곽동현(Dong Hyun Kwak),이범진(Beom-Jin Lee),장병탁(Byoung-Tak Zhang) Korean Institute of Information Scientists and Eng 2016 정보과학회논문지 Vol.43 No.7
Learning from human behaviors in the real world is essential for human-aware intelligent systems such as smart assistants and autonomous robots. Most of research focuses on correlations between sensory patterns and a label for each activity. However, human activity is a combination of several event contexts and is a narrative story in and of itself. We propose a novel approach of human activity prediction based on event cognition. Egocentric multi-sensor data are collected from an individual’s daily life by using a wearable device and smartphone. Event contexts about location, scene and activities are then recognized, and finally the users’’ daily activities are predicted from a decision rule based on the event contexts. The proposed method has been evaluated on a wearable sensor data collected from the real world over 2 weeks by 2 people. Experimental results showed improved recognition accuracies when using the proposed method comparing to results directly using sensory features.
EEG 기반 뇌기능 분석을 이용한 영화 장면-대사 기억 게임에서의 인지 학습 특성
이충연(Chung-Yeon Lee),김은솔(Eun-Sol Kim),이상우(Sangwoo Lee),고봉경(Bongkyung Ko),김준식(Joon Shik Kim),장병탁(Byoung-Tak Zhang) 한국정보과학회 2011 한국정보과학회 학술발표논문집 Vol.38 No.1C
기억 인출 단서는 학습을 통해 장기기억 공간에 저장된 정보를 인출하는 과정에서 중요하며, 서로 다른 종류의 기억 인출 단서에 따른 기억 인출 결과 및 이에 대한 인지 학습적 특성 규명은 교육, 범죄 수사, 그리고 인간의 뇌 기능을 모방한 기계학습 연구 등에서 중요하게 다루어져야 할 문제이다. 본 논문에서는 비디오 데이터를 이용하여 학습한 내용을 인출하는 과정에서 텍스트와 이미지가 각각 인출 단서로서 기억인출 결과에 미치는 영향을 분석하고, 기억 정보 및 시각 정보 처리와 관련된 뇌 영역에서의 뇌전도 분석을 이용하여 이를 해석하였다. 실험 결과를 통해 기억 인출을 위해 이미지-텍스트를 제시할 경우 전전두엽의 기억인출 관련 부위와 시각 피질이 위치한 후두엽의 인터랙션이 높게 이루어지면서 암묵적인 시각적 기억 표상의 인출이 발생하는 것을 알 수 있었다.