http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
CoTeSys - Cognition for Technical Systems
Martin Buss,Michael Beetz,DirkWollherr 한국과학기술원 인간친화 복지 로봇 시스템 연구센터 2007 International Journal of Assistive Robotics and Me Vol.8 No.4
The COTESYS cluster of excellence investigates cognition for technical systems such as vehicles, robots, and factories. Cognitive technical systems (CTS) are information processing systems equipped with artificial sensors and actuators, integrated and embedded into physical systems, and acting in a physical world. They differ from other technical systems as they perform cognitive control and have cognitive capabilities. Cognitive control orchestrates reflexive and habitual behavior in accord with longterm intentions. Cognitive capabilities such as perception, reasoning, learning, and planning turn technical systems into systems that "know what they are doing". The cognitive capabilities will result in systems of higher reliability, flexibility, adaptivity, and better performance. They will be easier to interact and cooperate with.
안구운동추적 정보기반 능동적 샘플링을 반영한 시각 하이퍼네트워크 모델
김은솔,김지섭,Karinne Ramirez Amaro,Michael Beetz,장병탁 한국정보과학회 2012 한국정보과학회 학술발표논문집 Vol.39 No.1B
기계 학습에서 입력 데이터의 차원을 줄이는 문제(dimension reduction)는 매우 중요한 문제 중의 하나이다. 입력 변수의 차원이 늘어남에 따라 처리해야하는 연산의 수와 계산 복잡도가 급격히 늘어나기 때문이다. 이를 해결하기 위하여 다수의 기계 학습 알고리즘은 명시적으로 차원을 줄이거나(feature selection), 데이터에 약간의 연산을 가하여 차원이 작은 새로운 입력 데이터를 만든다(feature extraction). 반면 사람이 여러 종류의 고차원 센서 데이터를 입력받아 빠른 시간 안에 정확하게 정보를 처리할 수 있는 가장 큰 이유 중 하나는 실시간으로 판단하여 가장 필요한 정보에 집중하기 때문이다. 본 연구는 사람의 정보 처리 과정을 기계 학습 알고리즘에 반영하여, 집중도를 이용하여 효율적으로 데이터를 처리하는 방법을 제시한다. 이 성질을 시각 하이퍼네트워크 모델에 반영하여, 효율적으로 고차원 입력데이터를 다루는 방법을 제안한다. 실험에서는 시각 하이퍼네트워크를 이용하여 고차원의 이미지 데이터에서 행동을 분류하였다.
하이퍼네트워크와 마코프 랜덤 필드와의 연관성 : 상태공간에 대한 관계와 변환방법
허민오(Min-Oh Heo),Dominik Jain,Michael Beetz,장병탁(Byoung-Tak Zhang) 한국정보과학회 2010 한국정보과학회 학술발표논문집 Vol.37 No.2C
하이퍼네트워크 모델은 학습된 데이터 인스턴스를 회상(Recall) 하는 문제에 적합한 분산형 확률기반 연상 메모리로 정의될 수 있다. 이 모델은 회상 문제뿐만 아니라 분류 문제에도 폭넓게 적용되고 있으나, 무감독 학습에 쓰였던 파라미터 학습 방법[3]은 패턴의 빈도에 기반하였기 때문에 학습된 확률분포가 왜곡될 수 있음을 발견하였다. 이에 본고에서는 확률분포 학습 과정에서 문제가 발생하는 경우를 보이고, 마코프 랜덤 필드와 하이퍼네트워크 간의 단사함수적 연관성을 밝힌 후, 하이퍼네트워크와 마코프 랜덤필드 간에 변환하는 방법을 설명하고자 한다. 두 모델이 학습한 분포의 상태공간은 포함관계를 가지기 때문에, 학습된 하이퍼네트워크 모델을 마코프 랜덤 필드로 가져와 사용할 수 있고, 제약조건 하에서 학습된 마코프 랜덤 필드 모델을 하이퍼네트워크로 가져올 수도 있다. 이 연관성은 MRF와 HN 상호 간에 개발되어온 학습 기법들을 공유할 수 있다는 점에서 매우 고무적이다. 상기 언급한 분포학습 상의 왜곡을 방지하기 위해, 확률 그래프 모델의 파라미터 학습에 MRF 기법을, 구조학습에 HN 기법을 적용함으로써 상호보완이 가능할 것이다.
이기석(Kisuk Lee),김은솔(Eun-Sol Kim),Karinne Ramirez Amaro,Michael Beetz,장병탁(Byoung-Tak Zhang) 한국정보과학회 2013 정보과학회 컴퓨팅의 실제 논문지 Vol.19 No.8
기계학습(machine learning) 기술을 이용해서 영상 데이터로부터 동작 패턴을 인식하는 연구에 있어서, 최근 들어 무감독학습(unsupervised learning)의 중요성이 부각되고 있다. 본 논문에서는 ISA (Independent Subspace Analysis) 알고리즘에 기반한 최신 무감독학습 기법인 ‘Stacked Convolutional ISA’ 알고리즘[1]을 이용해서 샌드위치를 만드는 인간의 동작을 촬영한 영상 데이터를 분석, 동작 인식을 행하였다. 데이터로부터 직접 유용한 특징들을 학습하는 무감독학습 기법의 장점을 그대로 나타내어, 해당 알고리즘은 제한적인 학습 및 테스트 샘플 조건 하에서도 인상적인 성능을 나타냈다. 반면 요리동작에 있어서는 손동작 자체를 인식하는 것 이외에도 현재 손에 쥐어진 도구나 재료의 종류를 인식하는 것이 중요한데, 이러한 문맥 인식(context recognition)은 향후 추가적으로 연구해야 할 과제로 남아있다. In the research of action recognition from video data based on machine learning, unsupervised learning approach has recently been spotlighted. In this paper, we adopted ‘stacked convolutional ISA’ algorithm, a state-of-the-art unsupervised learning technique based on independent subspace analysis (ISA) algorithm that has recently been suggested in [1], to the human cooking action recognition from video data. The algorithm extracted useful spatio-temporal features directly from the video data, which can be regarded as the most significant advantage of unsupervised learning approach, resulting in impressive performance despite of the restricted number of training and test sets. In human cooking action recognition, it is imperative to recognize the identity of cooking utensils or food materials currently held in hands besides the hand action itself. This sort of context recognition remains open to the future study.
이충연(Chung-Yeon Lee),김지섭(Ji-seob Kim),김은솔(Eun-Sol Kim),Karinne Ramírez Amaro,Michael Beetz,장병탁(Byoung-Tak Zhang) 한국정보과학회 2011 한국정보과학회 학술발표논문집 Vol.38 No.2B
카메라 영상 기반 모션 캡처 시스템을 이용하여 수집한 주방 공간에서의 인간 행동 데이터로부터 기본 동작들의 모션 데이터를 추출 및 전처리한 후 non-linear generative model인 cRBM을 이용하여 각 모션 데이터를 학습하였다. 초기 모션 일부를 seed로 사용하여 자동으로 생성한 새로운 모션들은 학습에서 사용된 모션들과 동일한 작업을 수행하는 결과를 나타냈다. 본 실험 결과는 일상 환경에서 인간으로부터 획득한 모션 데이터를 이용하여 생성된 가상의 모션 데이터를 통해 로봇이나 아바타의 움직임을 보다 유연하게 제어할 수 있으며 또한 인간이 유아기 때부터 주위 사람들의 행동을 따라하며 자연스럽게 자신의 행동 방법을 배우는 방식과 유사한 행동 학습 메커니즘이 로봇에게도 적용시킬 수 있음을 보인다.