http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
3단계의 사고 작용 모델을 응용한 사회적 감성지능 에이전트 프레임워크
신헌용(Hunyong Shin),우운택(Woontack Woo) 한국HCI학회 2008 한국HCI학회 학술대회 Vol.2008 No.2
사회적 감성 에이전트는 인간과 유사한 사회지능(Social Intelligence)을 가지고 있는 에이전트로서, 인간의 감정을 인지 및 학습하고 적응을 통하여 상대방의 감정과 상황에 따라 적절한 반응을 할 수 있는 능력을 가지고 있다. 이 에이전트는 인간이 에이전트를 더 살아 있는 것처럼(Believable) 느끼게 하여, 인간과 컴퓨터간의 상호작용을 도와줌으로써 인간에게 더욱더 개인화되고 적합한 서비스 창출하고 제공할 수 있는 에이전트 모델이다. 본 논문에서는 인간의 사고 과정과 동일한 3단계 사고 작용 모델(Three-Layered Affect Functioning Model)을 통해서, 에이전트가 사용자의 감정과 상황을 인식하여, 지능적 반응이나 행동을 가능하게 하는 프레임워크를 제안한다. 그리고 에이전트의 감정과 상황인식을 위해서는 심리학 모델인 OCC 모델과 결정트리 구성 알고리즘인 ID3를 활용하였다. 이를 통해서 교육, 예술, 연예, 디자인, 의료 등 다양한 분야에서 응용될 수 있는 사회적 감성지능형 에이전트를 개발할 수 있을 것으로 기대 된다. Socially Intelligent agent is the agent not only having the ability to recognize and to process human affect through learning and adaptation, but also having human-like social intelligence. By making human feel familiar with the computer, the agent is expected to enhance human-computer interaction (HCI) by providing users with the personalized services and interfaces. This paper proposes the framework for socially intelligent agents behaving socially according to the emotions recognized by ID3 algorithm and psychological OCC model. Also, the agent could process with the emotion to make socially intelligent response through three layered affect functioning model. Finally, the proposed agent can be applied for the development and application of socially intelligent agent in wide areas as the agent framework having similar affect and cognitive structure with human being.
사실적 행동 활성화를 위한 컨텍스트 인식 증강현실 에이전트의 행동생성 시스템
신헌용(Hunyong Shin),우운택(Woontack Woo) 한국HCI학회 2009 한국HCI학회 학술대회 Vol.2009 No.2
최근에 증강현실 에이전트에 대한 관심의 증가로 인하여, 유비쿼터스 컴퓨팅 환경이나 사용자의 입력에 자율적으로 반응하거나 새로운 형태의 인터페이스로서 이에 대한 다양한 연구가 진행되고 있다. 하지만, 기존의 연구들은 에이전트의 반응생성을 위한 유비쿼터스 컴퓨팅 환경내의 컨텍스트와 실제 및 가상 공간에 존재하는 정보들의 활용 방안에 대한 연구가 부족하였다. 따라서 본 논문에서는 환경 정보와 사용자의 프로파일 정보, 그리고 사용자 중심의 컨텍스트의 활용해서 행동을 선택하고 계획하는 증강현실 에이전트의 행동생성 시스템을 제안하고자 한다. 에이전트의 내부는 Belief-Desire-Intention (BDI) 모델과 계층적 업무 네트워크 (HTN)내 검색을 통해서, 반응적 행동의 시퀀스를 선택한다. 행동의 시퀀스가 기본 행동들만으로 구성이 된 후, 에이전트는 이전 행동 및 입력의 종류에 따라서 행동의 적합성을 판단 및 적응을 수행한 후, 행동을 활성화 시킨다. 제안된 행동 생성 시스템은 행동을 통한 에이전트의 정보 전달이 요구되는 교육, 게임, 도우미 에이전트 등에서 응용이 가능할 것이다. 이렇게 계획된 행동을 통해서 증강현실 에이전트는 효과적인 정보 전달과 의사소통 능력을 사용자에게 보여줄 수 있을 것으로 기대된다. With the aid of the increasing interests of Context-aware Augmented Reality Agent (AR Agent), various researches of AR Agent have been performed to explore the possibility of the agent as novel interface and the entity responding autonomously by user's input. However, in previous works, AR Agents are lack of specific method for using various contextual information. To revolve around those problems, we propose the Behavior Generation System for Context-aware AR Agent using layered architecture. Based on Belief-Desire-Intention (BDI) model and Hierarchical Task Network (HTN) searching, the sequence of agent behavior has been selected in behavior planning layer. Then, the agent evaluates appropriateness of behaviors using previous behavior and the type of input before activation. This behavior generation system can be applied for edutainment, game, and assistant agent, which need intuitive and effective behaviors to convey information. Through this research, we expect that the Context-aware AR Agent could support for not only information delivery, but also the capability of effective communication for user.
지능형 협업 환경을 위한 사용자 컨텍스트 기반 인터랙티브 디스플레이 서비스
고수진(SuJin Ko),신헌용(Hunyong Shin),우운택(Woontack Woo),김종원(JongWon Kim) 한국HCI학회 2008 한국HCI학회 학술대회 Vol.2008 No.2
협업 환경의 지능화는 협업 환경 자체와 구성원의 실시간 정보에 기반한 최적의 서비스를 제공하려는 시도에서 시작한다고 할 수 있다. 현재까지는 해당 정보의 수집을 위해 여러 종류의 센서와 장비를 이용하는 유비쿼터스 컴퓨팅 기술을 도입해 왔으며 대표적으로 온도, 조명, 시간, 구성원의 동작, 표정, 목소리, 위치 등의 정보를 수집하여 활용하였다. 그러나 협업 활동은 구성원간의 사회적 관계를 내포하고 있으므로, 이들 사이에서 정의되어지는 관계나 역할을 충분히 고려하여야 협업 환경을 위한 최적의 서비스가 제공될 수 있으며, 이를 위해서는 여러 개의 센서와 장비를 이용하여 수집된 정보와 구성원 간의 관계 및 역할 정보를 통합하는 것이 필요하다. 따라서, 본 논문에서는 위의 통합된 정보를 회의 진행에 필요한 컨텍스트로 활용하여 필터링 된 협업 서비스를 설계하고, 실제 지능형 협업 시스템의 인터랙티브 디스플레이 서비스에 이를 적용 및 구현한 예를 보여준다. Intelligence of collaborative environments starts from a trial to provide optimal services to with users based on real-time information about participants and environments of the collaboration itself. Up to now, we can collect information such as temperature, light, time, each participant's gestures, faces, voices, and locations by adopting ubiquitous computing technologies. However, since social relationship is intrinsic to collaborative activities, the relationships and roles among participants should be fully considered to provide optimal services. To do so, we have to integrate collected data from various sensors and extracted data about relationships and roles among participants as unified one context. Thus, this paper designs collaborative services filtered, by using the integrated data as a context, and introduces an implemented example, context-aware based interactive display service, called as smart meeting system (SMeet system).