http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
방재훈 ( Jae Hun Bang ),이승룡 ( Sungyoung Lee ),정태충 ( Taechung Jung ) 한국정보처리학회 2013 한국정보처리학회 학술대회논문집 Vol.20 No.1
기존의 음성기반 감정인식 기술은 충분한 컴퓨팅 파워를 가진 PC에서 수백개의 특징을 사용하여 감정을 인식하고 있다. 이러한 음성기반 감정인식 기술은 컴퓨팅 파워에 제약이 많은 스마트폰 환경을 고려하지 않은 방법이다. 본 논문에서는 제한된 스마트폰 컴퓨팅 파워를 고려한 음성의 특징 추출 기법과 서버 클라이언트 개념을 도입한 효율적인 음성기반 감정인식 프레임워크를 제안한다.
방재훈(Jae Hun Bang),이승룡(Sungyoung Lee) 한국정보과학회 2014 정보과학회논문지 : 소프트웨어 및 응용 Vol.41 No.3
기존의 음성기반 감정인식기술은 콜센터나 메디컬 센터에서 고객이나 환자의 감정을 실시간으로 모니터링 하고 추출된 감정에 적절한 대응을 해주는 서비스 어플리케이션으로 사용되고 있다. 이러한 음성기반 감정인식 기술은 일정 주기 혹은 단위 시간동안의 음성데이터를 분석하여 사용자의 감정을 인식한다. 기존 연구 방법론은 하나의 통화 이벤트 전체에 대한 감정인식이 아닌 통화 중 특정 시간동안의 감정을 인식하는 기술로써, 전체 통화기간동안 감정의 변화를 인식하지 못하여 감정 기복이 있는 통화음성 데이터에서 하나의 감정으로 도출해내는 통화단위 감정인식에는 부적합하다. 본 논문에서는 스마트폰에서 통화 음성을 녹음한 뒤 감정인식 구간을 통화 시작부터 종료시점까지 하나의 Window로 보고, 이를 다수의 Time-Window로 나눈 다음, 통화 종료시점에 가까워지는 Window에 감정생존곡선을 기반한 가중치를 부여하는 기법을 제안한다. Existing speech based emotion recognition is used in call center or in medical center to monitor client’s or patient’s emotion in real time, and respond in appropriate service. This method analyzes speech data in constant period to recognize user’s emotion. Existing researches do not analyze the whole phone call but only specific part, which makes it unable to know the undulation of emotion for the whole period. This is inappropriate to use in the unit of phone call, which should conclude the emotion using whole speech. In this paper, we propose the following method. After recording a phone call, consider the whole phone call as a window and divide it into several Time-Windows, then assign weighted value gradually until the end of the call.
프롬프트 레이블링을 이용한 적응형 음성기반 감정인식 프레임워크
방재훈(Jae Hun Bang),이승룡(Sungyoung Lee) 한국정보과학회 2015 정보과학회 컴퓨팅의 실제 논문지 Vol.21 No.2
기존의 음성기반 감정인식 기술은 다양한 사용자로부터 수집된 데이터를 기반으로 범용적인 훈련 모델을 생성하고 이를 기반으로 감정을 인식한다. 이러한 음성기반 감정인식 모델링 기술은 개인 사용자의 음성특징을 정확히 고려하기 힘든 방법으로 개인마다 인식 정확도의 편차가 크다. 본 논문에서는 스마트폰 환경에서 프로프트 레이블링 기법을 활용하여 사용자에게 즉각적으로 감정을 피드백 받아 새로운 모델을 생성하여 적용하는 적응형 음성기반 감정인식 프레임워크를 제안한다. 실험을 통하여 제안하는 적응형 음성기반 감정인식 기법이 기존의 범용적인 모델을 사용하였을 때 보다 정확도가 크게 증가됨을 증명하였다. Traditional speech emotion recognition techniques recognize emotions using a general training model based on the voices of various people. These techniques can not consider personalized speech character exactly. Therefore, the recognized results are very different to each person. This paper proposes an adaptive speech emotion recognition framework made from user"s" immediate feedback data using a prompted labeling technique for building a personal adaptive recognition model and applying it to each user in a mobile device environment. The proposed framework can recognize emotions from the building of a personalized recognition model. The proposed framework was evaluated to be better than the traditional research techniques from three comparative experiment. The proposed framework can be applied to healthcare, emotion monitoring and personalized service.
스마트폰 환경에서 퍼지 추론과 베이지안 네트워크에 기반한 사용자 감성 추출 엔진
이성호(Seongho Lee),방재훈(Jae Hun Bang),이승룡(Sungyoung Lee) 한국정보과학회 2011 한국정보과학회 학술발표논문집 Vol.38 No.1A
최근 스마트폰의 보급이 일반화되면서 보다 개인화된(Personalized) 서비스를 제공하려는 시도가 다각도로 이루어지고 있다. 이러한 시도 중 하나가 사용자의 감성을 인식하여 보다 효과적인 서비스를 제공하려는 것이다. 본 논문에서는 스마트폰으로부터 얻어낸 위치인식정보와 사용자 정보를 베이지만 네트워크를 활용하여 상황정보를 도출한다. 이 상황정보와 사용자의 선호도 정보를 퍼지 추론을 이용하여 얻은 결과 값을 수정된 Valence-Arousal 모델에 매핑하여 사용자의 감성정보를 추출하는 감성 추출 엔진을 제안한다. 유용성 평가를 위해 현재 상용 중인 스마트폰에 제안하는 감성 추출 엔진을 이용, 사용자 강성을 인식하고 적절한 서비스를 추천하는 애플리케이션을 구현하였다.
김기록(Ki-Rock Kim),주병국(Byung-kook Joo),방재훈(Jae-Hoon Bang),안병철(Bierng-Chearl Ahn),전종훈(Jong-Hun Chun) 한국정보기술학회 2009 한국정보기술학회논문지 Vol.7 No.6
In this paper, we present the design procedure of a stepped bend which can be adapted to multi-layer waveguide structures. Optimum dimensions of the bend are obtained using a commercial software for the center frequency ranging from 1.1-1.9 times the waveguide cutoff frequency. To verify the accuracy of the proposed method, we design, fabricate, and measure a bend operating at 30-40㎓. The fabricated bend shows a good agreement with simulation and has reflection coefficient less than -24㏈ and a transmission coefficient greater than -0.2㏈.