http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
김완수(Wansoo Kim),이교구(Kim, Kyogu Lee) 대한전자공학회 2018 대한전자공학회 학술대회 Vol.2018 No.11
In this paper, we propose and evaluate a novel modular neural network model for sound event localization and detection (SELD). One SELD module extracts arrival time differences and detects sound events from phase and magnitude spectrogram. The assembled neural network model consists of nC2 numbers of SELD modules where n is the number of channels in the microphone array. The modular structure of the proposed model makes the model easier to train using less training data. The structure also makes the model scalable to microphone array shape change.
김현우 ( Hyunwoo Kim ),한병준 ( Byeong-jun Han ),김철환 ( Cheol-hwan Kim ),이교구 ( Kyogu Lee ) 한국정보처리학회 2010 한국정보처리학회 학술대회논문집 Vol.17 No.2
본 연구에서는 음악 데이터 베이스에서 노래의 특정 구간과 가장 유사한 구간을 검색하는 시스템을 제안한다. 제안된 시스템에서는 음악을 다차원 시계열 데이터로 간주하고, 음악의 조성 차이 및 템포(tempo) 차이를 고려한 음악의 유사도 계산 방법을 사용한다. 유사도 계산의 전처리 단계에서 조성 차이를 보정하고, 비트(beat)를 검출하며, 추출된 크로마그램(chromagram)을 검출된 비트와 동기화 하여 평균한다. 이후, 동적 시간 왜곡(DTW; dynamic time warping)을 사용하여 두 구간 사이의 유사도를 계산한 후 계산된 유사도 순서로 정렬된 검색 결과를 출력한다. 사용자는 제안된 시스템을 사용하여 선택 구간 유사도 검색과 자동 유사도 검색 결과로 도출된 구간 쌍을 검토하여 유사 구간을 보다 쉽게 찾을 수 있다.
추체외로 증상에 따른 항정신병 약물 복용량과 음성 특성의 상관관계 분석
이수빈,김서영,김혜윤,김의태,유경상,이호영,이교구,Lee, Subin,Kim, Seoyoung,Kim, Hye Yoon,Kim, Euitae,Yu, Kyung-Sang,Lee, Ho-Young,Lee, Kyogu 한국음향학회 2022 韓國音響學會誌 Vol.41 No.3
본 논문은 항정신병 약물의 복용량에 따른 음성 특징의 상관관계 분석을 수행하였다. 항정신병 약물의 대표적 부작용 중 하나인 추체외로 증상(ExtraPyramidal Symptoms, EPS) 발생에 따른 음성 특징의 패턴을 알아보기 위하여, 문장 개발을 통해 한국어 기반 추체외로 증상 음성 코퍼스를 구축하였다. 수집된 자료는 추체외로 증상 군과 비 추체외로 증상 군으로 나누어 음성 특징 패턴을 조사하였으며, 특히 추체외로 증상 군의 높은 음성 특징 상관관계를 보였다. 또한, 발화 문장의 종류가 음성 특징 패턴에 영향을 미친다는 것을 확인할 수 있었으며, 이를 통해 음성 특징을 기반한 추체외로 증상의 조기 발견 가능성을 기대해볼 수 있었다.
합성곱 신경망 기반 환경잡음에 강인한 교통 소음 분류 모델
이재준,김완수,이교구,Lee, Jaejun,Kim, Wansoo,Lee, Kyogu 한국음향학회 2018 韓國音響學會誌 Vol.37 No.6
도시 유동인구가 증가함에 따라 도시 환경 소음에 관한 연구의 중요성이 증가하고 있다. 본 연구에서는 교통상황에서 발생하는 이상 소음을 최근 환경 소음 분류 연구에서 높은 성능을 보이는 딥러닝 알고리즘을 이용하여 분류한다. 구체적으로는 타이어 제동 마찰음, 자동차 충돌음, 자동차 경적음, 정상 소음 네 개의 클래스에 대하여 합성곱 신경망을 이용하여 분류한다. 또한, 실제 교통 상황에서의 환경잡음에 강인한 분류 성능을 갖기 위해 빗소리, 바람 소리, 군중 소리의 세 가지 환경잡음을 설정하였고 이를 활용하여 분류 모델을 설계하였으며 3 dB SNR(Signal to Noise Ratio) 조건에서 88 % 이상의 분류 성능을 가진다. 제시한 교통 소음에 대하여 기존 선행연구 대비 높은 분류 성능을 보이고, 빗소리, 바람 소리, 군중 소리의 세 가지 환경잡음에 강인한 교통 소음 분류 모델을 제안한다. As urban population increases, research on urban environmental noise is getting more attention. In this study, we classify the abnormal noise occurring in traffic situation by using a deep learning algorithm which shows high performance in recent environmental noise classification studies. Specifically, we classify the four classes of tire skidding sounds, car crash sounds, car horn sounds, and normal sounds using convolutional neural networks. In addition, we add three environmental noises, including rain, wind and crowd noises, to our training data so that the classification model is more robust in real traffic situation with environmental noises. Experimental results show that the proposed traffic sound classification model achieves better performance than the existing algorithms, particularly under harsh conditions with environmental noises.
음악 연주를 위한 비-태깅 기반 테이블탑 TUI(Tangible User Interface)
김재훈(Jaehoon Kim),원상희(Sanghee Won),이교구(Kyogu Lee) 한국HCI학회 2014 한국HCI학회 학술대회 Vol.2014 No.2
최근 몇 년간 HCI 연구의 일환으로서 TUI(Tangible User Interface) 연구 개발은 급증하였으며, 그 중에서도 테이블탑 TUI 연구는 두드러진다. 특히 음악 연주를 위한 인터페이스로서 테이블탑 TUI 연구, 상용화가 활발히 이루어 지고 있다는 사실은 사람-음악-컴퓨터 간의 새로운 상호작용 방법에 대한 요구와 의의를 실감케 한다. 본 연구에서는 새로운 테이블탑 TUI 의 가능성을 엿보기 위해, 기존의 태깅 기반 방식이 아닌, 컴퓨터 영상처리를 통한 비-태깅 기반 테이블탑 TUI 방식을 제시할 것이다. 또한 이를 기반으로 한 다자 참여 음악 연주/창작 플랫폼을 소개할 것이다. In recent years, a great deal of research and development efforts have been put into TUIs(Tangible User Interfaces) as part of HCI. In particular, many tabletop TUIs have been introduced for commercial products, including musical instruments. This trend of TUIs indicates the ever-increasing demand for the new way of interface design between human-computer-music. In this paper, we present a new method for non-tagging-based tabletop TUIs using the computer vision technology. Furthermore, using the proposed tabletop TUI, we also introduce a novel multi-user music performance/creation platform as an application.
오디오신호의 음계 변조를 이용한 음악 스타일 변환 방법
이장우(Jangwoo Lee),김현우(Hyunwoo Kim),이교구(Kyogu Lee) 한국전자음악협회 2010 에밀레 Vol.- No.8
음악의 조성(調性)은 음악의 성격이나 작곡자나 연주자가 전달하고자 하는 바를 전달함에 있어서 중요한 비중을 차지한다. 장조(長調)와 단조(短調)에서 특징적으로 두드러지는 구성음을 바꾸는 것은 음계를 바꾸게 된다. 그러나 구성음을 바꾸기 위해서는 그에 상응하는 배음(倍音)들 또한 변환이 요구된다. 이에 본 연구에서는 장조음계와 단조음계의 구성음을 웨이브 신호에서도 변환할 수 있는 방법을 제안한다. 우선 MIDI로 이루어진 동일한 곡을 장조와 단조로 만든 후 웨이브 시그널의 형태로 변환한다. 그리고 이것들을 학습 데이터로 이용하여, 상대 음계의 주파수 스펙트럼으로 변환할 수 있는 변환 행렬을 구한다. 마지막으로 학습되지 않은 데이터 즉, 새로운 장조 혹은 단조의 곡을 변환 행렬을 통해 새로운 음계의 곡을 생성함을 보인다. In tonal music, mode is concept that involves musical scales and melody type. So the musical scale of songs determines the style of them. In this paper, we change the musical scale of a song to change the style of a song. Without sinusoidal modeling, this method directly changes the energy of spectrum into the counterpart mode scale using transformation function. In order to calculate transformation matrix, we use synthesized acoustic training data based on midifiles. Transformation function is obtained by multiplying a pseudo inverse matrix of a spectrum and the counterpart. This is a promising algorithm to develop automatic arrangement system on acoustic tracks.
확률적 은닉 성분 분석에 기반한 드럼 Onset 검출 방법
한병준 ( Byeong-jun Han ),김연주 ( Yunjoo Kim ),이장우 ( Jangwoo Lee ),김민제 ( Minje Kim ),이교구 ( Kyogu Lee ) 한국정보처리학회 2010 한국정보처리학회 학술대회논문집 Vol.17 No.2
특정 시간에 동시 연주된 다수 음원의 onset 을 검출하기 위해서는 음원 분리 문제가 선결되어야 한다. 특히, 드럼과 같은 조음(噪音) 악기 신호 검출 문제를 해결하기 위해서는 음원 분리 방법의 성능이 중요하다. 이에 본 연구에서는 효과적인 음원 분리 방법으로 알려진 확률적 은닉 성분 분석(PLCA) 방법에 기반한 주요 악기 신호의 onset 검출 방법을 제안한다. 효과적인 onset 검출을 위해, 첫째, 확률적 은닉 성분 분석으로 훈련 된 비음수 주파수 성분 중 최적의 성분을 선택하는 방법을 적용하고, 둘째, 드럼 악기 신호의 정확한 onset 검출을 위해 고안된 비음수 시계열 신호 threshold 방법을 적용한다. 실험에서는 제시된 방법을 이용하여 드럼의 주요 악기 신호 onset 검출 성능이 향상됨을 보인다.
오재혁(Jaehyeuk Oh),장성균(Sungkyun Chang),김미경(Mikyoung Kim),이교구(Kyogu Lee) 한국HCI학회 2011 한국HCI학회 학술대회 Vol.2011 No.1
트위터는 '트윗'이라 부르는 간단한 텍스트를 사용자끼리 주고받음으로서 정보를 교환할수있는 마이크로 블로깅 서비스이다. 이 논문에서는 새로 생성되는 Tweet과 그 이전 Tweet들로부터 기분 상태(Mood State)를 추출하고 실시간으로 청각화하는 인터페이스를 제안한다. 이것은 사용자에게 보다 Timeline에서의 많은 정보를 비음성적인 사운드로 빠르게 전달하는 목적을 가진다. Tweeter is a microblogging service, which enables users to communicate through sending and receiving brief text messages called 'tweets'. This paper proposes an interface for sonification of mood state in tweets, by tracing current and past timeline. It aims to convey a large number of mood data to users quickly, by use of non-speech sound.