RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 음악에서의 보컬 신호 인식을 위한 트레이닝 데이터 자동주석기법 연구

        이교구(Kyogu Lee),Markus Cremer 한국전자음악협회 2009 에밀레 Vol.- No.7

        우리는 음악 신호에서 보컬과(vocal) 비보컬(non-vocal) 신호를 분리하기 위하여 최소한의 노동력으로 많은 양의 트레이닝 데이터를 레이블(label)하는 새로운 방법을 제시한다. 이를 위하여 보컬이 분리된 채널에 인코딩되어 있는 미디(MIDI) 파일을 합성함으로써 오디오 파일을 생성한 후, 합성된 오디오를 다이나믹 타임 워핑(Dynamic Time Warping) 알고리즘을 이용하여 실제 오디오와 정렬한다. 미디 파일의 보컬 라인에 포함되어 있는 노트 온/오프 정보는 정확한 보컬/비보컬 경계를 제공하고, 최소비용 정렬 궤도로부터 실제 리코딩에서도 상응하는 경계를 구한다. 이와 같이 노동력으로부터 자유로운 레이블링 과정을 이용하여 대규모의 트레이닝 데이터를 구축할 수 있으며, 히든 마르코프 모델을 인식기로 할 경우 기대되는 결과를 얻을 수 있음을 실험을 통하여 보인다. 또한 데이터의 규모가 증가함에 따라 성능도 향상되는 것을 보여줌으로써, 제안된 방법을 통하여 생성된 데이터의 유용성을 입증한다. We present a novel approach to labeling a large amount of training data for vocal/non-vocal discrimination in musical audio with the minimum amount of human labor. To this end, we use MIDI files for which vocal lines are encoded on a separate channel and synthesize them to create audio files. We then align synthesized audio with real recordings using dynamic time warping(DTW) algorithm. Note onset/offset information encoded in vocal lines in MIDI files provides precise vocal/non-vocal boundaries and we obtain from the minimum-cost alignment path the corresponding boundaries in actual recordings. This near labor-free labeling process allows us to acquire a large training data set, and the experiments show promising results when tested on an independent test set, using hidden Markov models as a classifier. We also demonstrate that the data generated by the proposed system is good data by showing that the overall performance increases with more training data.

      • 오디오신호의 음계 변조를 이용한 음악 스타일 변환 방법

        이장우(Jangwoo Lee),김현우(Hyunwoo Kim),이교구(Kyogu Lee) 한국전자음악협회 2010 에밀레 Vol.- No.8

        음악의 조성(調性)은 음악의 성격이나 작곡자나 연주자가 전달하고자 하는 바를 전달함에 있어서 중요한 비중을 차지한다. 장조(長調)와 단조(短調)에서 특징적으로 두드러지는 구성음을 바꾸는 것은 음계를 바꾸게 된다. 그러나 구성음을 바꾸기 위해서는 그에 상응하는 배음(倍音)들 또한 변환이 요구된다. 이에 본 연구에서는 장조음계와 단조음계의 구성음을 웨이브 신호에서도 변환할 수 있는 방법을 제안한다. 우선 MIDI로 이루어진 동일한 곡을 장조와 단조로 만든 후 웨이브 시그널의 형태로 변환한다. 그리고 이것들을 학습 데이터로 이용하여, 상대 음계의 주파수 스펙트럼으로 변환할 수 있는 변환 행렬을 구한다. 마지막으로 학습되지 않은 데이터 즉, 새로운 장조 혹은 단조의 곡을 변환 행렬을 통해 새로운 음계의 곡을 생성함을 보인다. In tonal music, mode is concept that involves musical scales and melody type. So the musical scale of songs determines the style of them. In this paper, we change the musical scale of a song to change the style of a song. Without sinusoidal modeling, this method directly changes the energy of spectrum into the counterpart mode scale using transformation function. In order to calculate transformation matrix, we use synthesized acoustic training data based on midifiles. Transformation function is obtained by multiplying a pseudo inverse matrix of a spectrum and the counterpart. This is a promising algorithm to develop automatic arrangement system on acoustic tracks.

      • KCI등재

        합성곱 신경망 기반 환경잡음에 강인한 교통 소음 분류 모델

        이재준,김완수,이교구,Lee, Jaejun,Kim, Wansoo,Lee, Kyogu 한국음향학회 2018 韓國音響學會誌 Vol.37 No.6

        도시 유동인구가 증가함에 따라 도시 환경 소음에 관한 연구의 중요성이 증가하고 있다. 본 연구에서는 교통상황에서 발생하는 이상 소음을 최근 환경 소음 분류 연구에서 높은 성능을 보이는 딥러닝 알고리즘을 이용하여 분류한다. 구체적으로는 타이어 제동 마찰음, 자동차 충돌음, 자동차 경적음, 정상 소음 네 개의 클래스에 대하여 합성곱 신경망을 이용하여 분류한다. 또한, 실제 교통 상황에서의 환경잡음에 강인한 분류 성능을 갖기 위해 빗소리, 바람 소리, 군중 소리의 세 가지 환경잡음을 설정하였고 이를 활용하여 분류 모델을 설계하였으며 3 dB SNR(Signal to Noise Ratio) 조건에서 88 % 이상의 분류 성능을 가진다. 제시한 교통 소음에 대하여 기존 선행연구 대비 높은 분류 성능을 보이고, 빗소리, 바람 소리, 군중 소리의 세 가지 환경잡음에 강인한 교통 소음 분류 모델을 제안한다. As urban population increases, research on urban environmental noise is getting more attention. In this study, we classify the abnormal noise occurring in traffic situation by using a deep learning algorithm which shows high performance in recent environmental noise classification studies. Specifically, we classify the four classes of tire skidding sounds, car crash sounds, car horn sounds, and normal sounds using convolutional neural networks. In addition, we add three environmental noises, including rain, wind and crowd noises, to our training data so that the classification model is more robust in real traffic situation with environmental noises. Experimental results show that the proposed traffic sound classification model achieves better performance than the existing algorithms, particularly under harsh conditions with environmental noises.

      • 모듈화된 신경망을 사용한 소리 감지 및 위치 추정

        김완수(Wansoo Kim),이교구(Kim, Kyogu Lee) 대한전자공학회 2018 대한전자공학회 학술대회 Vol.2018 No.11

        In this paper, we propose and evaluate a novel modular neural network model for sound event localization and detection (SELD). One SELD module extracts arrival time differences and detects sound events from phase and magnitude spectrogram. The assembled neural network model consists of nC2 numbers of SELD modules where n is the number of channels in the microphone array. The modular structure of the proposed model makes the model easier to train using less training data. The structure also makes the model scalable to microphone array shape change.

      • 확률적 은닉 성분 분석 및 음향 기술자를 사용한 내용 기반 음악 요소 검색 방법

        한병준 ( Byeong-jun Han ),이교구 ( Kyogu Lee ),노승민 ( Seungmin Rho ),황인준 ( Eenjun Hwang ) 한국정보처리학회 2011 한국정보처리학회 학술대회논문집 Vol.18 No.1

        지금까지 음악 정보 검색을 위한 다양한 내용 기반 음악 검색 및 비교 방법이 제안되었다. 그런데, 기존 연구들은 질의 방식 및 검색 카테고리가 변화함에 따라 상이한 방법을 제시하고 있어 음악 검색 방법을 통합하는 데에 한계가 있다. 이러한 문제를 해결하기 위해, 본고에서는 내용 기반 음악 검색의 일반화를 위한 내용 기반 음악 요소 검색(CBMER) 방법을 제안하였다. 제안 방법에서는 확률적 은닉 성분 분석(PLCA)을 사용하여 음원을 분해하고, 각 분해 요소로부터 오디오 특성을 추출하였다. 제안 방법을 사용하여 다양한 질의 방식 및 검색 카테고리로 내용 기반 음악 요소 검색이 가능함을 보이기 위해, 남성/여성의 목소리로부터 질의를 생성하여 목소리 성별에 따른 음악을 검색하는 실험을 수행하고 그 결과를 분석하였다.

      • 음악 연주를 위한 비-태깅 기반 테이블탑 TUI(Tangible User Interface)

        김재훈(Jaehoon Kim),원상희(Sanghee Won),이교구(Kyogu Lee) 한국HCI학회 2014 한국HCI학회 학술대회 Vol.2014 No.2

        최근 몇 년간 HCI 연구의 일환으로서 TUI(Tangible User Interface) 연구 개발은 급증하였으며, 그 중에서도 테이블탑 TUI 연구는 두드러진다. 특히 음악 연주를 위한 인터페이스로서 테이블탑 TUI 연구, 상용화가 활발히 이루어 지고 있다는 사실은 사람-음악-컴퓨터 간의 새로운 상호작용 방법에 대한 요구와 의의를 실감케 한다. 본 연구에서는 새로운 테이블탑 TUI 의 가능성을 엿보기 위해, 기존의 태깅 기반 방식이 아닌, 컴퓨터 영상처리를 통한 비-태깅 기반 테이블탑 TUI 방식을 제시할 것이다. 또한 이를 기반으로 한 다자 참여 음악 연주/창작 플랫폼을 소개할 것이다. In recent years, a great deal of research and development efforts have been put into TUIs(Tangible User Interfaces) as part of HCI. In particular, many tabletop TUIs have been introduced for commercial products, including musical instruments. This trend of TUIs indicates the ever-increasing demand for the new way of interface design between human-computer-music. In this paper, we present a new method for non-tagging-based tabletop TUIs using the computer vision technology. Furthermore, using the proposed tabletop TUI, we also introduce a novel multi-user music performance/creation platform as an application.

      • KCI등재

        추체외로 증상에 따른 항정신병 약물 복용량과 음성 특성의 상관관계 분석

        이수빈,김서영,김혜윤,김의태,유경상,이호영,이교구,Lee, Subin,Kim, Seoyoung,Kim, Hye Yoon,Kim, Euitae,Yu, Kyung-Sang,Lee, Ho-Young,Lee, Kyogu 한국음향학회 2022 韓國音響學會誌 Vol.41 No.3

        본 논문은 항정신병 약물의 복용량에 따른 음성 특징의 상관관계 분석을 수행하였다. 항정신병 약물의 대표적 부작용 중 하나인 추체외로 증상(ExtraPyramidal Symptoms, EPS) 발생에 따른 음성 특징의 패턴을 알아보기 위하여, 문장 개발을 통해 한국어 기반 추체외로 증상 음성 코퍼스를 구축하였다. 수집된 자료는 추체외로 증상 군과 비 추체외로 증상 군으로 나누어 음성 특징 패턴을 조사하였으며, 특히 추체외로 증상 군의 높은 음성 특징 상관관계를 보였다. 또한, 발화 문장의 종류가 음성 특징 패턴에 영향을 미친다는 것을 확인할 수 있었으며, 이를 통해 음성 특징을 기반한 추체외로 증상의 조기 발견 가능성을 기대해볼 수 있었다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼