http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
VoWiFi 음질 향상을 위한 G.729.1 광대역 코덱의 ARM 프로세서에의 실시간 구현
박남인(Nam In Park),강진아(Jin Ah Kang),김홍국(Hong Kook Kim) 한국HCI학회 2008 한국HCI학회 학술대회 Vol.2008 No.2
본 논문에서는 ASM 프로세서로 설계된 VoWiFi 단말기에서 광대역 음성 서비스를 가능하게 하기 위한 방법으로 ITU-T 표준 코덱인 G.729.1을 실시간으로 구현하고 그 성능을 평가한다. 실시간 G.729.1 코덱 구현은 C 코드 최적화 및 코덱 알고리즘의 고속화를 근간으로 한다. 이렇게 최적화된 코덱의 성능은 VoWiFi 단말기내에서 AKM 프로세서가 요구하는 CPU 동작 시간으로 평가된다. 실험 결과, ARM926EJ를 사용하여 최적화된 G.729.1 코덱이 실시간으로 동작함을 확인할 수 있으며, 기존의 G.729에 비해 넓은 대역폭의 음성 전송이 가능함을 보일 수 있다. This paper addresses issues associated with the real-time implementation of a wideband speech codec such as ITU-T G.729.1 on an ARM processor in order to provide an improved voice quality of a VoWiFi service. The real-time implementation features in optimizing the C-source code of G.729.1 and replacing several parts of the codec algorithm with faster ones. The performance of the implementation is measured by the CPU time spent for G.729.1 on the ARM926EJ processor that is used for a VoWiFi phone. It is shown from the experiments that the G.729.1 codec works in real-time with better voice quality than G.729 codec that is conventionally used for VoIP or VoWiFi phones.
삼성 스마트폰에서 생성된 통화녹음파일에 대한 위변조 검출을 위한 법과학적 분석 방법
박남인(Nam In Park),이지우(Ji Woo Lee),김진환(Jin-Hwan Kim),임재성(Jae Sung Lim),나기현(Gi-Hyun Na),전옥엽(Oc-Yeub Jeon) 한국디지털포렌식학회 2022 디지털 포렌식 연구 Vol.16 No.1
스마트폰의 대중화로 인해 스마트폰을 이용한 범죄가 늘어나고 있다. 특히 안드로이드 계열의 스마트폰은 통화 녹음 기능을 내장하고 있기 때문에 통화녹음 파일에 대한 증거물 확보가 매우 중요하다. 이렇게 수집된 디지털 증거물은 법적 효력을 갖기 위해, 무결성이 보장되어야 한다. 본 논문에서는 삼성 스마트폰에 기본 내장된 통화기능에서 제공하는 통화녹음 파일에 대한 위변조 분석 방법에 대해 제안하였다. 제안한 위변조 분석 방법은 통화녹음 파일에 대한 분석과 통화녹음 파일이 기록된 스마트폰 내의 미디어로그 및 통화 내역 분석으로 구분된다. 먼저, 정상통화녹음 파일에 대한 오디오 대역폭, 음성 지연 구간, 파일 구조 및 통화녹음 파일을 기록한 스마트폰에 미디어로그 및 통화 내역 등을 분석하였다. 그 후, 스마트폰에서 제공하는 편집기능을 통해 통화녹음파일을 편집하였을 때, 음성 지연 구간, 파일 구조 및 스마트폰에 기록된 미디어로그와 통화 내역의 변화를 비교분석하였다. 그 결과, 통화녹음 파일에 대해 임의로 조작을 가했을 때, 음성 지연구간, 파일 구조 및 스마트폰 내에 미디어로그의 시간 정보가 변경되는 것이 확인되었다, 이러한 방법으로 통화녹음 파일에서 추출한 시간 정보들과 해당 파일이 기록된 스마트폰의 미디어로그 및 통화 내역의 시간정보가 일치하는지와 파일 구조와 음향학적 특성을 이용해서, 제시된 통화녹음파일의 진본임을 확인하였다. Due to the popularization of smartphones, crime using smartphones is increasing. In particular, since Android-based smartphones have a built-in call recording function, it is very important to secure evidence for the call recording file. For the digital evidence collected in this way to have legal effect, its integrity must be guaranteed. In this paper, we propose a forgery analysis method for call recordings generated by the built-in call function of Samsung smartphones. The proposed forgery analysis method is divided into the analysis of the call recordings itself and the media-log and call history analysis in the smartphone with the call recording. First, we analyzed the audio bandwidth of the normal call recording, the audio latency, the file structure, and the media-log, and call history in the smartphone that includes the call recordings. After that, we compared and analyzed the difference of the audio latency, the file structure, the media-log, and call history when the call recording was edited through the editing function provided by the smartphone. As a result, it was confirmed that time information of the audio latency time, file structure and media-log in the smartphone were changed when an arbitrary manipulation was applied to the call recording. In this way, we can classify the forensic authentication as comparing the time information extracted from the call recording and the media-log/call history in smartphone with the call recordings plus analyzing the file structure and acoustic characteristics.
디지털 오디오 파일의 편집 여부 분석 절차에 대한 연구
박남인(Nam In Park),심규선(Kyu-Sun Shim),전옥엽(Oc-Yeub Jeon) 한국디지털포렌식학회 2019 디지털 포렌식 연구 Vol.13 No.4
최근 스마트폰을 비롯한 스마트 기기의 대중화 등의 영향으로 사진이나 동영상 촬영 오디오 녹음이 빈번하고 쉽게 이루어짐에 따라, 이러한 형태의 디지털 파일이 증거물로써 활용되는 사례도 증가하고 있다. 이러한 디지털 파일이 디지털 증거물로써 법적 효력을 갖추기 위해서, 디지털 증거물에 대한 원본 확인이 필수적이다. 특히, 디지털 오디오 파일의 특성상 원본파일로부터 대량 복제 및 디지털 편집 프로그램 등을 통해 정교한 위변조가 가능하며, 실제로 디지털 오디오 파일을 조작하는 사례가 증가하고 있다. 본 논문에서는 다양한 실제 사례들을 분석한 후, 디지털 오디오 파일에 대한 오디오 신호 및 파일 포맷 분석을 통한 편집 여부 분석 절차에 대해 제안하였다. 실제 사례들을 분석한 결과, 편집이 이루어진 파일에 대해서 디지털 오디오 파일의 조작 과정에서 발생하는 조작흔적을 통해 원본이 아님을 제한적으로 증명할 수 있음을 확인하였고, 일부 특정 조건에서는 제안한 편집 여부 분석 절차로도 위변조 여부가 검출되지 않을 수 있다는 것이 확인하였다. Recently, due to the popularization of smart devices such as smartphones and the like, photography and video recording audio recordings are frequently and efficiently performed. Thus the use of digital files of those types is increasing. For these digital files to be legally valid as digital evidence, the proof of origin for digital evidence was essential. Mainly, due to the characteristics of the digital audio file, it is possible to make a sophisticated forgery and falsification through the mass copying and digital editing program from the original record. In this way, it has been increasing more and more cases of manipulating digital audio files. In this paper, we propose the procedure of analyzing the file format of digital audio files and the audio signal after the analysis of various actual cases. As a result, it has confirmed that the digital audio files can be not original through traces generated during the manipulation of the digital audio file in case of the manipulated data. Moreover, it has confirmed that the proposed authentication analysis procedure may not clarify whether or not the digital audio file has been a forgery in some specific condition.
평균음성을 이용한 교차성별 음성변환 기반 소용량 음성합성
전광명(Kwang Myung Jeon),박남인(Nam In Park),김홍국(Hong Kook Kim) 한국HCI학회 2012 한국HCI학회 학술대회 Vol.2012 No.1
본 논문에서는 평균음성을 이용한 교차성별 음성변환 기술에 바탕을 둔 소용량의 음성합성 방식을 제안한다. 제안된 음성합성 방식은 평균음성 모델로부터 중성화된 음성합성 특징을 추출하고, 추출된 특징에 주파수 와핑과 피치 변환을 가해 원하는 성별의 합성음성을 생성한다. 제안하는 방법은 원하는 성별의 음성을 얻기 위해 남녀 각각의 음성모델을 지녀야 하는 기존의 화자 의존형 음성합성과는 달리 평균음성 모델 하나만으로도 남녀 각각에 대한 음성을 얻을 수 있다. 성능 평가 결과 제안된 소용량 음성합성 방법은 기존의 화자 의존 방식 대비 52% 낮은 요구 저장공간으로도 유사한 수준의 음성 품질 만족도를 보여주었다. In this paper, we propose a small-footprint speech synthesis method based on cross-gender voice conversion by using average-voices. The proposed speech synthesis method extracts gender-averaged speech features from average-voice models, and then it generates desired gender specific synthesized speech by performing frequency warping and pitch conversion on the extracted features. The proposed method is able to obtain both male and female speeches by using only one average-voice model, while the conventional method requires two separate speech models corresponding to male and female. It is shown from evaluation results that the proposed speech synthesis method provides comparable speech quality with less storage size of 52%, compared to the conventional method.