http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Feature Transformation based Music Retrieval System
Jungim Heo,Jinmo Yang,Dong-hyun Kim,Kyoungro Yoon,Wonil Kim 한국지능시스템학회 2008 INTERNATIONAL JOURNAL of FUZZY LOGIC and INTELLIGE Vol.8 No.3
People have tendency of forgetting music title, though they easily remember particular part of music. If a music search system can find the title through a part of melody, this will provide very convenient interface to users. In this paper, we propose an algorithm that enables this type of search using feature transformation function. The original music is transformed to new feature information with sequential melodies. When a melody that is a part of search music is given to the system, the music retrieval system searches the music similar to the feature information of the melody. Moreover, this transformation function can be easily extended to various music recognition systems.
De Novo Pure Trisomy 20p: Report of a Novel Case of a Marker Chromosome and Literature Review
Jungim Choi,Soo-Young Yoon,박금보래,Baik-Lin Eun,Myungshin Kim,권정아 대한진단검사의학회 2020 Annals of Laboratory Medicine Vol.40 No.3
Dear Editor, Trisomy 20p is a rare genetic disorder manifesting as intellectual disability, speech delay, specific facial features, and delayed motor milestones. Severity of the symptom depends on chromosome 20p duplication size; larger chromosomal duplications usually result in more serious symptoms [1]. Most previously reported cases involved partial trisomy 20p derived from a parental reciprocal translocation, chromosome inversion, or a small supernumerary marker chromosome (sSMC) [1-5]. However, only a few cases of pure trisomy 20p (involving whole short arm of chromosome 20) have been reported [1, 5-9].
개 회충 게놈 응용 사례에서 공개용 분석 툴을 사용한 드래프트 게놈 어셈블리 생성
원정임(JungIm Won),공진화(JinHwa Kong),허선(Sun Huh),윤지희(JeeHee Yoon) 한국정보과학회 2014 정보과학회 컴퓨팅의 실제 논문지 Vol.20 No.9
NGS 기술의 발달로 시퀀싱 비용이 급격히 하락됨에 따라 대규모 크기의 유전체 염기 서열 해독을 소규모의 실험실에서 수행할 수 있게 되었다. 디노버 어셈블리는 표준 유전체가 없는 새로운 종을 시퀀싱하는 경우 리드들의 염기 서열 정보를 이용하여 재구성함으로써 원래의 전체 시퀀스를 복원하는 것이다. 최근 이와 관련된 많은 연구 결과가 보고되고 있으나, 충분한 분석 노하우와 명확한 가이드라인 등이 공개되어 있지 않기 때문에 이들 연구에서 제시하는 동일한 어셈블리 수행 과정 및 분석 툴들을 사용하더라도 만족할만한 수준의 어셈블리 결과를 얻지 못하는 경우가 발생한다. 본 연구에서는 이러한 문제점을 해결하기 위하여 NGS 기술과 디노버 어셈블리 기술을 이용하여 아직 밝혀지지 않은 생물체의 전체 DNA의 염기 서열을 밝히기 위한 일련의 과정들을 단계별로 소개하고, 각 단계에서 필요로 하는 공개용 분석 툴의 장단점을 분석하여 제시한다. 이러한 과정별 단계를 구체적으로 설명하기 위하여 본 연구에서는 350Mbp 크기의 개 회충 게놈을 응용 사례로 사용한다. 또한 디노버 어셈블리 과정을 통해 새롭게 어셈블리된 시퀀스와 다른 유사 종과의 상동성 분석을 수행하여 어셈블리된 시퀀스에서의 유전자 영역 추출과 추출된 유전자의 기능을 예측한다. It has become possible for small scale laboratories to interpret large scale genomic DNA, thanks to the reduction of the sequencing cost by the development of next generation sequencing (NGS). De novo assembly is a method which creates a putative original sequence by reconstructing reads without using a reference sequence. There have been various study results on de novo assembly, however, it is still difficult to get the desired results even by using the same assembly procedures and the analysis tools which were suggested in the studies reported. This is mainly because there are no specific guidelines for the assembly procedures or know-hows for the use of such analysis tools. In this study, to resolve these problems, we introduce steps to finding whole genome of an unknown DNA via NGS technology and de novo assembly, while providing the pros and cons of the various analysis tools used in each step. We used 350Mbp of Toxocara canis DNA as an application case for the detailed explanations of each stated step. We also extend our works for prediction of protein-coding genes and their functions from the draft genome sequence by comparing its homology with reference sequences of other nematodes.
원정임(JungIm Won),홍상균(Sangkyoon Hong),공진화(JinHwa Kong),허선(Sun Huh),윤지희(JeeHee Yoon) 한국정보과학회 2013 정보과학회논문지 : 데이타베이스 Vol.40 No.1
디노버 어셈블리는 레퍼런스 시퀀스 없이 리드의 염기 서열 정보를 이용하여 원래의 전체 시퀀스(original sequence)로 추정되는 시퀀스로 리드들을 재구성하는 방식이다. 최근의 NGS(Next Generation Sequencing) 기술은 대용량 리드를 훨씬 쉽게 저비용으로 생성할 수 있다는 장점이 있어, 이를 이용한 많은 연구가 이루어지고 있다. 그러나 NGS 리드 데이터를 이용한 디노버 어셈블리에 관한 연구는 국내외적으로 매우 미흡한 실정이다. 그 이유는 NGS 리드 데이터를 이용하여 디노버 어셈블리를 수행하는 경우 대용량 데이터, 복잡한 데이터 구조 및 처리 과정 등으로 인하여 매우 많은 시간과 공간이 소요될 뿐만 아니라 아직까지 다양한 분석 툴과 분석 노하우 등이 충분히 개발되어 있지 않기 때문이다. 본 연구에서는 NGS 리드 데이터를 이용한 대용량 게놈의 디노버 어셈블리를 위한 분석 방법론에 대하여 논하고, 다양한 실험과 분석을 통하여 디노버 어셈블리의 실효성과 정확성을 검증한다. 또한 디노버 어셈블리의 처리 시간 및 공간 오버헤드를 해결하기 위하여 유사 종과의 리드 정렬 결과를 활용하는 방안과 어셈블리 결과의 정확성과 효율성을 향상시키기 위하여 두 개의 서로 다른 디노버 어셈블리 알고리즘을 접목하는 하이브리드 디노버 어셈블리 기법을 제안한다. De novo assembly is a method which creates a putative original sequence by reconstructing reads without using reference sequence. Advanced studies in many areas use NGS data owing to the ultra high throughput and low cost. However, researches on de novo assembly using NGS data are not sufficient yet because de novo assembly requires a lot of execution time and memory space to process for large and complex structured NGS data. Furthermore analysis tools and know-hows to handle massive amount short reads such as NGS data have not been fully developed. This paper discusses a noble analysis method of de novo assembly in the use of large volume of NGS data and verify the effectiveness and the accuracy of the proposed method via various experiments. Then, we propose a method which aligns read data to sequences of similar species in order to overcome the resource overhead of de novo assembly. We also propose a hybrid method which combines two algorithms in order to increase the effectiveness and accuracy of de novo assembly.
Convergence characteristics of a domain decomposition scheme for approximation of quantum forces
Sojung Park,Jungim Yoon,위대현 한국물리학회 2013 Current Applied Physics Vol.13 No.7
We investigate the convergence characteristics of a domain decomposition scheme to approximately compute quantum forces in the context of semiclassical Bohmian mechanics. The study is empirical in nature. Errors in the approximate quantum forces are compiled while relevant parameters in the numerical scheme are systematically changed. The compiled errors are analyzed to extract underlying trends. Our analysis shows that the number of Bohmian particles used in discretization has relatively weak influence on the error, while the length scale of interaction among subdomains controls the error in most cases. More precisely, the overall numerical error decreases as the length scale of interaction among subdomains decreases, if the error due to the truncation of the tail of the probability density distribution is adequately controlled. Our results suggest that it may be necessary to develop an efficient method to effectively control the error due to the truncation of the tail. Further studies, especially rigorous mathematical ones, should follow to understand and improve the behavior of the scheme.