http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
DNA 커널을 이용한 MicroRNA 목표 유전자 예측
노영균(Yung-Kyun Noh),김성규(Sung-Kyu Kim),김청택(Cheong-Tag Kim),장병탁(Byoung-Tak Zhang) 한국정보과학회 2005 한국정보과학회 학술발표논문집 Vol.32 No.2
분류 방법으로서의 SVM(Support Vector Machine)은 커널 방법과 함께 사용됨으로써 그 유용성을 크게 향상시켰다. 커널 방법은 일반적으로 입력 데이터의 자질(feature)로 나타내는 공간으로부터 높은 차원의 공간으로 데이터를 사상(mapping)시키는 역할을 하게 되나, 기본적으로는 데이터간에 새로운 거리(metric)를 부여해주는 역할을 하는 것이다. 지금까지 나온 다양한 커널 방법은 구조화된(structured) 데이터에 대해 커널 형태로 거리를 부여하는 방법을 제시한다. 본 논문에서는 DNA의 작용을 모델링하여 만든 새로운 커널이 miRNA(micro RNA)와 mRNA(messenger RNA)쌍에 대한 발현 여부를 분류해 내기 위해 커널 형식으로 거리를 부여하는 방법을 보인다. 이 방법은 실리콘 컴퓨터가 아닌 실제 DNA분자로 실험할 수 있도록 설계된 것을 고려할 때 여러 종류의 DNA 코드를 분석하는 데 사용될 수 있는 새로운 분자컴퓨팅 방법이다.
노영균(Yung-Kyun Noh),김청택(Cheong-Tag Kim),장병탁(Byoung-Tak Zhang) 한국정보과학회 2006 한국정보과학회 학술발표논문집 Vol.33 No.1
커널(Kernel)을 이용한 분류 방법은 넓은 마진(large margin) 분류기로서 SVM(Support Vector Machine)을 주로 사용하게 된다. 하지만, 이 방법은 라그랑제 파라미터(Lagrange Parameter)의 최적화 과정을 포함함으로써 학습 과정을 쉽지 않게 만든다. 이 최적화 과정은 특히 DNA computing과 같은 단순한 과정의 설계를 통해 결과를 얻어야 하는 새로운 계산 모델에 커널을 적용하고자 했을 경우 큰 장벽이 된다. 본 논문에서는 넓은 마진을 목표로 하는 최적화 과정이 아닌 다른 라벨(label)의 데이터간의 경계 파악을 위한 간단한 커널 갱신 방법의 도입을 통해 분류기를 설계한다. 이 방법을 가우시안 커널에 적용시켜 본 결과, 반복을 통해 데이터의 구조를 찾아갈 수 있는 특성을 보여주며, 결국 넓은 마진의 최적화된 파라미터를 찾게 됨을 보여준다. 본 논문에서는 이 최적화 방법을 DNA 분자를 이용한 커널 생성 모델인 DNA 커널에 적용시켰을 때 잘 알려진 AML/ALL 데이터를 잘 분류해 냄을 보여준다.
노영균(Yung-Kyun Noh),박종우(Frank Chongwoo Park),다니엘 리(Daniel D. Lee) 한국정보과학회 2012 정보과학회논문지 : 소프트웨어 및 응용 Vol.39 No.5
생성국부거리(Generative Local Metric, GLM) 학습을 통한 최근린 분류(Nearest Neighbor Classification, NN Classification)는 생성적(generative) 접근방법과 분류적(discriminative) 접근방법의 합성 모델이다. 두 방법의 차이는 분류형 형태를 띄는 최근린 분류기가 데이터의 모델을 고려하지 않는 반면, 생성형 분류기는 언제나 확률 밀도 함수의 형태를 가정하고 학습하게 된다는 데 있다. 이 연구에서는 어떻게 이러한 서로 다른 분류적, 생성적 접근이 서로 다른 종류의 강점을 가지게 되고, 어떻게 GLM은 이러한 양쪽의 강점을 모두 취하게 되는지 설명한다. 다양한 예시를 통해 우리는 어떠한 경우에 생성적 방법이 분류적 방법보다, 혹은 분류적 방법이 생성적 방법보다 좋은 성능을 보이게 되는가를 알아보고, 이러한 경우에서 비록 모델이 정확하지 않은 경우에 대해서도 GLM이 원래의 최근린 분류 성능을 계속 향상 시키는 좋은 특징이 있는 것을 보인다. Nearest neighbor (NN) classification with generative local metric (GLM) learning is a hybrid method of the discriminative and generative approaches. A discriminative NN classifier does not consider any model of data, while a generative classifier unavoidably adopts a particular form of the probability density function. In this work, we illuminate how these discriminative and generative approaches have different advantages and show how the advantages of both can be resolved into a GLM method. We present various examples that clearly show the different regimes where the discriminative and generative approaches should outperform each other. In these examples, we show that the GLM is robust to the usage of an incorrect model, enhancing NN classifier performance even when the model is not exact.
Jensen-Shannon divergence 추정을 위한 모수모델 기반 local metric 학습
노영균(Yung-Kyun Noh),Daniel D. Lee,박종우(Chongwoo Park) 한국정보과학회 2011 한국정보과학회 학술발표논문집 Vol.38 No.2B
데이터가 생성된 기저 연속 확률 분포간 정보 추정(estimation)은 많은 응용분야에서 유용하게 쓰일 수 있다. 이러한 정보의 추정치(measure)는 정보이론(information-theory)을 통해 잘 정의되어(welldefined) 있지만 일반적으로 적분을 포함하고 있어 해석적으로 풀 수 없는 경우가 많다. 한편 이러한 해석적인 방법에 의존하지 않고 모델을 가정하지 않는 비모수(nonparametric) 방법을 이용하면 풀리지 않는 적분을 고려하지 않아도 되는 반면 충분히 많은 데이터를 사용할 수 없는 경우 추정된 값이 매우 부정확하게 된다. 이 연구에서는 nearest neighbor를 이용한 비모수 추정 방법에 주목하되 모수를 사용하는 모델(parametric model)의 정보를 이용하여 어떻게 비모수 추정 방법의 정확도를 더욱 높일 수 있는지 설명한다. 특별히 제시된 방법을 이용한 Jensen-Shannon divergence의 추정을 통해 유전자 발현(gene expression) 데이터의 feature selection 문제를 어떻게 성공적으로 풀어내는지 실제 데이터를 통해 보인다.
DNA 커널이 양한정 조건을 만족시키기 위한 온도 조절 디자인
노영균(Yung-Kyun Noh),김청택(Cheongtak Kim),장병탁(Byoung-Tak Zhang) 한국정보과학회 2007 한국정보과학회 학술발표논문집 Vol.34 No.1B
기존의 연구는 DNA 커널을 통한 기계 학습이 DNA 분자들을 통한 in vitro 실험을 통해 가능함을 보였다. 이 때, DNA 커널을 통한 분류 분제는 온도 조절을 통해 양한정(positive definite) 조건을 만족시킬 때 분류 문제를 잘 풀며, 양한정 조건을 만족시키기 위한 조건으로 높은 온도에서 시작하여 온도를 내리며 hybridization시키는 방법을 제안하였다. 이 논문에서는 보다 정량적인 분석을 통해서 이 hybridization 방법이 양한정 조건을 만족시키기에 적합한 방법임을 보이고, 간단한 hybridization 모델을 통해 양한정 조건을 만족시킬 수 있는 hybridization 온도 계획의 충분 조건을 유도한다. 또한 시작 온도와 끝 온도의 경계 조건으로 제시되는 이 충분 조건을 통해 현실적인 온도 조절 계획을 위한 시퀀스의 코딩 방법을 알게 된다.
김은솔(Eun-Sol Kim),노영균(Yung-Kyun Noh),장병탁(Byoung-Tak Zhang) Korean Institute of Information Scientists and Eng 2015 정보과학회논문지 Vol.42 No.2
Locally linear embedding (LLE) [1] is a type of manifold algorithms, which preserves inner product value between high-dimensional data when embedding the high-dimensional data to low-dimensional space. LLE closely embeds data points on the same subspace in low-dimensional space, because the data points have significant inner product values. On the other hand, if the data points are located orthogonal to each other, these are separately embedded in low-dimensional space, even though they are in close proximity to each other in high-dimensional space. Meanwhile, it is well known that the facial images of the same person under varying illumination lie in a low-dimensional linear subspace [2]. In this study, we suggest an improved LLE method for face recognition problem. The method maximizes the characteristic of LLE, which embeds the data points totally separately when they are located orthogonal to each other. To accomplish this, all of the subspaces made by each class are forced to locate orthogonally. To make all of the subspaces orthogonal, the simultaneous Diagonalization (SD) technique was applied. From experimental results, the suggested method is shown to dramatically improve the embedding results and classification performance.