RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI우수등재

        희귀모형의 선형성에 대한 커널붓스트랩검정

        백장선,김민수,Baek, Jang-Sun,Kim, Min-Soo 한국데이터정보과학회 1998 한국데이터정보과학회지 Vol.9 No.2

        Azzalini and Bowman proposed the pseudo-likelihood ratio test for checking the linear relationship using kernel regression estimator when the error of the regression model follows the normal distribution. We modify their method with the bootstrap technique to construct a new test, and examine the power of our test through simulation. Our method can be applied to the case where the distribution of the error is not normal.

      • KCI등재

        직교요인을 이용한 국소선형 로지스틱 마이크로어레이 자료의 판별분석

        백장선,손영숙,Baek, Jang-Sun,Son, Young-Sook 한국통계학회 2006 응용통계연구 Vol.19 No.3

        본 논문에서는 마이크로어레이 (microarray) 자료에 판별분석을 적용 시 나타나는 고차원 및 소표본 문제의 해결방법으로서 직교요인을 새로운 특징변수로 사용한 비모수적 국소선형 로지스틱 판별분석을 제안한다. 제안된 방법은 국소우도에 기반한 것으로서 다범주 판별분석에 적용될 수 있으며, 고려된 직교인자는 주성분 요인, 부분최소제곱 요인, 인자분석 요인 등이다. 대표적인 두 가지 실제 마이크로어레이 자료에 적용한 결과 직교요인들 중에서 부분최소제곱 요인을 특징변수로 사용한 경우 고전적인 통계적 판별분석보다 향상된 분류 능력을 나타내고 있음을 확인하였다. The number of variables exceeds the number of samples in microarray data. We propose a nonparametric local linear logistic classification procedure using orthogonal components for classifying high-dimensional microarray data. The proposed method is based on the local likelihood and can be applied to multi-class classification. We applied the local linear logistic classification method using PCA, PLS, and factor analysis components as new features to Leukemia data and colon data, and compare the performance of the proposed method with the conventional statistical classification procedures. The proposed method outperforms the conventional ones for each component, and PLS has shown best performance when it is embedded in the proposed method among the three orthogonal components.

      • KCI등재

        A Generalized Likelihood Ratio Test in Outlier Detection

        Jang Sun Baek(백장선) 한국통계학회 1994 응용통계연구 Vol.7 No.2

        본 연구에서는 핵확산 감시와 관련된 이상점 탐지를 위한 일반화 우도비 검정 방법이 개발되었다. 고전적인 이상점 탐지방법들이 연속형 변수만을 고려한 반면, 본 연구에서 제안된 방법은 연속형 변수, 이산형 변수, 혹은 이산형과 연속형이 혼합된 변수들에 모두 적용될 수 있다. 더우기 대부븐의 고전적인 방법들에 있어서 주로 이용된 정규분포 가정을 필요로 하지 않는다. 본 연구에서 제안된 방법은 일반화 우도비에 붓스트랩 방법을 적용하여 구성되었다. 모의실험을 통하여 검정력을 고찰함으로써 제안된 검정방법의 성능을 연구하였다. A generalized likelihood ratio test is developed to detect an outlier associated with monitoring nuclear proliferation. While the classical outlier detection methods consider continuous variables only, our approach allows both continuous and discrete variables or a mixture of continuous and discrete variables to be used. In addition, our method is free of the normality assumption, which is the key assumption in most of the classical methods. The proposed test is constructed by applying the bootstrap to a generalized likelihood ratio. We investigate the performance of the test by studying the power with simulations.

      • KCI등재

        시간경로 유전자 발현자료의 군집분석에서 이질적인 시계열의 탐지를 위한 패턴일치지수

        손영숙,백장선,Son, Young-Sook,Baek, Jang-Sun 한국통계학회 2005 응용통계연구 Vol.18 No.2

        본 논문에서는 피어슨 상관계수를 이용한 시간경로 유전자 발현자료의 군집분석에서 군집의 대표적인 패턴에서 벗어나는 이질적인 패턴을 보이는 시계열을 탐지하기 위한 패턴일치지수를 제안하고, 이를 마이크로어레이 실험으로부터 얻어진 혈청 시간경로 유전자 발현자료에 적용하여 유용성을 검토해 본다. In this paper, we propose a pattern consistency index for detecting heterogeneous time series that deviate from the representative pattern of each cluster in clustering time course gene expression data using the Pearson correlation coefficient. We examine its usefulness by applying this index to serum time course gene expression data from microarrays.

      • KCI등재

        고차원 (유전자 발현) 자료에 대한 군집 타당성분석 기법의 성능 비교

        정윤경,백장선,Jeong, Yun-Kyoung,Baek, Jang-Sun 한국통계학회 2007 응용통계연구 Vol.20 No.1

        유전자 발현 자료(gene expression data)는 전형적인 고차원 자료이며, 이를 분석하기 위한 여러 가지 군집 알고리즘(clustering algorithm)과 군집 결과들을 검증하는 군집타당성분석 기법(cluster validation technique)이 제안되고 있지만, 이들 군집 타당성을 분석하는 기법의 성능에 대한 비교, 평가는 매우 드물다. 본 논문에서는 저차원의 모의실험 자료와 실제 유전자 발현 자료에 대하여 군집 타당성분석 기법들의 성능을 비교하였으며, 그 결과 내적 측도에서는 Dunn 지수, Silhouette 지수 순으로 뛰어났고 외적 측도에서는 Jaccard 지수가 성능이 가장 우수한 것으로 평가되었다. Many clustering algorithms and cluster validation techniques for high-dimensional gene expression data have been suggested. The evaluations of these cluster validation techniques have, however, seldom been implemented. In this paper we compared various cluster validity indices for low-dimensional simulation data and real gene expression data, and found that Dunn's index is the most effective and robust, Silhouette index is next and Davies-Bouldin index is the bottom among the internal measures. Jaccard index is much more effective than Goodman-Kruskal index and adjusted Rand index among the external measures.

      • KCI등재

        로또복권의 당첨번호에 대한 무작위성 검정

        임수열,백장선,Lim, Su-Yeol,Baek, Jang-Sun 한국데이터정보과학회 2009 한국데이터정보과학회지 Vol.20 No.5

        로또복권은 이미 전 세계적으로 인기가 가장 높은 복권중의 하나이다. 우리나라의 경우 전체 45개의 번호 중 6개의 번호를 선택하는 방법으로 로또복권이 발행하고 있으며, 로또복권의 발행을 통해 얻은 수익 중 일부분을 복지사업에 지원하는 등 다양한 분야에 대한 지원 사업으로 사회 환원에도 적극적으로 앞장서고 있다. 하지만 이런 장점에도 불구하고 로또복권의 1등 당첨번호들이 과연 무작위로 선택되었는가 하는 의혹은 발행초기부터 지금까지도 끊이지 않고 제기되어 오고 있다. 따라서 본 연구에서는 로또복권의 총 331회의 1등 당첨번호들에 대하여 주관 사업체별, 그리고 로또복권의 가격변화로 구분하여 다변량 중심극한정리와 몬테카를로 모의실험을 이용한 검정 방법으로 당첨번호들에 대한 무작위성 검정을 실시하였다. 그 결과 모든 경우에서 당첨번호들이 무작위성을 만족하였다. Lotto is one of the most popular lottery games in the world. In korea the lotto considers numbers 1, 2,..., 45 from which 6 numbers are drawn randomly, without replacement. The profits from the lotto supports social welfare. However, there has been a suspicion that the choice of the winning numbers might not be random. In this study, we applied the randomness test developed by Coronel-Brizio et al. (2008) to the historical korean lotto data to see if the drawing process is random. The result of our study shows that the process was random during two periods under the management of different business companies and of price changes, respectively.

      • KCI등재

        공통요인분석자혼합모형의 요인점수를 이용한 일반화가법모형 기반 신용평가

        임수열,백장선,Lim, Su-Yeol,Baek, Jang-Sun 한국데이터정보과학회 2012 한국데이터정보과학회지 Vol.23 No.2

        로지스틱판별분석은 금융 분야에서 유용하게 사용되고 있는 통계적 기법으로 신용평가 시 해석이 쉽고 우수한 분별력으로 많이 활용되고 있지만 종속변수에 대한 설명변수들의 비선형적인 관계를 설명하는 부분에는 한계점이 있다. 일반화가법모형은 로지스틱판별모형의 장점과 함께 종속변수와 설명변수 사이의 비선형적인 관계도 설명할 수 있다. 그러나 연속형 설명변수의 수가 대단히 많은 경우이 두 방법은 모형에 유의한 변수를 선택해야하는 문제점이 있다. 따라서 본 연구에서는 다수의 연속형 설명변수들을 공통요인분석자혼합모형에 의한 차원축소를 통해 변환된 소수의 요인점수들을 일반화가법모형의 새로운 연속형 설명변수로 사용하여 신용분류를 하는 방법을 제시한다. 실제 금융자료를 이용하여 로지스틱판별모형과 일반화가법모형, 그리고 본 연구에서 제안한 방법에 의한 정분류율을 비교한 결과 본 연구에서 제안한 방법의 분류 성능이 더 우수하였다. Logistic discrimination is an useful statistical technique for quantitative analysis of financial service industry. Especially it is not only easy to be implemented, but also has good classification rate. Generalized additive model is useful for credit scoring since it has the same advantages of logistic discrimination as well as accounting ability for the nonlinear effects of the explanatory variables. It may, however, need too many additive terms in the model when the number of explanatory variables is very large and there may exist dependencies among the variables. Mixtures of factor analyzers can be used for dimension reduction of high-dimensional feature. This study proposes to use the low-dimensional factor scores of mixtures of factor analyzers as the new features in the generalized additive model. Its application is demonstrated in the classification of some real credit scoring data. The comparison of correct classification rates of competing techniques shows the superiority of the generalized additive model using factor scores.

      • KCI등재

        서포트벡터머신과 정칙화판별함수를 이용한 비디오 문자인식의 분류 성능 개선

        임수열,백장선,김민수,Lim, Su-Yeol,Baek, Jang-Sun,Kim, Min-Soo 한국데이터정보과학회 2010 한국데이터정보과학회지 Vol.21 No.4

        본 연구에서는 비디오이미지로부터 추출된 텍스트영역으로부터 문자인식을 수행하였다. 비디오영상으로부터 추출된 문자열은 한글, 영어, 숫자, 특수문자 등으로 혼합되어 있거나, 또는 다양한 폰트와 크기, 그래픽 형태의 글자 존재, 영상의 기울어짐, 끊김, 잡영, 접촉, 저해상도의 글자 등으로 인하여 일반적인 문자인식에 비해 많은 어려움이 존재한다. 이와 같은 어려움을 극복하기위해 본 연구에서는 모든 글자에 대해서 인식하지 않고 가장 빈번하게 등장하는 글자만을 인식하고 나머지는 버리는 방법을 사용하였으며 지지도벡터기계와 정칙화판별분석의 2단계 문자인식 방법을 이용하여 인식률을 개선하였다. 또한 인식률이 좋지 못한 4형식과 5형식 글자에 대해 모음별로 중분류를 실시하였다. 실험결과 지지도벡터기계와 정칙화판별분석을 동시에 사용하는 방법이 다른 문자인식의 방법들보다 인식률이 우수하였으며, 부분적인 중분류의 방법을 이용한 경우 향상된 인식 성능을 나타냈다. In this study, we propose a new procedure for improving the character recognition of text area extracted from video images. The recognition of strings extracted from video, which are mixed with Hangul, English, numbers and special characters, etc., is more difficult than general character recognition because of various fonts and size, graphic forms of letters tilted image, disconnection, miscellaneous videos, tangency, characters of low definition, etc. We improved the recognition rate by taking commonly used letters and leaving out the barely used ones instead of recognizing all of the letters, and then using SVM and RDA character recognition methods. Our numerical results indicate that combining SVM and RDA performs better than other methods.

      • KCI등재

        한반도 지진발생의 무작위성에 대한 통계적 검정과 집중도 추정

        김성균,백장선,Kim, Sung-Kyun,Baek, Jang-Sun 한국지구과학회 2000 한국지구과학회지 Vol.21 No.2

        본 연구에서는 한반도의 지진활동을 공간 통계학 방법을 이용하여 지진발생의 무작위성에 대한 검정과 집중도의 추정을 수행하였다. 무작위성에 대한 통계적 검정은 검정통계량을 이용한 방법과 경험분포를 이용한 두 가지 방법을 사용하였다. 역사지진과 계기지진의 두 대상자료에 대하여 적용한 결과, 두 자료 모두 무작위적이지 않고 군집적인 분포를 가지고 있는 것으로 판명되었다. 한편 비모수 밀도함수 추정방법을 이용한 진앙지 분포의 집중도는 역사지진의 경우 한반도 중부, 충남, 전북, 경북지역에서 높게 나타났다. 또한 계기지진의 경우에는 황해도-충남 해안-경북 내륙을 연결하는 "L"자 형태의 집중도를 보인다. We tested the randomness and estimated the degree of concentration for the earthquake occurrence in the Korean Peninsula by using the statistical methods for spatial data. For the randomness test, we applied both of the test statistics based method and the empirical distribution based method to the both of historical and instrumental seismicity data. It was found that the earthquake occurrences for historical and instrumental seismicity data are not random and clustered rather than scattered. A nonparametric density estimation method was used to estimate the concentration degree in the Peninsula. The earthquake occurrences show relatively high concentration on Seoul, Choongnam, Chonbook and Kyungbook areas for the historical seismicity data. Also,'L" shaped concentrations connecting Whanghaedo -the coast of Choongnam -the inland of Kyungbook area are revealed for the instrumental seismicity data.

      • KCI등재

        주성분 분석과 비정칙치 분해를 이용한 문서 요약

        이창범,김민수,백장선,박혁로,Lee, Chang-Beom,Kim, Min-Soo,Baek, Jang-Sun,Park, Hyuk-Ro 한국정보처리학회 2003 정보처리학회논문지B Vol.10 No.7

        본 논문에서는 통계적 분석 기법인 주성분 분석과 비정칙치 분해를 이용한 문서 방법을 제안한다. 제안한 방법은 문서내의 주제어를 추출한 후, 추출된 주제어와 문장간의 거리가 가장 짧은 문장들을 중요 문장으로 추출하여 요약으로 제시한다. 주제어를 추출하기 위해서는 주성분 분석을 이용하였으며, 이는 문서 자체내의 빈도 정보와 단어간의 연관 정보를 이용한 것이다. 그리고, 중요 문장을 추출하기 위해 비정칙치 분해를 시행하여 문장 벡터와 주제어 벡터론 획득한 후, 두 벡터간의 유클리디언 거리를 계산하였다. 신문 기사를 대상으로 실험한 결과, 제안한 방법이 출현 빈도만을 이용한 방법과 주성분 분석만을 이용한 방법보다 성능이 우수함을 알 수 있었다. In this paper, we propose the text summarization method using PCA (Principal Component Analysis) and SVD (Singular Value Decomposition). The proposed method presents a summary by extracting significant sentences based on the distances between thematic words and sentences. To extract thematic words, we use both word frequency and co-occurence information that result from performing PCA. To extract significant sentences, we exploit Euclidean distances between thematic word vectors and sentence vectors that result from carrying out SVD. Experimental results using newspaper articles show that the proposed method is superior to the method using either word frequency or only PCA.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼