RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재후보

        Regression Quantile Estimations on Censored Survival Data

        심주용,Shim, Joo-Yong The Korean Data and Information Science Society 2002 한국데이터정보과학회지 Vol.13 No.2

        In the case of multiple survival times which might be censored at each covariate vector, we study the regression quantile estimations in this paper. The estimations are based on the empirical distribution functions of the censored times and the sample quantiles of the observed survival times at each covariate vector and the weighted least square method is applied for the estimation of the regression quantile. The estimators are shown to be asymptotically normally distributed under some regularity conditions.

      • KCI등재

        비선형 평균 일반화 이분산 자기회귀모형의 추정

        심주용,이장택,Shim, Joo-Yong,Lee, Jang-Taek 한국데이터정보과학회 2010 한국데이터정보과학회지 Vol.21 No.5

        최소제곱 서포트벡터기계는 비선형회귀분석과 분류에 널리 쓰이는 커널기법이다. 본 논문에서는 금융시계열자료의 평균 및 변동성을 추정하기 위하여 평균의 추정 방법으로는 가중최소제곱 서포트벡터기계, 변동성의 추정 방법으로는 최소제곱 서포트벡터기계를 사용하는 비선형 평균 일반화 이분산 자기회귀모형을 제안한다. 제안된 모형은 선형 일반화 이분산 자기회귀모형 및 선형 평균 일반화 이분산 자기회귀모형보다 더 나은 추정 능력을 가진다는 것을 실제자료의 추정을 통하여 보였다. Least squares support vector machine (LS-SVM) is a kernel trick gaining a lot of popularities in the regression and classification problems. We use LS-SVM to propose a iterative algorithm for a nonlinear generalized autoregressive conditional heteroscedasticity model in the mean (GARCH-M) model to estimate the mean and the conditional volatility of stock market returns. The proposed method combines a weighted LS-SVM for the mean and unweighted LS-SVM for the conditional volatility. In this paper, we show that nonlinear GARCH-M models have a higher performance than the linear GARCH model and the linear GARCH-M model via real data estimations.

      • KCI등재

        서포트벡터기계를 이용한 VaR 모형의 결합

        김용태,심주용,이장택,황창하,Kim, Yong-Tae,Shim, Joo-Yong,Lee, Jang-Taek,Hwang, Chang-Ha 한국통계학회 2009 Communications for statistical applications and me Vol.16 No.5

        VaR(Value-at-Risk)는 시장위험을 측정하기 위한 중요한 도구로 사용되고 있다. 그러나 적절한 VaR 모형의 선택에는 논란의 여지가 많다. 본 논문에서는 특정 모형을 선택하여 VaR 예측값을 구하는 대신 대표적으로 많이 사용되는 두개의 VaR 모형인 역사적 모의실험과 GARCH 모형의 예측값들을 서포트벡터기계 분위수 회귀모형을 이용하여 결합하는 방법을 제안한다. Value-at-Risk(VaR) has been used as an important tool to measure the market risk. However, the selection of the VaR models is controversial. This paper proposes VaR forecast combinations using support vector machine quantile regression instead of selecting a single model out of historical simulation and GARCH.

      • KCI등재

        가중 최소제곱 서포트벡터기계의 혼합모형을 이용한 수익률 기간구조 추정

        노성균,심주용,황창하,Nau, Sung-Kyun,Shim, Joo-Yong,Hwang, Chang-Ha 한국통계학회 2008 응용통계연구 Vol.21 No.1

        Since the term structure of interest rates (TSIR) has longitudinal data, we should consider as input variables both time left to maturity and time simultaneously to get a more useful and more efficient function estimation. However, since the resulting data set becomes very large, we need to develop a fast and reliable estimation method for large data set. Furthermore, it tends to overestimate TSIR because data are correlated. To solve these problems we propose a mixture of weighted least squares support vector machines. We recognize that the estimate is well smoothed and well explains effects of the third stock market crash in USA through applying the proposed method to the US Treasury bonds data. 수익률 기간구조(term structure of interest rates, 이하 수익률곡선)는 자료의 성격이 경시적(longitudinal)이므로 만기까지 기간과 시간을 동시에 입력변수로 고려해야만 유용하고 효율적인 함수추정이 가능하다. 고러나 이러한 방법은 다루어야 하는 자료가 대용량이기 때문에 대용량 자료에 적합하고 실행속도가 빠른 추정기법을 개발하는 것이 필요하다. 한편 자료에 내재하는 자기상관성 구조 때문에 과대 적합된 추정 결과를 얻기 쉽다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해서 가중 LS-SVM(least squares support vector machine, 최소제곱 서포트벡터기계)의 혼합모형을 제안한다. 미국 재무부 채권에 대한 사례연구를 통해서 추정 결과가 증권시장 붕괴 같은 이례적 사건의 현상을 잘 반영하고 있음을 확인할 수 있었다.

      • KCI등재

        First Principle을 결합한 최소제곱 Support Vector Machine의 예측 능력

        김병주(Byung-Joo Kim),심주용(Joo-Yong Shim),황창하(Chang-Ha Hwang),김일곤(Il-Kon Kim) 한국정보과학회 2003 정보과학회논문지 : 소프트웨어 및 응용 Vol.30 No.7·8

        본 논문에서는 최근 뛰어난 예측력으로 각광받는 최소제곱 Support Vector Machine(Least Square Support Vector Machine:LS-SVM)과 First Principle(FP)을 결합한 하이브리드 최소제곱 Support Vector Machine 모델, HLS-SVM(Hybrid Least Square-Super Vector Machine)을 제안한다. 제안한 모델인 하이브리드 최소제곱 Support Vector Machine을 기존의 방법인 하이브리드 신경망(Hybrid Neural Network:HNN), 비선형 칼만필터와 하이브리드 신경망을 결합한 HNN-EKF (Hybrid Neural Network with Extended Kalman Filter) 모델과 비교해 보았다. HLS-SVM 모델은 학습 및 validation 과정에서는 HNN-EKF와 근사한 성능을 보였고, HNN 보다는 우수한 결과를 보였고, 일반화 성능에서는 HNN-EKF에 비해 3배, HNN보다 100배정도 우수한 결과를 보였다. A hybrid least square Support Vector Machine combined with First Principle(FP) knowledge is proposed. We compare hybrid least square Support Vector Machine(HLS-SVM) with early proposed models such as Hybrid Neural Network(HNN) and HNN with Extended Kalman Filter(HNN-EKF). In the training and validation stage HLS-SVM shows similar performance with HNN-EKF but better than HNN, whereas, in the testing stage, it shows three times better than HNN-EKF, hundred times better than HNN model.

      • KCI등재

        비선형 특징 추출을 위한 온라인 비선형 주성분분석 기법

        김병주(Byung-Joo Kim),심주용(Joo-Yong Shim),황창하(Chang-Ha Hwang),김일곤(Il-Kon Kim) 한국정보과학회 2004 정보과학회논문지 : 소프트웨어 및 응용 Vol.31 No.3

        본 논문에서는 온라인 학습 자료의 비선형 특징(feature) 추출을 위한 새로운 온라인 비선형 주성분분석(OL-NPCA : On-line Nonlinear Principal Component Analysis) 기법을 제안한다. 비선형 특징 추출을 위한 대표적인 방법으로 커널 주성분방법(Kernel PCA)이 사용되고 있는데 기존의 커널 주성분 분석 방법은 다음과 같은 단점이 있다. 첫째 커널 주성분 분석 방법을 N 개의 학습 자료에 적용할 때 N×N 크기의 커널 행렬의 저장 및 고유벡터를 계산 하여야 하는데, N의 크기가 큰 경우에는 수행에 문제가 된다. 두 번째 문제는 새로운 학습 자료의 추가에 의한 고유공간을 새로 계산해야 하는 단점이 있다. OL-NPCA는 이러한 문제점들을 점진적인 고유공간 갱신 기법과 특징 사상 함수에 의해 해결하였다. Toy 데이타와 대용량 데이타에 대한 실험을 통해 OL-NPCA는 다음과 같은 장점을 나타낸다. 첫째 메모리 요구량에 있어 기존의 커널 주성분분석 방법에 비해 상당히 효율적이다. 두 번째 수행 성능에 있어 커널 주성분 분석과 유사한 성능을 나타내었다. 또한 제안된 OL-NPCA 방법은 재학습에 의해 쉽게 성능이 향상 되는 장점을 가지고 있다. The purpose of this study is to propose a new on-line nonlinear PCA(OL-NPCA) method for a nonlinear feature extraction from the incremental data. Kernel PCA(KPCA) is widely used for nonlinear feature extraction, however, it has been pointed out that KPCA has the following problems. First, applying KPCA to N patterns requires storing and finding the eigenvectors of a N× N kernel matrix, which is infeasible for a large number of data N. Second problem is that in order to update the eigenvectors with an another data, the whole eigenspace should be recomputed. OL-NPCA overcomes these problems by incremental eigenspace update method with a feature mapping function. According to the experimental results, which comes from applying OL-NPCA to a toy and a large data problem, OL-NPCA shows following advantages. First, OL-NPCA is more efficient in memory requirement than KPCA. Second advantage is that OL-NPCA is comparable in performance to KPCA. Furthermore, performance of OL-NPCA can be easily improved by re-learning the data.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼