RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI우수등재

      대용량 자료의 분류분석을 위한 분할정복 서포터 벡터 머신

      한글로보기

      https://www.riss.kr/link?id=A107599356

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      일반적으로 SVM (support vector machine)은 높은 수준의 분류 정확도와 유연성을 바탕으로 다양한 분야의 분류분석에서 널리 사용되고 있다. 그러나 SVM은 최적화 계산식이 이차계획법(quadratic programming)으로 공식화되어 많은 계산 비용을 필요로 한다. 따라서 컴퓨터 메모리 능력의 제한으로 SVM을 활용한 대용량 자료의 분류분석은 불가능하다. 이러한 문제점을 해결하기 위하여 본 논문에서는 분할정복 (divide and conquer) 알고리즘을 활용한 SVM(DC-SVM) 분류기법을 제안한다. DC-SVM은 먼저 전체 훈련자료를 몇 개의 부분집합으로 무작위로 분할 (divide)한 후, 각각의 부분집합에 대하여 SVM 분류함수를 추정하고, 이들의 결과를 통합 (conquer)하여 최종적인 분류함수를 추정하는 기법이다. 본 논문에서는 모의실험과 실제자료 분석을 통해 제안한 DC-SVM의 효율적인 성능과 활용 가능성을 확인하였다.
      번역하기

      일반적으로 SVM (support vector machine)은 높은 수준의 분류 정확도와 유연성을 바탕으로 다양한 분야의 분류분석에서 널리 사용되고 있다. 그러나 SVM은 최적화 계산식이 이차계획법(quadratic program...

      일반적으로 SVM (support vector machine)은 높은 수준의 분류 정확도와 유연성을 바탕으로 다양한 분야의 분류분석에서 널리 사용되고 있다. 그러나 SVM은 최적화 계산식이 이차계획법(quadratic programming)으로 공식화되어 많은 계산 비용을 필요로 한다. 따라서 컴퓨터 메모리 능력의 제한으로 SVM을 활용한 대용량 자료의 분류분석은 불가능하다. 이러한 문제점을 해결하기 위하여 본 논문에서는 분할정복 (divide and conquer) 알고리즘을 활용한 SVM(DC-SVM) 분류기법을 제안한다. DC-SVM은 먼저 전체 훈련자료를 몇 개의 부분집합으로 무작위로 분할 (divide)한 후, 각각의 부분집합에 대하여 SVM 분류함수를 추정하고, 이들의 결과를 통합 (conquer)하여 최종적인 분류함수를 추정하는 기법이다. 본 논문에서는 모의실험과 실제자료 분석을 통해 제안한 DC-SVM의 효율적인 성능과 활용 가능성을 확인하였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      The support vector machine (SVM) has been successfully applied to various classification areas with great flexibility and a high level of classification accuracy. However, it is infeasible to use the SVM in analyzing massive data because of its significant computational problems such as the limitation of computer primary memory. To overcome such a problem, we propose a divide and conquer based SVM (DC-SVM) method. The proposed DC-SVM divides the entire training data into a few subsets, and applies the SVM onto each subset to estimate its classifier. And then DC-SVM obtains the final classifier by aggregating all classifiers from subsets. Simulation studies are presented to demonstrate satisfactory performance of the proposed method.
      번역하기

      The support vector machine (SVM) has been successfully applied to various classification areas with great flexibility and a high level of classification accuracy. However, it is infeasible to use the SVM in analyzing massive data because of its signif...

      The support vector machine (SVM) has been successfully applied to various classification areas with great flexibility and a high level of classification accuracy. However, it is infeasible to use the SVM in analyzing massive data because of its significant computational problems such as the limitation of computer primary memory. To overcome such a problem, we propose a divide and conquer based SVM (DC-SVM) method. The proposed DC-SVM divides the entire training data into a few subsets, and applies the SVM onto each subset to estimate its classifier. And then DC-SVM obtains the final classifier by aggregating all classifiers from subsets. Simulation studies are presented to demonstrate satisfactory performance of the proposed method.

      더보기

      목차 (Table of Contents)

      • 요약
      • 1. 머리말
      • 2. 분할정복 서포트 벡터 머신
      • 3. 모의실험
      • 4. 실제 자료분석
      • 요약
      • 1. 머리말
      • 2. 분할정복 서포트 벡터 머신
      • 3. 모의실험
      • 4. 실제 자료분석
      • 5. 결론
      • References
      • Abstract
      더보기

      참고문헌 (Reference)

      1 방성완, "대용량 자료의 분석을 위한 분할정복 커널 분위수 회귀모형" 한국통계학회 33 (33): 569-578, 2020

      2 강종경, "대용량 자료의 분석을 위한 분할정복 랜덤스케치 커널 능형회귀" 한국데이터정보과학회 31 (31): 15-23, 2020

      3 Dua, D., "UCI machine learning repository" University of California, School of Information and Computer Science 2019

      4 Cortes, C., "Support vector networks" 20 : 273-297, 1995

      5 Vapnik, V. N, "Statistical learning theory" Wiley 1998

      6 Fan, T., "Regression analysis for massive datasets" 61 : 554-562, 2007

      7 Chen, X., "Quantile regression under memory constraint" 47 : 3244-3273, 2019

      8 Chen, L., "Quantile regression in big dagta : A divide and conquer based strategy" 144 : 1-17, 2020

      9 Meyer, D., "Package ‘e1071’" 2019

      10 Lian, H., "Divide-and-conquer for debiased l1-norm support vector machine in ultra-high dimensions" 18 : 1-26, 2018

      1 방성완, "대용량 자료의 분석을 위한 분할정복 커널 분위수 회귀모형" 한국통계학회 33 (33): 569-578, 2020

      2 강종경, "대용량 자료의 분석을 위한 분할정복 랜덤스케치 커널 능형회귀" 한국데이터정보과학회 31 (31): 15-23, 2020

      3 Dua, D., "UCI machine learning repository" University of California, School of Information and Computer Science 2019

      4 Cortes, C., "Support vector networks" 20 : 273-297, 1995

      5 Vapnik, V. N, "Statistical learning theory" Wiley 1998

      6 Fan, T., "Regression analysis for massive datasets" 61 : 554-562, 2007

      7 Chen, X., "Quantile regression under memory constraint" 47 : 3244-3273, 2019

      8 Chen, L., "Quantile regression in big dagta : A divide and conquer based strategy" 144 : 1-17, 2020

      9 Meyer, D., "Package ‘e1071’" 2019

      10 Lian, H., "Divide-and-conquer for debiased l1-norm support vector machine in ultra-high dimensions" 18 : 1-26, 2018

      11 Zhang, Y., "Divide and conquer kernel ridge regression : A distributed algorithm with minimax optimal rates" 16 : 3299-3340, 2015

      12 Jiang, R., "Composite quantile regression for massive datasets" 52 : 980-1004, 2018

      13 Xu, Q., "Block average quantile regression for massive dataset" 61 : 141-165, 2020

      14 Brieman, L., "Bagging predictors" 26 : 123-140, 1996

      15 Cristianini, N., "An introduction to support vector machines" Cambridge University Press 2000

      16 Chen, X., "A split-and-conquer approach for analysis of extraordinarily large data" 24 : 1655-1684, 2014

      17 Hsieh, C., "A divide and conquer solver for kernel support vector machines" 2014

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2022 평가예정 계속평가 신청대상 (등재유지)
      2017-01-01 평가 우수등재학술지 선정 (계속평가)
      2013-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2010-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2005-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      2004-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2003-01-01 평가 등재후보학술지 유지 (등재후보2차) KCI등재후보
      2002-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2001-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 1.18 1.18 1.07
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      1.01 0.91 0.911 0.35
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼