일반적으로 SVM (support vector machine)은 높은 수준의 분류 정확도와 유연성을 바탕으로 다양한 분야의 분류분석에서 널리 사용되고 있다. 그러나 SVM은 최적화 계산식이 이차계획법(quadratic program...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A107599356
2021
Korean
KCI우수등재
학술저널
463-473(11쪽)
2
0
상세조회0
다운로드국문 초록 (Abstract)
일반적으로 SVM (support vector machine)은 높은 수준의 분류 정확도와 유연성을 바탕으로 다양한 분야의 분류분석에서 널리 사용되고 있다. 그러나 SVM은 최적화 계산식이 이차계획법(quadratic program...
일반적으로 SVM (support vector machine)은 높은 수준의 분류 정확도와 유연성을 바탕으로 다양한 분야의 분류분석에서 널리 사용되고 있다. 그러나 SVM은 최적화 계산식이 이차계획법(quadratic programming)으로 공식화되어 많은 계산 비용을 필요로 한다. 따라서 컴퓨터 메모리 능력의 제한으로 SVM을 활용한 대용량 자료의 분류분석은 불가능하다. 이러한 문제점을 해결하기 위하여 본 논문에서는 분할정복 (divide and conquer) 알고리즘을 활용한 SVM(DC-SVM) 분류기법을 제안한다. DC-SVM은 먼저 전체 훈련자료를 몇 개의 부분집합으로 무작위로 분할 (divide)한 후, 각각의 부분집합에 대하여 SVM 분류함수를 추정하고, 이들의 결과를 통합 (conquer)하여 최종적인 분류함수를 추정하는 기법이다. 본 논문에서는 모의실험과 실제자료 분석을 통해 제안한 DC-SVM의 효율적인 성능과 활용 가능성을 확인하였다.
다국어 초록 (Multilingual Abstract)
The support vector machine (SVM) has been successfully applied to various classification areas with great flexibility and a high level of classification accuracy. However, it is infeasible to use the SVM in analyzing massive data because of its signif...
The support vector machine (SVM) has been successfully applied to various classification areas with great flexibility and a high level of classification accuracy. However, it is infeasible to use the SVM in analyzing massive data because of its significant computational problems such as the limitation of computer primary memory. To overcome such a problem, we propose a divide and conquer based SVM (DC-SVM) method. The proposed DC-SVM divides the entire training data into a few subsets, and applies the SVM onto each subset to estimate its classifier. And then DC-SVM obtains the final classifier by aggregating all classifiers from subsets. Simulation studies are presented to demonstrate satisfactory performance of the proposed method.
목차 (Table of Contents)
참고문헌 (Reference)
1 방성완, "대용량 자료의 분석을 위한 분할정복 커널 분위수 회귀모형" 한국통계학회 33 (33): 569-578, 2020
2 강종경, "대용량 자료의 분석을 위한 분할정복 랜덤스케치 커널 능형회귀" 한국데이터정보과학회 31 (31): 15-23, 2020
3 Dua, D., "UCI machine learning repository" University of California, School of Information and Computer Science 2019
4 Cortes, C., "Support vector networks" 20 : 273-297, 1995
5 Vapnik, V. N, "Statistical learning theory" Wiley 1998
6 Fan, T., "Regression analysis for massive datasets" 61 : 554-562, 2007
7 Chen, X., "Quantile regression under memory constraint" 47 : 3244-3273, 2019
8 Chen, L., "Quantile regression in big dagta : A divide and conquer based strategy" 144 : 1-17, 2020
9 Meyer, D., "Package ‘e1071’" 2019
10 Lian, H., "Divide-and-conquer for debiased l1-norm support vector machine in ultra-high dimensions" 18 : 1-26, 2018
1 방성완, "대용량 자료의 분석을 위한 분할정복 커널 분위수 회귀모형" 한국통계학회 33 (33): 569-578, 2020
2 강종경, "대용량 자료의 분석을 위한 분할정복 랜덤스케치 커널 능형회귀" 한국데이터정보과학회 31 (31): 15-23, 2020
3 Dua, D., "UCI machine learning repository" University of California, School of Information and Computer Science 2019
4 Cortes, C., "Support vector networks" 20 : 273-297, 1995
5 Vapnik, V. N, "Statistical learning theory" Wiley 1998
6 Fan, T., "Regression analysis for massive datasets" 61 : 554-562, 2007
7 Chen, X., "Quantile regression under memory constraint" 47 : 3244-3273, 2019
8 Chen, L., "Quantile regression in big dagta : A divide and conquer based strategy" 144 : 1-17, 2020
9 Meyer, D., "Package ‘e1071’" 2019
10 Lian, H., "Divide-and-conquer for debiased l1-norm support vector machine in ultra-high dimensions" 18 : 1-26, 2018
11 Zhang, Y., "Divide and conquer kernel ridge regression : A distributed algorithm with minimax optimal rates" 16 : 3299-3340, 2015
12 Jiang, R., "Composite quantile regression for massive datasets" 52 : 980-1004, 2018
13 Xu, Q., "Block average quantile regression for massive dataset" 61 : 141-165, 2020
14 Brieman, L., "Bagging predictors" 26 : 123-140, 1996
15 Cristianini, N., "An introduction to support vector machines" Cambridge University Press 2000
16 Chen, X., "A split-and-conquer approach for analysis of extraordinarily large data" 24 : 1655-1684, 2014
17 Hsieh, C., "A divide and conquer solver for kernel support vector machines" 2014
통계적 학습을 이용한 다시점 기업부도 예측모형들의 비교
노인 차별 태도의 영향요인에 대한 세대 간 비교: 간호대학생과 그 어머니를 대상으로
음이항회귀모형을 이용한 추나요법의 급여전환 전후 한의의료이용의 변화에 관한 연구
학술지 이력
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2022 | 평가예정 | 계속평가 신청대상 (등재유지) | |
2017-01-01 | 평가 | 우수등재학술지 선정 (계속평가) | |
2013-01-01 | 평가 | 등재학술지 유지 (등재유지) | ![]() |
2010-01-01 | 평가 | 등재학술지 유지 (등재유지) | ![]() |
2008-01-01 | 평가 | 등재학술지 유지 (등재유지) | ![]() |
2005-01-01 | 평가 | 등재학술지 선정 (등재후보2차) | ![]() |
2004-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | ![]() |
2003-01-01 | 평가 | 등재후보학술지 유지 (등재후보2차) | ![]() |
2002-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | ![]() |
2001-01-01 | 평가 | 등재후보학술지 선정 (신규평가) | ![]() |
학술지 인용정보
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 1.18 | 1.18 | 1.07 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
1.01 | 0.91 | 0.911 | 0.35 |