RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
        • 작성언어

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        계층적 구조를 가진 퍼지 패턴 분류기 설계

        안태천(Tae-Chon Ahn),노석범(Seok-Beom Roh),김용수(Yong Soo Kim) 한국지능시스템학회 2014 한국지능시스템학회논문지 Vol.24 No.4

        본 논문은 단순한 후반부 구조를 가진 퍼지 모델을 계층적 구조로 결합한 퍼지 패턴 분류기를 제안한다. 계층적 구조를 가진 퍼지 패턴 분류기의 기본 구조는 단순한 후반부 구조를 가진 퍼지 모델을 사용하여 전체 패턴 분류기의 구조적 복잡성을 높이지 않도록 설계 하였다. 입력공간을 계층적으로 분할하기 위하여 대표적인 퍼지 클러스터링 알고리즘인 Fuzzy C-Means clustering 기법을 이용하였다. 분할된 퍼지 입력 공간의 하위 구조를 분석하기 위하여 conditional Fuzzy C-Means 클러스터링 기법을 이용하였다. 계층적으로 분할된 퍼지 입력공간에 간단한 구조를 가진 퍼지 패턴 분류기를 적용하여 계층적 구조를 가진 패턴 분류기를 설계한다. 계층적으로 퍼지 모델들을 결합함으로써 입력 공간의 정보 분석을 거시적인 관점에서 시작하여 세부적으로 분석이 가능하게 되었다. 제안된 퍼지 패턴 분류기의 성능을 평가하기 위하여 다양한 기계 학습 데이터를 사용하였다. In this paper, we proposed the new fuzzy pattern classifier which combines several fuzzy models with simple consequent parts hierarchically. The basic component of the proposed fuzzy pattern classifier with hierarchical structure is a fuzzy model with simple consequent part so that the complexity of the proposed fuzzy pattern classifier is not high. In order to analyze and divide the input space, we use Fuzzy C-Means clustering algorithm. In addition, we exploit Conditional Fuzzy C-Means clustering algorithm to analyze the sub space which is divided by Fuzzy C-Means clustering algorithm. At each clustered region, we apply a fuzzy model with simple consequent part and build the fuzzy pattern classifier with hierarchical structure. Because of the hierarchical structure of the proposed pattern classifier, the data distribution of the input space can be analyzed in the macroscopic point of view and the microscopic point of view. Finally, in order to evaluate the classification ability of the proposed pattern classifier, the machine learning data sets are used.

      • KCI등재

        A Study on Urban Land Cover Classification Using Object-based Image Analysis (OBIA) Techniques

        Kim, Yun-Ki(김윤기) 한국지적정보학회 2020 한국지적정보학회지 Vol.22 No.1

        본 연구의 주된 목적은 토지피복을 분류하는 데 있어서 성능이 가장 우수한 기계 학습 알고리즘이 무엇인지를 확인하는 것이다. 이러한 목적을 달성하기 위해 본 연구는 청주시 오송읍 일부지역을 연구지역으로 선정한 다음 그 지역에 대한 UAV영상을 취득하였다. 또한 본 연구는 UAV 영상에 대한 사전처리과정을 거친 다음 이에 대해 OBIA분석을 실시하였다. 분석의 결과 SVM분류기가 토지피복을 분류하는데 있어서 성능이 가장 우수한 것으로 확인되었다. 그러나 개별 토지피복 유형을 분류하는데 있어서 최적알고리즘은 토지피복유형에 따라 큰 차이를 보였다. 예를 들면, KNN 분류기는 인공시설물과 도로를 분류하는데 있어 SVM분류기보다 더 우수하였다. 본 연구는 토지피복유형을 분류하는데 있어서 OBIA와 여러 가지 분류기들을 동시에 이용했다는 점에서 이 분야의 연구에 기여할 수 있다. 이러한 장점에도 불구하고 본 연구는 제한된 범위의 토지피복유형과 분류기들만을 사용했다는 점에서 한계를 지니고 있다. 따라서 향후 연구에서는 토지피복유형을 보다 정확하게 분류하기 위해 보다 많은 숫자의 토지피복유형들과 분류기들을 사용해야만할 것이다. The primary purpose of this study is to identify which machine learning algorithm has the best performance in classifying land cover. To achieve this goal, this researcher selected some parts of Oseung-Eup in Cheongju City as the research area and then acquired UAV images of the area. After the preprocessing of UAV images, this research performed OBIA analysis on them. The analysis results show that the SVM classifier is the best at classifying land cover. However, the optimal algorithm for classifying individual land cover types differs significantly depending on the land cover type. For example, the KNN classifier is superior to the SVM classifier in classifying human-made facilities and roads. This study can contribute to the research in this field in that it simultaneously used OBIA and various algorithms in classifying land cover types. Despite these advantages, this research is limited in that it uses only a limited range of land cover types and classifiers. Therefore, future studies will have to use a larger number of land cover types and classifiers to more accurately classify land cover types.

      • KCI등재

        목차 정보와 kNN 분류기를 이용한 사회과학 분야 도서 자동 분류에 관한 연구

        이용구 한국정보관리학회 2020 정보관리학회지 Vol.37 No.1

        This study applied automatic classification using table of contents (TOC) text for 6,253 social science books from a newly arrived list collected by a university library. The k-nearest neighbors (kNN) algorithm was used as a classifier, and the ten divisions on the second level of the DDC’s main class 300 given to books by the library were used as classes (labels). The features used in this study were keywords extracted from titles and TOCs of the books. The TOCs were obtained through the OpenAPI from an Internet bookstore. As a result, it was found that the TOC features were good for improving both classification recall and precision. The TOC was shown to reduce the overfitting problem of imbalanced data with its rich features. Law and education have high topic specificity in the field of social sciences, so the only title features can bring good classification performance in these fields. 이 연구에서는 한 대학도서관의 신착 도서 리스트 중 사회 과학 분야 6,253권에 대해 목차 정보를 이용하여 자동 분류를 적용하였다. 분류기는 kNN 알고리즘을 사용하였으며 자동 분류의 범주로 도서관에서 도서에 부여한 DDC 300대 강목을 사용하였다. 분류 자질은 도서의 서명과 목차를 사용하였으며, 목차는 인터넷 서점으로부터 Open API를 통해 획득하였다. 자동 분류 실험 결과, 목차 자질은 분류 재현율과 분류 정확률 모두를 향상시키는 좋은 자질임을 알 수 있었다. 또한 목차는 풍부한 자질로 불균형인 데이터의 과적합 문제를 완화시키는 것으로 나타났다. 법학과 교육학은 사회 과학 분야에서 특정성이 높아 서명 자질만으로도 좋은 분류 성능을 가져오는 점도 파악할 수 있었다.

      • KCI등재

        자질 선정 기준과 가중치 할당 방식간의 관계를 고려한 문서 자동분류의 개선에 대한 연구

        이재윤,Lee Jae-Yun 한국문헌정보학회 2005 한국문헌정보학회지 Vol.39 No.2

        이 연구에서는 문서 자동분류에서 분류자질 선정과 가중치 할당을 위해서 일관된 전략을 채택하여 kNN 분류기의 성능을 향상시킬 수 있는 방안을 모색하였다. 문서 자동 분류에서 분류자질 선정 방식과 자질 가중치 할당 방식은 자동분류 알고리즘과 함께 분류성능을 좌우하는 중요한 요소이다. 기존 연구에서는 이 두 방식을 결정할 때 상반된 전략을 사용해왔다. 이 연구에서는 색인파일 저장공간과 실행시간에 따른 분류성능을 기준으로 분류자질 선정 결과를 평가해서 기존 연구와 다른 결과를 얻었다. 상호정보량과 같은 저빈도 자질 선호 기준이나 심지어는 역문헌빈도를 이용해서 분류 자질을 선정하는 것이 kNN 분류기의 분류 효과와 효율 면에서 바람직한 것으로 나타났다. 자질 선정기준으로 저빈도 자질 선호 척도를 자질 선정 및 자질 가중치 할당에 일관되게 이용한 결과 분류성능의 저하 없이 kNN 분류기의 처리 속도를 약 3배에서 5배정도 향상시킬 수 있었다. This study aims to find consistent strategies for feature selection and feature weighting methods, which can improve the effectiveness and efficiency of kNN text classifier. Feature selection criteria and feature weighting methods are as important factor as classification algorithms to achieve good performance of text categorization systems. Most of the former studies chose conflicting strategies for feature selection criteria and weighting methods. In this study, the performance of several feature selection criteria are measured considering the storage space for inverted index records and the classification time. The classification experiments in this study are conducted to examine the performance of IDF as feature selection criteria and the performance of conventional feature selection criteria, e.g. mutual information, as feature weighting methods. The results of these experiments suggest that using those measures which prefer low-frequency features as feature selection criterion and also as feature weighting method. we can increase the classification speed up to three or five times without loosing classification accuracy.

      • KCI등재

        문헌빈도와 장서빈도를 이용한 kNN 분류기의 자질선정에 관한 연구

        이용구,Lee, Yong-Gu 한국도서관정보학회 2013 한국도서관정보학회지 Vol.44 No.1

        이 연구에서는 자동 색인을 통해 쉽게 얻을 수 있는 자질의 문헌빈도와 장서빈도를 이용하여 자동분류에서 자질 선정 기법을 kNN 분류기에 적용하였을 때, 어떠한 분류성능을 보이는지 알아보고자 하였다. 실험집단으로 한국일보-20000(HKIB-20000)의 일부를 이용하였다. 실험 결과 첫째, 장서빈도를 이용하여 고빈도 자질을 선정하고 저빈도 자질을 제거한 자질선정 방법이 문헌빈도보다 더 좋은 성능을 가져오는 것으로 나타났다. 둘째, 문헌빈도와 장서빈도 모두 저빈도 자질을 우선으로 선정하는 방법은 좋은 분류성능을 가져오지 못했다. 셋째, 장서빈도와 같은 단순빈도에서 자질 선정 구간을 조정하는 것이 문헌빈도와 장서빈도의 조합보다 더 좋은 성능을 가져오는 것으로 나타났다. This study investigated the classification performance of a kNN classifier using the feature selection methods based on document frequency(DF) and collection frequency(CF). The results of the experiments, which used HKIB-20000 data, were as follows. First, the feature selection methods that used high-frequency terms and removed low-frequency terms by the CF criterion achieved better classification performance than those using the DF criterion. Second, neither DF nor CF methods performed well when low-frequency terms were selected first in the feature selection process. Last, combining CF and DF criteria did not result in better classification performance than using the single feature selection criterion of DF or CF.

      • KCI등재

        단어 중의성 해소를 위한 지도학습 방법의 통계적 자질선정에 관한 연구

        이용구,Lee, Yong-Gu 한국비블리아학회 2011 한국비블리아학회지 Vol.22 No.2

        이 연구는 지도학습 방법을 이용한 단어 중의성 해소가 최적의 성능을 가져오는 통계적 자질선정 방법과 다양한 문맥의 크기를 파악하고자 하였다. 실험집단인 한글 신문기사에 자질선정 기준으로 정보획득량, 카이제곱 통계량, 문헌빈도, 적합성 함수 등을 적용하였다. 실험 결과, 텍스트 범주화 기법과 같이 단어 중의성 해소에서도 자질선정 방법이 매우 유용한 수단이 됨을 알 수 있었다. 실험에 적용한 자질선중 기준 중에 정보획득량이 가장 좋은 성능을 보였다. SVM 분류기는 자질집합 크기와 문맥 크기가 클수록 더 좋은 성능을 보여 자질선정에 영향을 받지 않았다. 나이브 베이즈 분류기는 10% 정도의 자질집합 크기에서 가장 좋은 성능을 보였다. kNN의 경우 10% 이하의 자질에서 가장 좋은 성능을 보였다. 단어 중의성 해소를 위한 자질선정을 적용할 때 작은 자질집합 크기와 큰 문맥 크기를 조합하거나, 반대로 큰 자질집합 크기와 작은 문맥 크기를 조합하면 성능을 극대화 할 수 있다. This study aims to identify the most effective statistical feature selecting method and context window size for word sense disambiguation using supervised methods. In this study, features were selected by four different methods: information gain, document frequency, chi-square, and relevancy. The result of weight comparison showed that identifying the most appropriate features could improve word sense disambiguation performance. Information gain was the highest. SVM classifier was not affected by feature selection and showed better performance in a larger feature set and context size. Naive Bayes classifier was the best performance on 10 percent of feature set size. kNN classifier on under 10 percent of feature set size. When feature selection methods are applied to word sense disambiguation, combinations of a small set of features and larger context window size, or a large set of features and small context windows size can make best performance improvements.

      • KCI등재

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼