http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
특허 문서 검색 결과를 이용한 KNN 기반의 특허 분류 시스템
이재안(Jaean Lee),서형국(Hyung-Kook Seo),한규열(Kyouyeol Han) 한국정보과학회 2011 한국정보과학회 학술발표논문집 Vol.38 No.2A
특허 분류 시스템이란 특정 분류 체계에 따라 임의의 특허 문헌이 어느 분류에 속할 수 있는지에 대한 정보를 제공하는 시스템이다. 특허 분류 시스템의 요구는 특허 문헌의 증가와 비례하여 증가하고 있다. 기계 학습을 이용한 특허 분류의 경우 학습 집합이 방대하여 자질 추출과 모델 생성에 어려움이 있으며 분류 체계가 복잡하여 만족할 만한 정확도를 얻기 어렵다. 본 논문은 검색기를 이용하여 자질 추출과 모델 생성 과정을 피하고 그 결과로 제시되는 각 특허 문헌와 분류 대상 특허 문헌과의 유사도를 계산하여 분류 대상 특허 문헌의 분류를 결정짓는 시스템을 제시한다. 분류 체계의 복잡성과 유사도 알고리즘 차이에 따라 실험을 통해 본 논문에서 제시하는 시스템의 유용성을 보인다.
사과 ‘썸머킹’의 휴면아 생장점 배양을 이용한 Apple Stem Grooving Virus와 Apple Stem Pitting Virus제거 효율 분석
천재안(Jaean Chun),이선기(Sun Gi Lee),김아영(Ayoung Kim),권지영(Jiyeong Gwin),손한별(Hanbyeol Son),김영문(Yeongmun Kim),박연순(Younsoon Park) 한국원예학회 2021 한국원예학회 학술발표요지 Vol.2021 No.10
국내 사과 농가에 피해를 주는 사과 바이러스는 Apple chlorotic leaf spot virus(ACLSV), Apple stem pitting virus (ASPV), Apple stem grooving virus (ASGV), Apple mosaic virus(ApMV) 4종과 Apple scar skin viroid (ASSVd)바이로이드 1종 이며, 특히 Apple stem grooving virus (ASGV), Apple stem pitting virus (ASPV)는 국내 사과 농가에 가장 많이 감염되어 있다. 본 연구는 ASGV, ASPV에 복합 감염된 사과 ‘썸머킹’의 일년생 가지 측아 생장점 배양을 이용한 ASGV, ASPV 제거 효율을 조사하였다. 생장점 절취 크기에 따른 바이러스 제거률을 조사하기 위해 생장점 절취 크기를 0.3~0.5, 0.8~1.0, 1.3~1.5 mm 크기로 나누어 기본 MS 배지에 TDZ 1mg/L가 첨가된 배지에 치상하여 배양하였다. 생장점 배양체 생존률은 3개의 모든 처리구에서 86% 이상의 생존률을 보였으며, 특히 0.8~1.0 mm 절취 크기 처리구는 96%였다. 신초 분화률은 1.3~1.5 mm 절취 크기에서 가장 높았으며, 0.3~0.5, 0.8~1.0mm 처리구는 유사한 분화율을 보여주었다. RT-PCR 분석을 통해 ASGV, ASPV 바이러스 제거률을 조사한 결과, ASGV는 모든 처리구에서 제거되지 않았으며, 이러한 결과는 생장점내에 ASGV가 감염된 것으로 여겨진다. ASPV는 모든 처리구에서 86%이상의 높은 제거률을 나타내었으나 상대적으로 1.3~1.5 mm 처리구에서는 다른 처리구에 비해 제거률이 낮았다. 따라서 ASGV는 생장점 배양만으로는 제거가 되지 않으며 열처리 또는 항바이러스제 복합 처리가 필요한 것으로 보여진다. ASPV는 0.8~1.0 mm크기의 생장점 배양만으로 효과적으로 제거가 되는 것으로 나타났다.
손기준(Kijun Son),이재안(Jaean Lee),이상조(Sangjo Lee) 한국정보과학회 2007 한국정보과학회 학술발표논문집 Vol.34 No.1C
문서 여과 시스템은 사용자의 정보요구를 기준으로 문서들을 선별하여 제시한다. 사용자의 정보요구는 하나 이상의 단어들로 구성된 프로파일로 표현이 되며, 문서의 여과 과정 동안에 발생하는 사용자의 연관성 평가를 통해 구체적인 내용으로 변할 수 있다. 기존 연구의 경우 사용자는 자신이 직접 연관성 평가에 참여하여 평가 정보를 입력하고, 사용자가 평가한 긍정적 피드백 정보를 이용하여 사용자 프로파일을 학습한다. 본 연구는 사용자가 평가한 긍정적 연관성 피드백 뿐만 아니라 부정적 연관성 피드백을 함께 이용한 사용자 프로파일 학습 방법을 제안한다. 제안된 방법과, 대표적인 연관성 피드백 방법인 Rocchio 방법과의 성능을 측정하기 위해 네 가지 토픽에 대하여 여과를 수행하였다. 실험한 결과 부정적 연관성 피드백 정보를 이용하였을 경우 Rocchio 방법 보다는 6% 더 성능이 높은 것을 볼 수 있었다. 실험결과 부정적 평가를 받은 문서를 이용하여 사용자가 선호하지 않는 문서를 제거함으로써 여과 시스템의 성능을 향상 시킬 수 있었다.
정재안,이규환,정회경,Jeong, Jaean,Lee, Kyouhwan,Jung, Hoekyung 한국정보통신학회 2020 한국정보통신학회논문지 Vol.24 No.7
본 논문에서는 지자체의 요금 체납을 줄이기 위해 특정 지자체를 대상으로 검침원의 면담 등을 통해 지방상수도 통합정보시스템에서 체납에 영향을 미치는 내부 데이터 요소를 찾았다. 또한 국가 통계 데이터 중에서 체납에 영향을 미치는 후보 데이터를 도출하였다. 독립변수가 종속변수에 미치는 영향도는 정보이득이라는 데이터 집합에서 종속변수에 대한 무질서도를 조사하여 표본 데이터를 수집하였다. 그리고 빅 데이터 분석 알고리즘인 의사결정트리와 로지스틱 회귀기법 중 어느 알고리즘이 더 높은 예측율을 나타내는지 n-fold cross-validation 방법을 사용하여 평가하였다. 이를 통해 지자체의 데이터를 기초로 알고리즘의 성능을 비교한 결과 의사결정트리가 로지스틱회귀보다 더 정확한 수용가 납부 패턴을 찾을 수 있음을 확인하였다. 머신러닝을 이용한 분석 알고리즘 모델 개발의 과정에서는 알고리즘의 정확성 향상을 위해 의사결정트리의 복잡성과 정확성에 직접적인 영향을 주는 최소 데이터 개수와 최대 순도라는 두 개의 환경변수의 최적값을 도출하였다. In this paper, to reduce the unpaid rate of local governments, the internal data elements affecting the arrears in Water-INFOS are searched through interviews with meter readers in certain local governments. Candidate data affecting arrears from national statistical data were derived. The influence of the independent variable on the dependent variable was sampled by examining the disorder of the dependent variable in the data set called information gain. We also evaluated the higher prediction rates of decision tree and logistic regression using n-fold cross-validation. The results confirmed that the decision tree can find more accurate customer payment patterns than logistic regression. In the process of developing an analysis algorithm model using machine learning, the optimal values of two environmental variables, the minimum number of data and the maximum purity, which directly affect the complexity and accuracy of the decision tree, are derived to improve the accuracy of the algorithm.
김문종(Moonjong Kim),이재안(Jaean Lee),한규열(Kyouyeol Han),안영민(Youngmin Ahn) 한국정보과학회 2016 정보과학회 컴퓨팅의 실제 논문지 Vol.22 No.1
VOC(Voice of Customer)는 기업의 제품 또는 서비스에 대한 고객의 의견이나 요구를 파악할 수 있는 중요한 데이터이다. 그러나 VOC 데이터는 대화체의 특징으로 인해 내용의 분절이나 중복이 다수 존재할 뿐 아니라 다양한 내용의 대화가 포함되어 유형을 파악하는데 어려움이 있다. 본 논문에서는, 문서에서 중요한 의미를 갖는 키워드와 품사, 형태소 등을 언어 자원으로 선정하였고, 이를 바탕으로 문장의 구조 및 의미를 이해하기 위한 LSP(Lexico-Semantic-Pattern, 어휘 의미 패턴)를 정의하여 구문 의미 이해 기반의 주요 문장을 요약문으로 추출하였다. 요약문을 생성함에 있어 분절된 문장을 연결하고 중복된 의미를 갖는 문장을 줄이는 방법을 제안하였다. 또한 카테고리 별로 어휘 의미 패턴을 정의하고 어휘 의미 패턴에 매칭된 주요 문장이 속한 카테고리를 기반으로 문서를 분류하였다. 실험에서는 VOC 데이터를 대상으로 문서를 분류하고 요약문을 생성하여 기존의 방법들과 비교하였다. To attain an understanding of customers" opinions or demands regarding a companies’ products or service, it is important to consider VOC (Voice of Customer) data; however, it is difficult to understand contexts from VOC because segmented and duplicate sentences and a variety of dialog contexts. In this article, POS (part of speech) and morphemes were selected as language resources due to their semantic importance regarding documents, and based on these, we defined an LSP (Lexico- Semantic-Pattern) to understand the structure and semantics of the sentences and extracted summary by key sentences; furthermore the LSP was introduced to connect the segmented sentences and remove any contextual repetition. We also defined the LSP by categories and classified the documents based on those categories that comprise the main sentences matched by LSP. In the experiment, we classified the VOC-data documents for the creation of a summarization before comparing the result with the previous methodologies.