RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        효과적인 추천과 세분화를 위한 트랜잭션 기반 여러 형태 사용자 프로파일의 구축

        고재진,안형근,Koh, Jae-Jin,An, Hyoung-Keun 한국정보처리학회 2006 정보처리학회논문지D Vol.13 No.5

        쉽게 접할 수 있는 정보의 양이 증가하고 전자상거래가 발전함에 따라, 드넓은 정보공간을 축소하기 위하여 추천과 SDI 시스템과 같은 정보 필터링 시스템이 사용되어지게 되었으며, 이에 따라 사용자들은 그들의 요구와 취향에 가장 적합한 정보들을 바로 접근할 수 있게 되었다. 지금까지 다양한 정보 필터링 방법들이 추천시스템을 지원하기 위해 제안되었다. 최근에는 새로운 정보교환 표준으로 떠오르고 있는 XML 문서를 필터링 하는 시스템들에 있어서도 다른 접근 방법을 요구하고 있다. 따라서, 본 논문에서 제안하는 시스템은 XML이 가진 구조 정보를 이용하여 여러 형태의 사용자 프로파일을 생성하는 방법을 제안한다. 시스템은 구매와 같은 트랜잭션이 발생하기 전에 사용자 구매 패턴을 분석하기 위해서 필요한 프로파일을 운영자가 직접 정의하는 운영자 프로파일과 이를 적용한 사용자 프로파일의 두 부분으로 구성된다. 운영자 프로파일은 DTD로부터 선택된 항목을 이용하여 DTD를 따르는 문서내의 특정부분을 가리킬 수 있도록 만들어진다. 제안하는 시스템은 사용자의 구매 행위에 적응력을 가질 수 있도록 보다 정확한 사용자 프로파일을 구축하고, 이와 같은 사용자 프로파일을 기반으로 사용자에게 불필요한 검색과정 없이 필요한 상품 정보를 제공할 수 있도록 한다. With the development of e-Commerce and the proliferation of easily accessible information, information filtering systems such as recommender and SDI systems have become popular to prune large information spaces so that users are directed toward those items that best meet their needs and preferences. Until now, many information filtering methods have been proposed to support filtering systems. XML is emerging as a new standard for information. Recently, filtering systems need new approaches in dealing with XML documents. So, in this paper our system suggests a method to create multiform user profiles with XML's ability to represent structure. This system consists of two parts; one is an administrator profile definition part that an administrator defines to analyze users purchase pattern before a transaction such as purchase happens directly. an other is a user profile creation part module which is applied by the defined profile. Administrator profiles are made from DTD information and it is supposed to point the specific part of a document conforming to the DTD. Proposed system builds user's profile more accurately to get adaptability for user's behavior of buying and provide useful product information without inefficient searching based on such user's profile.

      • KCI등재

        공통 유사 서브스키마 추출을 통한 개념적 스키마 통합 : 다중 데이터베이스 시스템 적용사례

        고재진,이원조,Koh, Jae-jin,Lee, Won-Jo 한국정보처리학회 2004 정보처리학회논문지D Vol.11 No.4

        최근 글로벌 기업들은 조직들이 지역적으로 분산되어 있고, 분산된 조직들로 인하여 정보시스템들도 분산되어 있다. 이러한 정보시스템의 중심이 되는 데이터베이스도 분산되어 있어, 다양한 사용자 응용 프로그램을 위한 공통된 뷰(view)의 제공 및 효과적인 관리가 어렵다. 이것을 해결하기 위한 개념이 MDBS이고, 이것을 효과적으로 구축하기 위한 방안이 스키마 통합이다. 본 논문에서는 공통 유사 서브스키마 추출을 통한 스키마 통합 방법론을 제시한다. 본 방법론은 분석 대상 스키마에 대하여 친밀도 분석, 유사 서브스키마 추출, 통합순서 결정, 의리충돌 해결, 그리고 스키마 통합 순서로 구성되어 있다. 방법론의 유용성을 검증하기 위하여, MDBS를 대상으로 사례분석을 수행하였다. 분석 결과, 본 논문의 방법론이 공통 유사 서브스키마의 추출 및 스키마 통합에 유용하게 적용될 수 있다는 것을 확인할 수 있었다. Recently, most of global enterprises have geographically distributed organization, thus have distributed information systems which have distributed database systems. So, it is difficult for these systems to provide common views for the application programs of end users. One of solutions to solve these difficulties is an MDBS(Multidatabase System) A method to effectively implement MDBS is a schema integration. This paper proposes a methodology for a schema integration through extraction of common similar subschemas Our methodology is consisted of 5 phases : affinity analysis, extraction of similar subschemas, decision of imtegration order, resolution of semantic conflict, and schema integration. To verify the usability of our methodology, a case study is implemented with an object of MDBS. At a result, our approach can effectively be applied to the extraction of common similar subschemas and schema integration.

      • KCI등재

        CTR을 이용한 자윈 할당 제약조건 하에서 워크플로우의 스케줄링

        고재진,안형근,이단영,Koh Jae-Jin,An Hyoung-Keun,Lee Dan-Young 한국정보처리학회 2006 정보처리학회논문지D Vol.13 No.2

        다양한 환경 속에서 기업이 업무의 효율성과 효과적인 업무처리를 해결하기 위해서 핵심정보시스템으로 워크플로우를 도입하고 있다. 최근에는 워크플로우 확장으로 비즈니스 프로세스 관리(BPM: Business Process Management)가 기업 소프트웨어 시장의 가장 중요한 부분을 차지하고 있다. 비즈니스 프로세스 관리에서 워크플로우는 핵심적인 역할을 수행하고 있지만, 워크플로우 연구의 대부분은 복잡한 업무의 정확한 실행 순서를 찾기 위한 시간적인 제약들에 집중되어 있다. 그런 이유에서 워크플로우 스케줄링의 대부분은 처리해야 할 다양한 자원의 모델링에 집중되었으며, 자원과 연관된 제약조건에서의 워크플로우 스케줄링에 대한 관심은 미흡한 편이다. 본 논문에서는 자원할당 제약조건에 따른 워크플로우 스케줄링에 적합한 CTR(Concurrent Transaction Logic) 기반의 변형 템플릿(Transformation Template)과 논리적 프레임워크를 제안한다. 변형 템플릿은 워크플로우 변형 템플릿(Workflow Transformation Template)과 제약조건 변형 템플릿(Constraint Transformation Template)으로 구성된다. 이 변형 템플릿은 기존의 워크플로우를 자원할당 제약조건 하에서 새로운 워크플로우를 논리적으로 표현하는데 용이하게 사용할 수가 있다. Many enterprises have introduced workflow to enhance work efficiency and support effective work processes in their various work environments. Recently, Business Process Management(BPM), an extension of workflow, is spotlighted in enterprise software markets Although woklflow plays an important role in Business Process Managements, researches in workflow are mostly concentrated on temporal constraints which finds exact execution sequences for complicated jobs. On that reason, majority of workflow scheduling has concentrated on modeling of various resources which should be handled and the interest for workflow scheduling under constraints related to resources is rather unsatisfactory In this paper we presents the Transformation Template based on Concurrent Transaction Logic(CTR) which is suitable for scheduling workflows with resource allocation constraints, and the logical framework. The Transformation Template consists of a Workflow Transformation Template and a Constraint Transaction Template. Especially the Transformation Template can be conveniently used to logically represent new workflows under the existing resource allocation constraints.

      • KCI우수등재

        상향방식에 의한 Horn논리절 질의어의 최적화

        고재진(Jae Jin Koh),김영택(Yung Taek Kim) 한국정보과학회 1989 정보과학회논문지 Vol.16 No.2

        자연언어질의어를 Horn 논리절(clause)로 변환하여, 논리프로그래밍 시스템에서 실행을 하려면은 그 논리절을 최적화할 필요가 있다. Prolog와 같은 좌우, 깊이우선용해(left-to-right, depth-first resolution) 방식의 논리프로그래밍 언어하에서 질의어 처리를 실행한다면, 자연언어 질의어에서 변환된 논리절은, 비능률적인 구조로 되어 있는 경우가 대부분이다. 이런 경우의 논리절의 최적화 방법에는 논리절의 몸체(body)에 있는 goal들과 그들에 관련된 논리절들을 순서조정(ordering) 하는 방법이 있다. 이 논문에서는 이 goal들과 관련 논리절들의 순서 조정을 논리프로그램의 의미론적 지식 각 프레디키트(predicate)의 각인수(argument)의 정의역(domain) 크기와 사실(fact)인 경우, 그것의 갯수)을 이용하여, 상향(bottom-up) 방식으로 처리하는 방법을 제시하였다. 이 방법은 기존의 방법들을 개선한 것으로서, 최적화 알고리즘을 단순화했고, 응용범위를 확대하였다. In order to execute Horn clauses which are translated from a natural language query under a logic programming system, it is necessary to optimize them. Most of Horn clauses which are translated from a natural language query are of inefficient structures, in case that we execute them under Prolog programming system that have left-to-right depth-first resolution strategy. One of the optimization methods in this case is to order goals in the body of the clauses and to order the clauses pertinent to them. In this paper we proposed a method of ordering goals and clauses pertinent to them by bottom-up approach using semantic knowledges (the domain size of each argument of each predicate and the number of instances of each fact) of logic program. This method is an improvement on the conventional methods in that it simplifies the optimization algorithm and broadens the application domains.

      • KCI우수등재

        데이터 흐름 개념에 의한 Horn 논리절 질의어의 최적화

        고재진(Jae Jin Koh),김영택(Yung Taek Kim) 한국정보과학회 1989 정보과학회논문지 Vol.16 No.6

        Horn 논리절 질의어의 최적화에 대한 여러가지 방법들이 제시되어 있다. 대부분의 방법들은 프레디키트의 검색도수를 계산해서, Goal들의 순서 조정을 행한다. 이 논문에서는 데이터 흐름 개념을 이용해서 Horn 논리절 질의어를 최적화하는 새로운 방법을 제시하였다. 이 방법은 Horn 논리절에 대한 데이터 흐름 그래프를 작성해서 데이터의 발원지를 표시하고, 데이터의 흐름을 표시하도록 한다. 따라서 goal들의 순서조정은 데이터의 흐름에 맞추도록 한다. 질의어에 연결된 논리절들도 데이터 흐름 정보가 질의어로 부터 하향(top-down)으로 전달되어서, 데이터 흐름에 의해서 최적화 된다. 데이터 흐름의 구현방법으로는 테이블방법(table method)이 고안되어, 데이터 흐름의 표시와 데이터 흐름 정보의 전달이 용이하도록 하였다. 이 방법은 재귀 논리절에도 비재귀적 논리절에서와 똑 같이 적용할 수 있다. There are many methods which optimize Horn clause queries. Most of the methods order goals using the retrieval degree of each predicate. In this paper, we proposed a new method which optimize Horn clause queries using data flow concept. In this method data flow graphs on Horn clauses are drawn. The origins and flows of data are marked on those graphs. Therefore goal-ordering corresponding to the flows of data can be done. Data flow informations are transferred from query to the Horn clauses connected to it in top-down direction and the Horn clauses connected to query are optimized by data flow concept. Data flow mechanism is implemented by a new table method. Therefore the indication of data flow and transfer of data flow informations can be done easily. We can apply this method to recursive Horn clauses equally as well as non-recursive Horn clauses.

      • KCI등재

        ERD시소러스를 이용한 뷰 통합 방법론

        이원조,고재진,장길상,Lee, Won-Jo,Koh, Jae-Jin,Jang, Gil-Sang 한국정보처리학회 2004 정보처리학회논문지D Vol.11 No.3

        본 논문에서는 데이터베이스 설계시 중요한 과정인 개념설계 단계에서 개체관계도(Entity Relationship Diagram)의 정보를 저장하는 ERD시소러스(Thesaurus)를 구축하고, 이러한 ERD시소러스를 기반으로 하는 뷰 통합 방법론을 제시하고자 한다. 제시된 방법론의 유용성을 입증하기 위하여, 적용사례에 대한 뷰 통합지원시스템의 프로토타입을 구축하였다. 적용결과, ERD시소러스 기반의 방법론이 기존의 뷰 통합 방법론보다 친밀도 분석, 의미충돌 해결, 유 통합과정에서 더 효과적임을 확인할 수 있었다. 따라서 이 방법론이 기존의 단편화된 스키마의 통합이나 대규모 데이터베이스 통합 설계시 유용하게 활용될 수 있을 것으로 기대된다. This paper constructs ERD thesaurus that is storing information about Entity Relationship Diagram(ERD), and proposes an ERD thesaurus-based methodology for view integration in an important conceptual design step in designing databases. To show the usefulness of proposed methodology, the prototype for view integration support system is implemented for the applied case. As a result, ERD thesaurus-based methodology is more effective than the existing methodologies for view Integration in the aspects of affinity analysis, semantic conflicts resolution, and view Integration processes. Therefore, our methodology is expected to be utilized in integrating the existing fragmented schema or designing a large database integration.

      • KCI등재

        MPEG-7 기반 의미적 메타데이터 모델을 이용한 멀티미디어 주석 및 검색 시스템의 개발

        안형근,고재진,An, Hyoung-Geun,Koh, Jae-Jin 한국정보처리학회 2007 정보처리학회논문지D Vol.14 No.6

        최근 멀티미디어 정보의 양이 매우 빠른 속도로 증가함에 따라 멀티미디어 데이터에 대한 다양한 검색은 매우 중요한 이슈가 되고 있다. 멀티미디어 데이터를 효율적으로 처리하기 위해서는 멀티미디어 데이터가 가지고 있는 의미 내용을 추출할 수 있는 의미 기반 검색 기법이 필요하다. 기존 연구되어온 멀티미디어 데이터의 검색은 주석 기반 검색, 특징 기반 검색, 주석과 특징 기반 검색의 통합 검색시스템이 있다. 이러한 시스템들은 검색 데이터의 생성을 위해 주석자의 많은 노력과 시간을 요구하고 특징 추출을 위한 복잡한 계산을 요구하며, 생성된 데이터는 변화되지 않는 정적인 검색을 수행하는 단점이 있다. 또한, 인간에게 좀 더 친숙하고 의미적인 형태의 검색 방법을 제공하지 못하고 있는 실정이다. 본 논문에서는 MPEG-7을 이용하여 멀티미디어 데이터를 구조적으로 표현하고 효율적으로 추출하기 위한 의미적 메타데이터 기반의 멀티미디어 주석 및 검색시스템(S-MARS)을 구현 제안한다. 본 시스템은 멀티미디어 데이터에 대한 주석이나 검색, 브라우징을 위한 그래픽 인터페이스를 제공하며 멀티미디어 정보를 표현하기 위해 의미적 메타데이터 모델을 기반으로 구현하였다. 멀티미디어 데이터에 대한 의미적 메타데이터 모델은 MPEG-7 표준에 정의되어 있는 멀티미디어 묘사 스키마를 기반으로 XML 스키마를 이용하여 작성하였다. 결론적으로, 제시한 멀티미디어 데이터에 대한 의미적 메타데이터를 XML 형태로 표현하고, XML을 지원하는 데이터베이스 시스템을 이용하여 표준적인 데이터의 상호 교환이 용이하게 이루어질 수 있으며, 의미적 메타데이터를 활용하여 삽입 기반 검색 알고리즘 방법을 제공함으로써 검색에 대한 정확성과 사용자의 검색 만족도를 극대화 시킬 수 있다. 마그마 저장소로의 유입과 마그마 저장소 아래에서 공급되는 모마그마의 성분변화에 의해서 미량원소 함량이 급격하게 변한 것으로 해석된다./^4He$ 비와 $^4He/^{20}Ne$ 비는 $0.0143{\times}10^{-6}{\sim}0.407{\times}10^{-6}$ 범위와 $6.49{\sim}584{\times}10^{-6}$ 범위를 각각 보여주어 대기와 지각성분의 혼합선상에 도시된다. 이는 온천수내 헬륨가스의 대부분이 지각기원임을 의미한다. 죽림온천(JR1)의 경우 맨틀기원의 헬륨가스의 혼합율이 다른 온천에 비해 다소 높은 비율을 보여준다. 이들 동위원소비와 온천수의 pH와는 대체적으로 정의 상관관계가 확인되었다. 아울러 $^{40}Ar/^{36}Ar$비가 $292.3{\times}10^{-6}{\sim}304.1{\times}10^{-6}$ 범위로 대기기원임을 지시한다. Gram 양성, Gram 음성 균주는 Escherichia coli KCCM 11591를 제외하고는 0.8 - 0.95 cm로 항균력이 강했으며, Gram negitive의 Pseudomonas aeruginosa KCTC 1750 에서는 43% 발효주에는 0.95 cm, 45% 고은 발효주에는 0.95 cm의 항균성을 나타냈으며 관능평가에서도 가장 높게 났다. 관능평가에서는 45% 고온 발효주가 가장 높게 나타났으며, 항산화성 실험에 나타난 저온 45%의 갈색도의 측정과는 항산화성에서는 좀 다른 결과를 나타낸다. 그러나 항균성이 가장 높게 나타난 43-45%와 관능평가에서 가장 높게 나타난 45% 고온 발효주를 볼 때 본 연구에서는 고온 발효주 45%가 As multimedia information recently increases fast, various types of retrieval of multimedia data are becoming issues of great importance. For the efficient multimedia data processing, semantics based retrieval techniques are required that can extract the meaning contents of multimedia data. Existing retrieval methods of multimedia data are annotation-based retrieval, feature-based retrieval and annotation and feature integration based retrieval. These systems take annotator a lot of efforts and time and we should perform complicated calculation for feature extraction. In addition. created data have shortcomings that we should go through static search that do not change. Also, user-friendly and semantic searching techniques are not supported. This paper proposes to develop S-MARS(Semantic Metadata-based Multimedia Annotation and Retrieval System) which can represent and extract multimedia data efficiently using MPEG-7. The system provides a graphical user interface for annotating, searching, and browsing multimedia data. It is implemented on the basis of the semantic metadata model to represent multimedia information. The semantic metadata about multimedia data is organized on the basis of multimedia description schema using XML schema that basically comply with the MPEG-7 standard. In conclusion. the proposed scheme can be easily implemented on any multimedia platforms supporting XML technology. It can be utilized to enable efficient semantic metadata sharing between systems, and it will contribute to improving the retrieval correctness and the user's satisfaction on embedding based multimedia retrieval algorithm method.

      • KCI등재

        관계형 데이터 웨어하우스의 복잡한 질의의 처리 효율 향상을 위한 비트맵 조인 인덱스 선택에 관한 연구

        안형근,고재진,An, Hyoung-Geun,Koh, Jae-Jin 한국정보처리학회 2012 정보처리학회논문지D Vol.19 No.1

        데이터 웨어하우스는 크기가 방대하기 때문에 인덱스의 선택은 질의어 처리의 효율성에 상대한 영향을 준다. 인덱스는 질의 처리 비용을 줄이지만, 그것이 차지하는 기억 영역과 데이터베이스의 변경에 따른 보수라는 비용이 수반된다. 데이터 웨어하우스에서 하나의 사실 테이블과 여러 개의 차원 테이블 사이의 조인을 행하는 스타 조인 질의어와 차원 테이블의 선택을 최적화하기 위해서 비트맵 조인 인덱스가 잘 적용된다. 비트맵 조인 인덱스는 이진수로 표현되기 때문에 저장 비용은 적게 들지만 인덱스 할 후보 속성들이 많이 생성되기 때문에 그 중에서 인덱스 할 속성들을 선택하는 일은 어려운 과제가 된다. 인덱스 선택은 일단 후보 속성들의 개수를 축소하고, 그 중에서 인덱스를 선택하게 된다. 본 논문에서는 데이터 마이닝 방법을 사용해서 비트 맵 조인 인덱스 선택 문제에서 후보 속성들의 개수를 축소하는 것을 해결한다. 질의어에 있는 속성들의 빈도에 기준해서 후보 속성들의 개수를 감소시키는 기존의 방법에 비해서 본 논문은 속성들의 빈도를 사용함과 동시에 차원 테이블의 크기, 차원 테이블의 튜플 크기, 디스크의 페이지 크기 등을 고려한다. 그리고 데이터마이닝 기법으로 빈발 항목집합을 마이닝하여 후보 속성들의 개수를 효과적으로 줄인다. 후보 속성집합들의 비트 맵 조인 인덱스에 비용함수를 적용해서 최소의 비용과 기억 영역 제한에 적합한 속성집합들의 비트 맵 조인 인덱스를 구한다. 본 논문의 방법의 효율성을 평가하기 위해서 기존의 방법들과 비교 분석을 한다. As the size of the data warehouse is large, the selection of indices on the data warehouse affects the efficiency of the query processing of the data warehouse. Indices induce the lower query processing cost, but they occupy the large storage areas and induce the index maintenance cost which are accompanied by database updates. The bitmap join indices are well applied when we optimize the star join queries which join a fact table and many dimension tables and the selection on dimension tables in data warehouses. Though the bitmap join indices with the binary representations induce the lower storage cost, the task to select the indexing attributes among the huge candidate attributes which are generated is difficult. The processes of index selection are to reduce the number of candidate attributes to be indexed and then select the indexing attributes. In this paper on bitmap join index selection problem we reduce the number of candidate attributes by the data mining techniques. Compared to the existing techniques which reduce the number of candidate attributes by the frequencies of attributes we consider the frequencies of attributes and the size of dimension tables and the size of the tuples of the dimension tables and the page size of disk. We use the mining of the frequent itemsets as mining techniques and reduce the great number of candidate attributes. We make the bitmap join indices which have the least costs and the least storage area adapted to storage constraints by using the cost functions applied to the bitmap join indices of the candidate attributes. We compare the existing techniques and ours and analyze them in order to evaluate the efficiencies of ours.

      • KCI등재

        민감한 빈발 항목집합 숨기기 위한 확장 빈발 패턴 트리

        이단영,안형근,고재진,Lee, Dan-Young,An, Hyoung-Geun,Koh, Jae-Jin 한국정보처리학회 2011 정보처리학회논문지D Vol.18 No.3

        최근 기업 간 또는 기관 사이의 데이터 공유는 업무 협력을 위해서 필요한 사안이 되고 있다. 이 과정에서 기업이 데이터베이스를 계열회사에 공개했을 때 민감한 정보가 유출되는 문제점이 발행할 수도 있다. 이런 문제를 해결하기 위해서 민감한 정보를 데이터베이스로부터 숨기는 일이 필요하게 되었다. 민감한 정보를 숨기는 이전 연구들은 결과 데이터베이스의 품질을 유지하기 위해 다른 휴리스틱 알고리즘을 적용했다. 그러나 민감한 정보를 숨기는 과정에서 변경되는 항목집합에 대한 영향을 평가하거나 숨겨지는 항목을 최소화하는 연구들은 미흡하였다. 본 논문에서는 민감한 빈발 항목집합을 숨기기 위하여 FP-Tree(Frequent Pattern Tree)기반의 확장 빈발 패턴트리(Extended Frequent Pattern Tree, eFP-Tree)를 제안한다. eFP-Tree의 노드 구성은 기존과는 다르게 빈발 항목집합 생성단계에서 트랜잭션 정보와 민감 정보, 경계 정보를 모두 구성하며, 숨기는 과정에서 비민감한 빈발 항목집합의 영향을 최소화하기 위하여 경계를 사용하였다. 본 논문의 예시 트랜잭션 데이터베이스에 eFP-Tree를 적용한 결과, 손실 항목을 평균 10%이하로 최소화하여 기존 방법들에 비해 효과적임을 증명하였고, 데이터베이스의 품질을 최적으로 유지할 수가 있었다. Recently, data sharing between enterprises or organizations is required matter for task cooperation. In this process, when the enterprise opens its database to the affiliates, it can be occurred to problem leaked sensitive information. To resolve this problem it is needed to hide sensitive information from the database. Previous research hiding sensitive information applied different heuristic algorithms to maintain quality of the database. But there have been few studies analyzing the effects on the items modified during the hiding process and trying to minimize the hided items. This paper suggests eFP-Tree(Extended Frequent Pattern Tree) based FP-Tree(Frequent Pattern Tree) to hide sensitive frequent itemsets. Node formation of eFP-Tree uses border to minimize impacts of non sensitive frequent itemsets in hiding process, by organizing all transaction, sensitive and border information differently to before. As a result to apply eFP-Tree to the example transaction database, the lost items were less than 10%, proving it is more effective than the existing algorithm and maintain the quality of database to the optimal.

      • KCI등재

        판단 트리 분류를 위한 SQL 기초 기능의 구현에 관한 연구

        안형근 ( Hyoung Geun An ),고재진 ( Jae Jin Koh ) 한국정보처리학회 2013 정보처리학회논문지. 소프트웨어 및 데이터 공학 Vol.2 No.12

        판단 트리 분류는 데이터 마이닝의 중요한 문제의 하나이고, 데이터 마이닝은 대형 데이터베이스 기술의 중요한 과제가 되고 있다. 그러므로 데이터베이스와 데이터 마이닝 시스템의 결합 노력은 판단 트리 분류와 같은 데이터 마이닝 기능을 지원하는 데이터베이스 기초 기능의 개 발로 이어지고 있다. 이런 기초 기능은 분류 알고리즘의 SQL 구현을 지원하는 특수한 데이터베이스 연산들로 구현되며, 특정 알고리즘을 구현 하여 데이터베이스 시스템의 구성 모듈로 사용하고 있다. 데이터 마이닝 기능을 제공하는 데이터베이스 기초 기능의 개발에는 두 가지 관점이 있다. 하나는 데이터 마이닝 기능을 분석해서 그런 기능들을 제공하는 데이터베이스 공통 기초 기능을 확인하는 것, 다른 하나는 데이터베이스 시스템의 인터페이스의 한 부분으로 이런 기초 기능의 구현을 위한 확장된 메커니즘을 제공하는 것이다. 데이터 마이닝에서 어떤 기초 기능들을 DBMS에 저장할 것인가는 어려운 문제 중에 하나이다. 따라서 본 논문에서는 이러한 문제를 해결하기 위하여, 최적화된 판단 트리 분류기를 만들고 데이터베이스 기초 기능에 대해서 기술한다. 판단 트리 분류 알고리즘의 유용한 연산들을 확인하고, 상업적 DBMS에서 이러한 기초 기능의 구현에 대해서 기술하고, 성능 비교를 위한 실 험 결과를 제시한다. Decision tree classification is one of the important problems in data mining fields and data minings have been important tasks in the fields of large database technologies. Therefore the coupling efforts of data mining systems and database systems have led the developments of database primitives supporting data mining functions such as decision tree classification. These primitives consist of the special database operations which support the SQL implementation of decision tree classification algorithms. These primitives have become the consisting modules of database systems for the implementations of the specific algorithms. There are two aspects in the developments of database primitives which support the data mining functions. The first is the identification of database common primitives which support data mining functions by analysis. The other is the provision of the extended mechanism for the implementations of these primitives as an interface of database systems. In data mining, some primitives want be stored in DBMS is one of the difficult problems. In this paper, to solve of the problem, we describe the database primitives which construct and apply the optimized decision tree classifiers. Then we identify the useful operations for various classification algorithms and discuss the implementations of these primitives on the commercial DBMS. We implement these primitives on the commercial DBMS and present experimental results demonstrating the performance comparisons.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼