RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI우수등재

      동적 분산병렬 하둡시스템 및 분산추론기에 응용한 서버가상화 빅데이터 플랫폼 = An elastic distributed parallel Hadoop system for bigdata platform and distributed inference engines

      한글로보기

      https://www.riss.kr/link?id=A104378438

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      Inference process generates additional triples from knowledge represented in RDF triples of semantic web technology. Tens of million of triples as an initial big data and the additionally inferred triples become a knowledge base for applications such as QA(question&answer) system. The inference engine requires more computing resources to process the triples generated while inferencing. The additional computing resources supplied by underlying resource pool in cloud computing can shorten the execution time. This paper addresses an algorithm to allocate the number of computing nodes "elastically" at runtime on Hadoop, depending on the size of knowledge data fed. The model proposed in this paper is composed of the layered architecture: the top layer for applications, the middle layer for distributed parallel inference engine to process the triples, and lower layer for elastic Hadoop and server visualization. System algorithms and test data are analyzed and discussed in this paper. The model hast the benefit that rich legacy Hadoop applications can be run faster on this system without any modification.
      번역하기

      Inference process generates additional triples from knowledge represented in RDF triples of semantic web technology. Tens of million of triples as an initial big data and the additionally inferred triples become a knowledge base for applications such ...

      Inference process generates additional triples from knowledge represented in RDF triples of semantic web technology. Tens of million of triples as an initial big data and the additionally inferred triples become a knowledge base for applications such as QA(question&answer) system. The inference engine requires more computing resources to process the triples generated while inferencing. The additional computing resources supplied by underlying resource pool in cloud computing can shorten the execution time. This paper addresses an algorithm to allocate the number of computing nodes "elastically" at runtime on Hadoop, depending on the size of knowledge data fed. The model proposed in this paper is composed of the layered architecture: the top layer for applications, the middle layer for distributed parallel inference engine to process the triples, and lower layer for elastic Hadoop and server visualization. System algorithms and test data are analyzed and discussed in this paper. The model hast the benefit that rich legacy Hadoop applications can be run faster on this system without any modification.

      더보기

      참고문헌 (Reference)

      1 박정혁, "하둡과 맵리듀스" 한국데이터정보과학회 24 (24): 1013-1027, 2013

      2 이완곤, "클라우드 컴퓨팅 환경에서의 대용량 RDFS 추론을 위한 분산 테이블 조인 기법" 한국정보과학회 41 (41): 674-685, 2014

      3 이완곤, "분산 메모리 환경에서의 ABox 실체화 추론" 한국정보과학회 42 (42): 852-859, 2015

      4 고영준, "Rhipe를 활용한 빅데이터 처리 및 분석" 한국데이터정보과학회 24 (24): 975-987, 2013

      5 Zaharia, M., "Resilient distributed datasets: A fault-tolerant abstraction for in-memory cluster computing" USENIX Association Berkeley 2012

      6 Agarwal, S., "Re-optimizing data-parallel computing" 2012

      7 Pastorelli, M., "HFSP: Size-based scheduling for Hadoop" 2013

      8 Verma, A., "Aria: Automatic resource inference and allocation for MapReduce environments" 2011

      9 Song, D., "Annual report on distributed parallel infernce platform for large scale knowledge processing" IITP 2015

      10 Antoniou, G., "A semantic web primer" The MIT Press 2012

      1 박정혁, "하둡과 맵리듀스" 한국데이터정보과학회 24 (24): 1013-1027, 2013

      2 이완곤, "클라우드 컴퓨팅 환경에서의 대용량 RDFS 추론을 위한 분산 테이블 조인 기법" 한국정보과학회 41 (41): 674-685, 2014

      3 이완곤, "분산 메모리 환경에서의 ABox 실체화 추론" 한국정보과학회 42 (42): 852-859, 2015

      4 고영준, "Rhipe를 활용한 빅데이터 처리 및 분석" 한국데이터정보과학회 24 (24): 975-987, 2013

      5 Zaharia, M., "Resilient distributed datasets: A fault-tolerant abstraction for in-memory cluster computing" USENIX Association Berkeley 2012

      6 Agarwal, S., "Re-optimizing data-parallel computing" 2012

      7 Pastorelli, M., "HFSP: Size-based scheduling for Hadoop" 2013

      8 Verma, A., "Aria: Automatic resource inference and allocation for MapReduce environments" 2011

      9 Song, D., "Annual report on distributed parallel infernce platform for large scale knowledge processing" IITP 2015

      10 Antoniou, G., "A semantic web primer" The MIT Press 2012

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2022 평가예정 계속평가 신청대상 (등재유지)
      2017-01-01 평가 우수등재학술지 선정 (계속평가)
      2013-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2010-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2005-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      2004-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2003-01-01 평가 등재후보학술지 유지 (등재후보2차) KCI등재후보
      2002-01-01 평가 등재후보 1차 PASS (등재후보1차) KCI등재후보
      2001-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 1.18 1.18 1.07
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      1.01 0.91 0.911 0.35
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼