RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        RDFS, OWL, OWL2의 문법특성을 고려한 신뢰향상적 LOD 연결성 평가 기법

        박재영(Jaeyeong Park),손용락(Yonglak Sohn) 한국정보과학회 2014 정보과학회논문지 : 데이타베이스 Vol.41 No.4

        LOD(Linked Open Data)는 온톨로지에 기반하여 구조화되고 링크드 데이터 원칙에 의거하여 식별, 연결, 접근되는 RDF 트리플들로 구성된다. 이러한 LOD 데이터집합의 공개는 LOD 클라우드의 확장으로 이어지며 궁극적으로는 데이터 중심적인 웹으로 진화한다. 그러나, 존재적으로 동일한 개체들이 여러 LOD 데이터집합들에 걸쳐 서로 다르게 식별되는 경우 이들간의 동일성을 파악하여 신뢰적인 연결을 제공하는 것은 어려운 작업이다. 이를 위하여 본 논문은 신뢰향상적 연결성 평가(Trustworthiness Improving Link Evaluation: TILE) 기법을 제시한다. 보다 신뢰적인 연결성 평가 결과를 도출하기 위하여 TILE은 4단계로 진행한다. 우선, TILE은 LOD 데이터집합의 문법요소들이 가지는 추론적 특징을 고찰하여 잠재적으로만 존재하고 있던 사실들을 RDF 트리플들로 실체화하여 이를 데이터집합에 보강한다. 두 번째 단계에서 지정한 술어의 목적어 값을 비교하여 평가를 수행하며 세 번째 단계에서 RDF 트리플의 술어부가 지니고 있는 문법적 특성을 주어서술적/어휘정의적 관점에서 평가한 후 이를 두 번째 단계의 결과에 추가 반영한다. 이 과정에서 TILE이 고찰하는 문법적 요소들은 LOD 클라우드를 구축하기 위하여 W3C가 제시한 언어인 RDFS, OWL, OWL2 모두를 망라한다. 마지막으로, LOD 데이터집합 공개자로 하여금 연결성 평가결과를 검토하여 재평가 실시 혹은 연결확정을 결정하도록 함으로써 공개하는 데이터의 연결성이 가져야 하는 신뢰성에 공개주체의 책임이 반영되도록 한다. LOD(Linked Open Data) is composed of RDF triples which are based on ontologies. They are identified, linked, and accessed under the principles of linked data. Publications of LOD data sets lead to the extension of LOD cloud and ultimately progress to the web of data. However, if ontologically the same things in different LOD data sets are identified by different URIs, it is difficult to figure out their sameness and to provide trustworthy links among them. To solve this problem, we suggest a Trustworthiness Improving Link Evaluation, TILE for short, technique. TILE evaluates links in 4 steps. Step 1 is to consider the inference property of syntactic elements in LOD data set and then generate RDF triples which have existed implicitly. In Step 2, TILE appoints predicates, compares their objects in triples, and then evaluates links between the subjects in the triples. In Step 3, TILE evaluates the predicates’ syntactic property at the standpoints of subject description and vocabulary definition and compensates the evaluation results of Step 2. The syntactic elements considered by TILE contain RDFS, OWL, OWL2 which are recommended by W3C. Finally, TILE makes the publisher of LOD data set review the evaluation results and then decide whether to re-evaluate or finalize the links. This leads the publishers’ responsibility to be reflected in the trustworthiness of links among the data published.

      • KCI우수등재

        연결정책을 이용한 개방형 연결 데이터 클라우드에서의 연결성 확충

        김광민(Kwangmin Kim),손용락(Yonglak Sohn) 한국정보과학회 2017 정보과학회논문지 Vol.44 No.10

        본 논문은 시멘틱 웹의 실제적인 구현 결과인 개방형 연결 데이터(Linked Open Data(LOD)) 클라우드에서의 연결성을 확충하는 방안을 제시하였다. 현재의 LOD 클라우드는 최초 기대와는 달리 LOD들간의 연결성 부족으로 인하여 활발한 활용을 이끌어 내지 못하고 있다. 〈owl:sameAs〈를 적용한 명시적연결들을 LOD에 직접 첨부하여 공개하는 현재의 연결방식은 연결대상 LOD들의 변경상황을 실시간으로 검색결과에 반영하지 못하며 별도의 작업을 통하여 이러한 명시적연결들을 생성하고 주기적으로 갱신하여야 한다는 제약을 가진다. 이에 본 논문은 명시적연결들을 첨부하는 대신 LOD마다 연결정책을 마련하고 이를 LOD와 함께 공개하는 방안을 제안하였다. 연결정책에는 타겟LOD들을 선정하고 연결판단에 필요한 술어 쌍들과 유사도를 명세하도록 하였다. 이러한 연결정책에 기반하여 여러 LOD들에 거쳐 진행하는 심층검색 기능을 API로 구현하고 이를 Github를 통하여 공개하였다. 구현한 심층검색을 유사도 1.0~0.8, 깊이 4까지에서 실험한 결과 신뢰적인 연결들을 91%~98% 수준으로 포함하고 170% 정도 규모의 적정한 확장성을 제공하는 것으로 평가되었다. This paper suggests a method to expand linkages in a Linked Open Data(LOD) cloud that is a practical consequence of a semantic web. LOD cloud, contrary to the first expectation, has not been used actively because of the lack of linkages. Current method for establishing links by applying 〈owl:sameAs〉 to explicit links and attaching the links to LODs have restrictions on reflecting target LODs’ changes in a timely manner and maintaining them periodically. Instead of attaching them, this paper suggests that each LOD should prepare a link policy and publish it together with the LOD. The link policy specifies target LODs, predicate pairs, and similarity degrees to decide on the establishment of links. We have implemented a system that performs in-depth searching through LODs using their link policies. We have published APIs of the system to Github. Results of the experiment on the in-depth searching system with similarity degrees of 1.0 ~ 0.8 and depth level of 4 provides searching results that include 91%~98% of the trustworthy links and about 170% of triples expanded.

      • KCI등재

        효과적인 지식확장을 위한 LOD 클라우드에서의 변화수용적 심층검색

        김광민(Kwangmin Kim),손용락(Yonglak Sohn) 한국지능정보시스템학회 2018 지능정보연구 Vol.24 No.2

        본 연구는 시멘틱 웹의 실질적 구현체인 LOD 클라우드에서 연결정책을 활용함으로써 LOD들간 연결을 효과적으로 제공하고 LOD의 변경된 내용을 검색결과에 빠짐없이 반영할 수 있는 방안을 제시한다. 현재 LOD 클라우드에서는 개체간 연결은 <owl:sameAs>를 이용하여 개체들이 동일함을 명시적으로 기술하는 방식으로 이루어져 있다. 하지만, 이러한 명시적 연결방식은 LOD 클라우드 규모의 방대함에도 불구하고 개체간 동일성을 개체단위에서 파악하여야 하는 어려움이 있으며 주기적으로 LOD에 추가하여야 함에 따라 검색 시 개체들이 누락되는 한계가 있다. 이를 극복하기 위하여 본 연구에서는 명시적 연결을 생성하는 대신 LOD별로 연결하고자 하는 LOD와의 연결정책을 수립하여 LOD와 함께 공개하는 방식을 제안한다. 연결정책을 활용함으로써 연결하여야 할 동일개체를 검색시점에서 파악할 수 있으므로 추가되었던 개체들을 누락됨 없이 검색결과에 포함시킬 수 있고 LOD 클라우드에서의 연결성도 효과적으로 확충할 수 있다. 확충된 연결성은 정보의 지능적 처리의 선행과정인 지식확장의 근간이 된다. 연결정책은 연결하고자 하는 소스와 타겟 LOD의 주어 개체들간의 동일성을 평가하는데 도움이 되는 술어 쌍을 명세하는 방식으로 수립하며 검색 시 이러한 술어쌍에 대응하는 RDF 트리플을 검색하고 이들의 목적어들이 충분히 동일한 것인가를 평가하여 주어개체들의 동일수준을 판단한다. 본 연구에서는 이러한 연결정책을 이용하여 여러 LOD들을 심층적으로 검색하는 시스템을 구현하였다. 검색과정에서는 기존 명시적 연결들도 함께 활용하도록 구현하였다. 검색시스템에 대한 실험은 DBpedia의 주요 LOD들을 대상으로 진행하였다. 실험결과 연결대상 개체들의 목적어들이 0.8 ~ 0.9의 유사수준을 가지는 경우 적정한 확장성을 가지고 충분히 신뢰적인 개체들을 적절하게 포함하는 것으로 확인하였다. 또한, 개체들은 8개 이상의 동일연결을 제공하여야 검색결과가 신뢰적으로 활용될 수 있을 것으로 파악되었다. LOD(Linked Open Data) cloud is a practical implementation of semantic web. We suggested a new method that provides identity links conveniently in LOD cloud. It also allows changes in LOD to be reflected to searching results without any omissions. LOD provides detail descriptions of entities to public in RDF triple form. RDF triple is composed of subject, predicates, and objects and presents detail description for an entity. Links in LOD cloud, named identity links, are realized by asserting entities of different RDF triples to be identical. Currently, the identity link is provided with creating a link triple explicitly in which <owl:sameAs> associates its subject and object with source and target entities. Link triples are appended to LOD. With identity links, a knowledge achieves from an LOD can be expanded with different knowledge from different LODs. The goal of LOD cloud is providing opportunity of knowledge expansion to users. Appending link triples to LOD, however, has serious difficulties in discovering identity links between entities one by one notwithstanding the enormous scale of LOD. Newly added entities cannot be reflected to searching results until identity links heading for them are serialized and published to LOD cloud. Instead of creating enormous identity links, we propose LOD to prepare its own link policy. The link policy specifies a set of target LODs to link and constraints necessary to discover identity links to entities on target LODs. On searching, it becomes possible to access newly added entities and reflect them to searching results without any omissions by referencing the link policies. Link policy specifies a set of predicate pairs for discovering identity between associated entities in source and target LODs. For the link policy specification, we have suggested a set of vocabularies that conform to RDFS and OWL. Identity between entities is evaluated in accordance with a similarity of the source and the target entities’ objects which have been associated with the predicates’ pair in the link policy. We implemented a system “Change Acceptable In-Depth Searching System(CAIDS)”. With CAIDS, user’s searching request starts from depth_0 LOD, i.e. surface searching. Referencing the link policies of LODs, CAIDS proceeds in-depth searching, next LODs of next depths. To supplement identity links derived from the link policies, CAIDS uses explicit link triples as well. Following the identity links, CAIDS’s in-depth searching progresses. Content of an entity obtained from depth_0 LOD expands with the contents of entities of other LODs which have been discovered to be identical to depth_0 LOD entity. Expanding content of depth_0 LOD entity without user’s cognition of such other LODs is the implementation of knowledge expansion. It is the goal of LOD cloud. The more identity links in LOD cloud, the wider content expansions in LOD cloud. We have suggested a new way to create identity links abundantly and supply them to LOD cloud. Experiments on CAIDS performed against DBpedia LODs of Korea, France, Italy, Spain, and Portugal. They present that CAIDS provides appropriate expansion ratio and inclusion ratio as long as degree of similarity between source and target objects is 0.8 ~ 0.9. Expansion ratio, for each depth, depicts the ratio of the entities discovered at the depth to the entities of depth_0 LOD. For each depth, inclusion ratio illustrates the ratio of the entities discovered only with explicit links to the entities discovered only with link policies. In cases of similarity degrees with under 0.8, expansion becomes excessive and thus contents become distorted. Similarity degree of 0.8 ~ 0.9 provides appropriate amount of RDF triples searched as well. Experiments have evaluated confidence degree of contents which have been expanded in accordance with in-depth searching. Confidence degree of content is directly coupled with identity ratio of an entity, which means the degree of identit

      • KCI등재

        LOD 연결 신뢰성 향상을 위한 문법요소 보완적 연결성 평가 기법

        박재영(Jaeyoung Park),손용락(Yonglak Sohn) 한국정보과학회 2014 정보과학회논문지 : 데이타베이스 Vol.41 No.1

        LOD(Linking Open Data) 데이터집합은 개념에 대한 명세인 온톨로지에 기반하여 주어, 술어, 목적어로 작성된 RDF 트리플들로 구성되며 이를 공개 시 Linked Data 원칙에 의거하여 기존의 여러 LOD 데이터집합들과 연결시킴으로써 지식의 확장을 이룰 수 있도록 한다. 그러나, 의미적으로 유사한 사실들이 여러 LOD 데이터집합들에 걸쳐 상이한 형태로 존재하는 경우 이들의 유사성을 평가하여 연결을 결정하는 것은 어려운 문제이다. 기존 연구에서는 소스와 타겟 LOD 데이터집합의 술어들을 지정하고 이와 연결된 목적어 값들을 비교하는 방식으로 유사성을 평가하였다. 본 논문에서 제안하는 SALE(Syntax Added Link Evaluation)은 목적어 값 비교에 더하여 술어가 RDFS/OWL에서 가지는 문법적 의미를 면밀히 고찰하고 가중치를 부여한 후 유사성을 평가한다. SALE의 보다 정교한 평가구조는 연결의 신뢰수준을 향상시킨다. 또한, SALE은 연결 평가값을 분석한 결과를 LOD 공개자에게 제공하고 필요한 경우 가중치를 재조정하여 유사성 재평가를 요청할 수 있도록 함으로써 최종 연결의 신뢰성을 재차 개선한다. LOD(Linking Open Data) datasets are composed of RDF triples which are formed with subject, predicate, object and based on the ontology, a specification of a conceptualization. Publication of them leads to the knowledge expansion by linking them with other LOD datasets in accordance with the principles of linked data. If semantically similar things are spread over various LOD datasets but exist as different ones, however, it is difficult to evaluate the similarities and decide their linkages. Previous work evaluated the similarities by specifying the predicates and comparing their objects’ values of RDF triples in the source and the target LOD datasets. SALE(Syntax Added Link Evaluation), in addition to the comparison of objects’ values, gives careful consideration to the syntactic meanings of predicates in RDFS/OWL, assigns weight values to the predicates, and then evaluates the similarities. SALE’s elaborative evaluation improves the trustworthiness of links. SALE reports the analysis results of link evaluation to a publisher of the LOD dataset who may adjust weight values and request re-evaluation to improve the trustworthiness of final links.

      • 자료기지 보안 관리를 위한 이판 그래프 검증 기법

        김남규(Namgyu Kim),손용락(Yonglak Sohn),문송천(Songchun Moon) 한국정보과학회 1999 한국정보과학회 학술발표논문집 Vol.26 No.2Ⅰ

        다등급 보안 자료기지 관리체계는 하위 등급의 자료에 대한 쓰기 연산 및 상위 등급의 자료에 대한 읽기 연산을 불허하여, 상위 등급의 자료가 하위 등급의 거래에 노출되는 것을 방지한다. 하지만, 전통적인 다등급 보안 자료기지 관리체계는 서로 상이한 등급간 거래의 공모로 생성될 수 있는 비밀 경로는 차단할 수 없다. 이러한 비밀 경로의 생성을 막기 위한 여러 연구가 다중 버전의 환경 및 제한된 버전의 환경 하에서 수행되어 왔다. 하지만 다중 버전에 기반한 기법은 상위 등급의 거래가 지나치게 오래된 버전의 자료를 읽을 뿐 아니라 버전 관리를 위하여 추가적인 부담이 요구된다는 단점이 있고, 제한된 버전에 기반한 기법은 항상 상위 등급 거래의 지연 및 철회를 강요한다는 단점이 있다. 본 논문에서는 제한된 버전 하에서 직렬화 가능성 그래프 검사 기법을 사용하여, 각 보안 등급간의 형평성을 높일 수 있는 비밀 경로 생성 방지 기법을 제안한다.

      • KCI등재

        LOD 클라우드에서의 연결정책 기반 동일개체 심층검색 및 정제 시스템 구현

        김광민 ( Kwangmin Kim ),손용락 ( Yonglak Sohn ) 한국인터넷정보학회 2018 인터넷정보학회논문지 Vol.19 No.3

        본 연구에서는 동일연결트리플들을 생성하는 대신 각 LOD마다 연결정책을 수립, 공개하고 검색 시점에서 참조하는 방식으로 개체간의 동일성을 파악하는 방안과 이러한 연결정책을 명세하기 위한 어휘를 제안하였다. 또한, 연졀정책이 운영되는 환경에서 여러 LOD들에 걸친 심층검색이 실질적으로 진행되는 것을 확인하기 위하여 PISC(Policy based In-depth Searching and Cleansing)을 구현하였으며 이를 Github에 공개하였다. LOD 클라우드는 여러 LOD들의 자발적인 참여로 이루어짐에 따라 검색된 개체들의 동일성에 대한 평가가 필요하다. 이에, PISC는 개체간 동일성 평가를 통하여 사용자가 요구한 동일수준 이상의 개체들로 정제된 검색결과를 제공한다. 검색결과로는 RDF로 모델링된 개체별 상세 검색내용과 이에 대한 의미적 구조인 온톨로지를 함께 제공된다. PISC에 대한 실험은 DBpedia의 5개 LOD를 대상으로 진행하였으며 소스와 타겟 RDF 트리플 목적어의 유사도를 0.9 정도로 요구할 경우 검색결과가 적절한 확장률과 포함률을 가지는 것으로 확인하였다. 또한, 연결정책에는 3개 이상의 타겟LOD를 명세할 경우 동일성이 충분히 검증된 개체들을 확보할 수 있는 것으로 확인하였다. This paper suggests that LOD establishes its own link policy and publishes it to LOD cloud to provide identity among entities in different LODs. For specifying the link policy, we proposed vocabulary set founded on RDF model as well. We implemented Policy based In-depth Searching and Cleansing(PISC for short) system that proceeds in-depth searching across LODs by referencing the link policies. PISC has been published on Github. LODs have participated voluntarily to LOD cloud so that degree of the entity identity needs to be evaluated. PISC, therefore, evaluates the identities and cleanses the searched entities to confine them to that exceed user’s criterion of entity identity level. As for searching results, PISC provides entity’s detailed contents which have been collected from diverse LODs and ontology customized to the content. Simulation of PISC has been performed on DBpedia’s 5 LODs. We found that similarity of 0.9 of source and target RDF triples’ objects provided appropriate expansion ratio and inclusion ratio of searching result. For sufficient identity of searched entities, 3 or more target LODs are required to be specified in link policy.

      • KCI등재

        중소기업의 효율적 데이터 품질관리를 위한 스크럼 기반 표준관리 방안 : 'I'사 물류서비스 적용 사례

        김태윤(Tai-yun Kim),김남규(Namgyu Kim),손용락(Yonglak Sohn) 한국데이타베이스학회 2010 Journal of information technology applications & m Vol.17 No.1

        The competence of enterprise for managing information is evaluated not by the amount of information but by the quality of information such as response time, data consistency, and data correctness. The degradation of data quality is usually caused by the inappropriate process of managing the structure and value of stored data. According to the recent survey on the actual condition of data quality management, the correctness and consistency of data appeared to be the most problematic area among the six criteria of data quality management such as correctness, consistency, availability, timeliness, accessibility, and security. Moreover, the problem was more serious in case of small and medium-sized companies than large enterprises. In this paper, therefore, we attempt to propose a new data quality control methodology for small and medium-sized companies that can improve the correctness and consistency of data without consuming too much time and cost. To adopt the proposed methodology to real application immediately, we provided some scripts for as-is analysis and devised automation tools for managing naming rules of vocabulary, terminology, and data code. Additionally, we performed case study on the distribution service of a small-sized company to estimate the applicability of our tool and methodology.

      • KCI등재

        전자 주식 매매 시스템에서의 보안 트랜잭션 관리를 위한 단일 스냅샷 알고리즘

        김남규(Namgyu Kim),문송천(Songchun Moon),손용락(Yonglak Sohn) 한국정보과학회 2003 정보과학회논문지 : 데이타베이스 Vol.30 No.2

        최근 전자 상거래 인프라의 발전으로 인해, 온라인 상에서 주식의 매매가 이루어지는 전자 주식 매매 시스템(Electronic Stock Trading Systems: 약칭 ESTS)의 사용이 확산되고 있다. ESTS 상에서는, 다양한 기밀 등급을 가진 정보가 서로 다른 신뢰 등급을 갖는 사용자에 의해 공유된다. 특정 정보가 허가된 사용자에 의해서만 접근되도록 보장하기 위해서는, 트랜잭션의 동시성 제어 과정에서의 다등급 보안 데이타베이스 시스템의 사용이 반드시 필요하다. 한편 ESTS 상에서는 분석적인 성향의 트랜잭션과, 매매 체결을 목적으로 하는 실시간 트랜잭션이 동시에 수행되므로, 기존에 고안된 여러 보안 동시성 제어 기법들이 적용되는 데 어려움이 있다. 본 논문에서는 ESTS 환경에서의 보안 동시성 제어를 위한 프로토콜인 보안 단일 스냅샷(Secure One Snapshot: 약칭 SOS) 프로토콜을 제안한다. SOS는 운용 데이타베이스 외에 하나의 스냅샷을 추가로 유지하여 비밀 경로의 생성 가능성을 차단함과 동시에 실시간 동시성 제어 알고리즘이 용이하게 적용될 수 있는 유연성을 제공한다. 또한 SOS는 완화된 정확성 기준을 사용함으로써 데이타의 신선도를 유지하기 위해 관리되는 큐의 길이를 감소시킬 수 있는 방법도 제시한다. 본 논문에서는, SOS의 동작 과정을 예를 통해 소개하고, 프로토콜의 정확성에 대한 분석을 제공한다. Recent development of electronic commerce enables the use of Electronic Stock Trading Systems(ESTS) to be expanded. In ESTS, information with various sensitivity levels is shared by multiple users with mutually different clearance levels. Therefore, it is necessary to use Multilevel Secure Database Management Systems(MLS/DBMSs) in controlling concurrent execution among multiple transactions. In ESTS, not only analytical OLAP transactions, but also mission critical OLTP transactions are executed concurrently, which causes it difficult to adapt traditional secure transaction management schemes to ESTS environments. In this paper, we propose Secure One Snapshot(SOS) protocol that is devised for Secure Transaction Management in ESTS. By maintaining additional one snapshot as well as working database, SOS blocks covert-channel efficiently, enables various real-time transaction management schemes to be adapted with ease, and reduces the length of waiting queue being managed to maintain freshness of data by utilizing the characteristics of less strict correctness criteria. In this paper, we introduce the process of SOS protocol with some examples, and then analyze correctness of devised protocol.

      • 다단계 보안 데이터베이스 관리시스템에서의 보안거래관리

        손용락 서경대학교 1995 論文集 Vol.23 No.2

        In multi-level secure database management system (MLS/DBMS), every transaction and data has associated with a unique security. Concurrent transactions on MLS/DBMS potentially have conflicts while accessing the shared data. The conflicts result in some of the conflicting transactions to be delayed. If the delayed transactions have been cleared at low security level, an information may flow downward with the violation of security policy. This kind of communication channel is called covert channel. Several scheduling schemes for solving the covert channel problem had been presented. Although they had solved the covert channel problem, unfortunately, they had left alone other kinds of security problems, such as the availability and the integrity problems. Since computer security consists of maintaining the confidentiality, the availability, and the integrity, an attempt to acquire all the characteristics is necessary. Tightly secure transaction scheduling scheme, presented in this paper schedules concurrent transactions without any loss of the characteristics of security. The philosophy of the scheme is based on the concealment of uncommitted data. Besides, for the integrity, a trustworthy together with a recentness of a data is considered for discriminating the appropriateness of the data.

      • Multiversion Concurrency Controller for Secure Database Management Systems

        Sohn, Yonglak 서경대학교 산업기술연구소 1999 産業技術硏究所論文集 Vol.6 No.-

        While the secure concurrency controllers(SCCs) in multilevel secure database systems(MLS/DBMSs) synchronize transactions cleared at different security levels, they must consider the problem of covert channel. We propose a new SCC, named Verified Order-based secure concurrency controller(VO) that founds on multiversion database. VO maintains elaborated information about ordering relationships among transactions in a way of actively investigating and renewing the ordering relationships whenever it receives operations. With the elaborated information, it becomes capable of aborting transactions selectively whose noninterfered executions definitely violate one-copy serializability and providing more recent data versions to read requests than the other multiversion-based SCCs. Therefore, it comes to reduce the abort ratio and provide data versions of improved trustworthiness to transactions. By virtue of the elaborated information, moreover, VO is able to distinguish worthful versions and worthful transactions from worthless ones, so that it is capable lightening the burdens of maintaining multiple versions and accumulated transaction ordering relationships. For the aborts that are inevitable for preserving one-copy serializability, VO achieves security by deriving the conflicts to occur between transactions that have been cleared at the same security level.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼