RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재후보

        클라우드 컴퓨팅 서비스를 활용한 정보자산관리시스템 실행 모델에 관한 연구

        강현철 ( Hyun-chul Kang ) K·기업경영연구원 2020 KBM Journal(K Business Management Journal) Vol.4 No.2

        현대인은 휴대전화, PAD 등 다양한 단말기를 이용하여 인터넷 환경에 접속하고 있다. 이로 인해 컴퓨팅 서비스의 패러다임도 근본적인 변화에 직면하고 있다. 컴퓨팅 자원을 활용해 언제 어디서나 편리하게 사용자의 요구에 맞춰 네트워크 접근과 사용을 가능하게 하는 클라우드 컴퓨팅모델이 주목받고 있는 이유다. 본 연구는 클라우드 컴퓨팅 서비스를 활용한 IT정보자산관리시스템 실행 모델을 중심으로 연구하고자 한다. 첫째, 클라우드 컴퓨팅의 등장배경과 개념에 대해 검토하고자 한다. 둘째, 클라우드 컴퓨팅rhk 기존컴퓨팅과의 차이점에 대해 살펴보고자 한다. 셋째, 클라우드 기반 IT정보자산관리시스템의 실행 모델을 알아본다. 넷째, 연구결과와 시사점을 도출한다. 4차 산업혁명 시대의 인공지능(AI), 데이터 분석 등 다양한 기능의 구현에 필요한 기본적인 인프라로 인식하고 기업들은 앞다투어 클라우드 컴퓨팅을 도입하고 있다. 따라서 본 연구에서는 다음과 같은 연구결과를 도출하였다. 첫째, 현재의 클라우드 컴퓨팅 기술을 바탕으로 기업의 IT 정보자산의 효율적 운용을 위한 IT정보자산 관리시스템의 적극적 도입이 필요하다. 다만 기업의 실정에 맞는 맞춤형 선택적 도입이 필요하다. 둘째, 클라우드 기반으로 기존의 IT 자산운영시스템과 새로운 IT 정보자산관리시스템을 상호 간 운영하면 서버 구축, 운영 비용 등의 절감효과가 있지만 보안 문제에 취약하다. 셋째, 중소기업의 IT정보자산관리시스템 도입에 있어 로컬과 클라우드 컴퓨팅(SaaS)을 혼합한 방식으로 기존의 시스템 체계를 최대한 유지하는 것이 효과적이다. 기업의 클라우드 컴퓨팅 도입과 전환을 위해서는 기업 개발체계의 변화가 동반되어야 한다. 즉, 개발과 운용을 통합하는 전주기적 개발체계의 운영으로 양질의 클라우드 서비스를 사용자에게 제공할 수 있는 기업 개발체계의 전사적 변화가 필요하다 Modern people have access to the Internet environment using various terminals such as mobile phones and PADs. As a result, the paradigm of computing services is also facing fundamental changes. This is the fundamental reason why cloud computing is attracting attention today, where the network services and IT resources are available regardless of the user's environment. This study aims to focus on the execution model of IT information Asset Management System using cloud computing services. Specifically, first, it examines the emerging background and concept of cloud computing. Second, it explores the differences between cloud computing and traditional computing. Third, it introduces the implementation model of cloud-based the execution model of IT information Asset Management System. Fourth, research results and implications are derived. As the importance of introducing an IT information asset management system is increasing. In particular, it is recognized as a basic infrastructure necessary to implement various functions such as artificial intelligence (AI) and data analysis in the era of the fourth industrial revolution, and companies are scrambling to introduce cloud computing. Therefore, in this paper, the following findings are derived: First, based on current cloud computing technology, it is necessary to actively introduce an IT information asset management system for the efficient operation of an enterprise's IT information assets. Second, if the existing IT asset management system and the new IT information asset management system are operated mutually based on the cloud, the cost burden such as server construction and operation is low, but security problems are vulnerable. Third, it is effective to maintain the existing system system as much as possible by combining local and cloud computing (SaaS) in introducing IT information asset management systems. Changes in the company's development system must be accompanied by innovations in the company's cloud computing introduction and transition. In other words, a wide change in the company's development system is needed to provide quality cloud services to users through the operation of a pre-cycle development system that integrates development and operation.

      • KCI등재

        클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현

        김명진 ( Myoungjin Kim ),한승호 ( Seungho Han ),최운 ( Yun Cui ),이한구 ( Hanku Lee ) 한국인터넷정보학회 2013 인터넷정보학회논문지 Vol.14 No.6

        컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다. Log data, which record the multitude of information created when operating computer systems, are utilized in many processes, from carrying out computer system inspection and process optimization to providing customized user optimization. In this paper, we propose a MongoDB-based unstructured log processing system in a cloud environment for processing the massive amount of log data of banks. Most of the log data generated during banking operations come from handling a client`s business. Therefore, in order to gather, store, categorize, and analyze the log data generated while processing the client`s business, a separate log data processing system needs to be established. However, the realization of flexible storage expansion functions for processing a massive amount of unstructured log data and executing a considerable number of functions to categorize and analyze the stored unstructured log data is difficult in existing computer environments. Thus, in this study, we use cloud computing technology to realize a cloud-based log data processing system for processing unstructured log data that are difficult to process using the existing computing infrastructure`s analysis tools and management system. The proposed system uses the IaaS (Infrastructure as a Service) cloud environment to provide a flexible expansion of computing resources and includes the ability to flexibly expand resources such as storage space and memory under conditions such as extended storage or rapid increase in log data. Moreover, to overcome the processing limits of the existing analysis tool when a real-time analysis of the aggregated unstructured log data is required, the proposed system includes a Hadoop-based analysis module for quick and reliable parallel-distributed processing of the massive amount of log data. Furthermore, because the HDFS (Hadoop Distributed File System) stores data by generating copies of the block units of the aggregated log data, the proposed system offers automatic restore functions for the system to continually operate after it recovers from a malfunction. Finally, by establishing a distributed database using the NoSQL-based Mongo DB, the proposed system provides methods of effectively processing unstructured log data. Relational databases such as the MySQL databases have complex schemas that are inappropriate for processing unstructured log data. Further, strict schemas like those of relational databases cannot expand nodes in the case wherein the stored data are distributed to various nodes when the amount of data rapidly increases. NoSQL does not provide the complex computations that relational databases may provide but can easily expand the database through node dispersion when the amount of data increases rapidly; it is a non-relational database with an appropriate structure for processing unstructured data. The data models of the NoSQL are usually classified as Key-Value, column-oriented, and document-oriented types. Of these, the representative document-oriented data model, MongoDB, which has a free schema structure, is used in the proposed system. MongoDB is introduced to the proposed system because it makes it easy to process unstructured log data through a flexible schema structure, facilitates flexible node expansion when the amount of data is rapidly increasing, and provides an Auto-Sharding function that automatically expands storage. The proposed system is composed of a log collector module, a log graph generator module, a MongoDB module, a Hadoop-based analysis module, and a MySQL module. When the log data generated over the entire client business process of each bank are sent to the cloud server, the log collector module collects and classifies data according to the type of log data and distributes it to the MongoDB module and the MySQL module. The log graph generator module generates the results of the log analysis of the MongoDB module, Hadoop-based analysis module, and the MySQL module per analysis time and type of the aggregated log data, and provides them to the user through a web interface. Log data that require a real-time log data analysis are stored in the MySQL module and provided real-time by the log graph generator module. The aggregated log data per unit time are stored in the MongoDB module and plotted in a graph according to the user`s various analysis conditions. The aggregated log data in the MongoDB module are parallel-distributed and processed by the Hadoop-based analysis module. A comparative evaluation is carried out against a log data processing system that uses only MySQL for inserting log data and estimating query performance; this evaluation proves the proposed system`s superiority. Moreover, an optimal chunk size is confirmed through the log data insert performance evaluation of MongoDB for various chunk sizes.

      • KCI등재

        금융회사의 클라우드컴퓨팅서비스 사용에 따른 법적 규제에 관한 연구

        강현구,이상후 한국금융법학회 2020 金融法硏究 Vol.17 No.2

        With the recent expansion of the use of "cloud computing services" in which users receive and pay only as much computing power, database storage, applications and other IT resources as needed, financial institutions have also begun to discuss the introduction of cloud computing services, and with the implementation of the amended Electronic Financial Supervisory Regulation effective as of January 1, 2019, it paved the way for financial institutions to utilize cloud computing services for their information processing systems. However, even now, one year after its implementation, all regulations that can be applied to information processing systems operated by financial institutions are not overhauled, raising various questions about how to consider various regulatory risks in the process of introducing cloud computing services, and how to solve regulatory barriers that do not meet the reality of cloud computing services in practice and from the technological perspective. Accordingly, there have been only a few cases where financial institutions have implemented the use and operation of cloud computing services for their information processing systems. In this paper, the current legal regulations that financial institutions should comply with in the process of utilizing and operating cloud computing services are divided into pre-regulation and post-regulation periods. This paper also examines the characteristics of a financial institution that intends to use and operate cloud computing service, the relationships of related businesses, problems and gaps in current legal regulations that may arise in practice according to the business structure of the actual cloud computing service providers, and discusses ways to ensure the rationality and practicality of regulations in light of the reality of the actual cloud computing service, and the direction in which relevant regulations should move forward. 최근 이용자가 필요한 만큼의 컴퓨팅 파워, 데이터베이스 스토리지, 애플리케이션 및 기타 IT 리소스를 제공받고 사용한 만큼만 비용을 지불하는 “클라우드컴퓨팅 서비스” 이용이 확대되면서 금융회사에서도 클라우드컴퓨팅 서비스 도입에 관한 논의가 시작되었고, 2019. 1. 1.자로 개정 전자금융감독규정이 시행되면서 금융회사에서 사용하는 모든 정보처리시스템을 클라우드컴퓨팅 서비스를 이용하여 제공할 수 있는 길이 열리게 되었다. 그러나 시행 1년이 넘어가는 지금에도 금융회사가 운영하는 정보처리시스템에 적용될 수 있는 규제가 모두 정비되지 않아 클라우드컴퓨팅 서비스를 도입하려는 과정에서 다양한 규제 리스크를 고려하여야 하고, 실무적·기술적으로도 클라우드컴퓨팅 서비스의 현실과 맞지 않는 규제 장벽을 어떻게 해결하여야 하는지 다양한 의문이 제기되고 있어 실제 중요시스템을 클라우드컴퓨팅 서비스를 도입하여 운용하는 사례가 미미한 실정이다. 본 논문에서는 금융회사가 클라우드컴퓨팅 서비스를 사용하려는 과정에서 준수하여야 하는 현행 법적 규제를 도입단계 규제와 운영단계 규제로 나누어 분석하였다. 또한 금융회사가 클라우드컴퓨팅 서비스를 이용하려는 경우 그 특성과 관련 사업자들의 관계, 실제 클라우드컴퓨팅 서비스 제공자들의 사업구조에 따라 실무적으로 발생할 수 있는 현행 법적 규제의 문제점과 공백을 살펴보고, 실제 클라우드컴퓨팅 서비스의 현실에 비추어 규제의 합리성과 현실성을 담보할 수 있는 방안, 그리고 앞으로 관련 규제가 나아가야 할 방향을 고찰하였다.

      • KCI등재

        개인정보관리체계계(PIMS)를 이용한 클라우드컴퓨팅 개인정보 보안 개선 방안 연구

        정혜인,김성준,Jeong, Hyein,Kim, Seongjun 디지털산업정보학회 2016 디지털산업정보학회논문지 Vol.12 No.3

        Recently, in the adoption of cloud computing are emerging as locations are key requirements of security and privacy, at home and abroad, several organizations recognize the importance of privacy in cloud computing environments and research-based transcription and systematic approach in progress have. The purpose of this study was to recognize the importance of privacy in the cloud computing environment based on personal information security methodology to the security of cloud computing, cloud computing, users must be verified, empirical research on the improvement plan. Therefore, for existing users of enhanced security in cloud computing security consisted framework of existing cloud computing environments. Personal information protection management system: This is important to strengthen security for existing users of cloud computing security through a variety of personal information security methodology and lead to positive word-of-mouth to create and foster the cloud industry ubiquitous expression, working environments.

      • KCI등재

        클라우드 컴퓨팅을 이용한 유시티 비디오 빅데이터 분석

        이학건 ( Hak Geon Lee ),윤창호 ( Chang Ho Yun ),박종원 ( Jong Won Park ),이용우 ( Yong Woo Lee ) 한국인터넷정보학회 2014 인터넷정보학회논문지 Vol.15 No.3

        유비쿼터스 시티(유시티)에서는 수많은 비디오 카메라들이 설치된다. 이렇게 설치된 많은 카메라로부터 대용량의 비디오 데이터가 실시간으로 끊임없이 발생하고 유시티의 관리 시스템으로 전달된다. 유시티의 다양한 서비스들을 뒷받침하기 위해서는 이러한 비디오 데이터를 저장하고, 이렇게 저장된 대용량의 비디오 데이터를 분석할 수 있는 방법과 관리 시스템이 요구된다. 그래서, 이 논문에서는 클라우드 컴퓨팅을 기반으로 한 유시티 비디오 관리 시스템을 제안한다. 또한, 근래 주목받고 있는 데이터 병렬처리 프레임워크인 Hadoop MapReduce를 이용하여 이러한 빅데이터 비디오를 분석하는 방법을 제안하고, 이에 따른 우리의 성능 평가를 소개한다. The Ubiquitous-City (U-City) is a smart or intelligent city to satisfy human beings` desire to enjoy IT services with any device, anytime, anywhere. It is a future city model based on Internet of everything or things (IoE or IoT). It includes a lot of video cameras which are networked together. The networked video cameras support a lot of U-City services as one of the main input data together with sensors. They generate huge amount of video information, real big data for the U-City all the time. It is usually required that the U-City manipulates the big data in real-time. And it is not easy at all. Also, many times, it is required that the accumulated video data are analyzed to detect an event or find a figure among them. It requires a lot of computational power and usually takes a lot of time. Currently we can find researches which try to reduce the processing time of the big video data. Cloud computing can be a good solution to address this matter. There are many cloud computing methodologies which can be used to address the matter. MapReduce is an interesting and attractive methodology for it. It has many advantages and is getting popularity in many areas. Video cameras evolve day by day so that the resolution improves sharply. It leads to the exponential growth of the produced data by the networked video cameras. We are coping with real big data when we have to deal with video image data which are produced by the good quality video cameras. A video surveillance system was not useful until we find the cloud computing. But it is now being widely spread in U-Cities since we find some useful methodologies. Video data are unstructured data thus it is not easy to find a good research result of analyzing the data with MapReduce. This paper presents an analyzing system for the video surveillance system, which is a cloud-computing based video data management system. It is easy to deploy, flexible and reliable. It consists of the video manager, the video monitors, the storage for the video images, the storage client and streaming IN component. The “video monitor” for the video images consists of “video translater” and “protocol manager”. The “storage” contains MapReduce analyzer. All components were designed according to the functional requirement of video surveillance system. The "streaming IN" component receives the video data from the networked video cameras and delivers them to the "storage client". It also manages the bottleneck of the network to smooth the data stream. The "storage client" receives the video data from the "streaming IN" component and stores them to the storage. It also helps other components to access the storage. The "video monitor" component transfers the video data by smoothly streaming and manages the protocol. The "video translator" sub-component enables users to manage the resolution, the codec and the frame rate of the video image. The "protocol" sub-component manages the Real Time Streaming Protocol (RTSP) and Real Time Messaging Protocol (RTMP). We use Hadoop Distributed File System(HDFS) for the storage of cloud computing. Hadoop stores the data in HDFS and provides the platform that can process data with simple MapReduce programming model. We suggest our own methodology to analyze the video images using MapReduce in this paper. That is, the workflow of video analysis is presented and detailed explanation is given in this paper. The performance evaluation was experiment and we found that our proposed system worked well. The performance evaluation results are presented in this paper with analysis. With our cluster system, we used compressed 1920x1080(FHD) resolution video data, H.264 codec and HDFS as video storage. We measured the processing time according to the number of frame per mapper. Tracing the optimal splitting size of input data and the processing time according to the number of node, we found the linearity of the system performance.

      • KCI등재

        A Case Study on the Establishment of Cloud Management System in Data Centers: Focusing onG-Cloud Application Case

        Hee-Don Jang,Seung-Cheon Kim 중소기업융합학회 2019 융합정보논문지 Vol.9 No.9

        본 ‘클라우드컴퓨팅 발전 및 이용자 보호에 관한 법률’이 시행됨에 따라 이에 맞추어 국내 공공 및 민간기업에서 클라우드 컴퓨팅이라는 새로운 패러다임에 대한 관심이 고조되고 있다. 국내 클라우드 시장 선점을 위해서는 국내 통신사, SI 및 SW업체 등이 시장에 진출하고 있으나 글로벌 기업에 비해 경쟁력이 낮다. 따라서 국내기업은 국내시장에 특화된 SaaS 제품 개발을 하고 글로벌 기업에 앞선 IaaS 시장 선점을 위해 노력해야 할 것이다. 본 논문에서는 클라우드 컴퓨팅 개념과 G-클라우드의 클라우드관리시스템(G-CMS) 구축사례를 통해 향후 관련 산업의 발전방향 전망에 대해 알아본다. G-CMS는 이기종 Unix 가상화 시스템을 종합적으로 관리하는 최초의 시스템으로 볼 수 있습니다. 또한 G-CMS는 데이터 센터에서 이기종 가상화 시스템을 관리함으로써 비용을 절감할 수 있습니다. According to the enforcement of the Cloud Computing Development and User Protection Act, a new paradigm called as Cloud Computing is coming to the fore among public and private domestic enterprises. Therefore, domestic companies should develop SaaS products specialized for the domestic market and try to preempt the IaaS market ahead of global companies. Now we are facing a necessity to combine all the cloud systems in Korean government to operate seamlessly in a harmony. In this paper, we will look at the prospect of future development of related industry through cloud computing concept and G-cloud's cloud management system (G-CMS). G-CMS can be seen as the first system to comprehensively manage heterogeneous Unix virtualization systems. G-CMS can also save costs by managing heterogeneous virtualization systems in data centers.

      • KCI등재

        AHP를 이용한 국내 사이버대학교 클라우드 컴퓨팅 시스템 구축 성공 요인의 중요도 분석

        강태구,김영렬 한국융합학회 2022 한국융합학회논문지 Vol.13 No.1

        전 세계적으로 COVID-19의 초유 사태로 온라인 교육은 언택트 시대의 필수 요소로 자리 잡았고 4차 산업혁명시대에 맞는 다양한 콘텐츠와 시스템 변화에 대한 중요성도 증가되고 있는 실정이다. 대학에서도 ICT 기술의 접목과 새로운 시스템 설계, 구현을 위해 노력하는 상황이지만 클라우드 컴퓨팅 시스템 구축 관련 인식과 분위기는 미흡한 실정이다. 이에 본 연구 에서는 업무 특성과 규모를 구분하여 “국내 사이버대학교 클라우드 컴퓨팀 시스템 구축”성공 요인의 중요도 분석을 조직 및 개인의 차원을 고려하여 중요도 우선순위를 도출하여 분석하고자한다. 클라우드 컴퓨팅에 관련 지식이 있는 전문가 설문을 통해 선행연구와 모형들 중에서 14개의 중요 요인을 도출하였다. AHP를 이용하여 클라우드 컴퓨팅 시스템 구축 성공 요인들에 대하여 어떠한 차이를 보이는지 분석하였다. 본 연구에서 제시된 성공 요인은 고등교육 기관뿐만 아니라 공공 정보시스템의 민간 클라 우드 컴퓨팅 시스템 구축 성공을 위한 요인 도출에 목적을 두고 체계적인 전략 수립의 기반 자료로 활용되기를 기대한다. Amid the unprecedented situation of COVID-19 around the world, online education has established itself as an essential element in the era of zero contact and the importance of various content and changes of the system that are appropriate for the era of the 4th industrial revolution has increased. Although universities are making their efforts to combine ICT technologies and design and achieve new systems, the recognition and atmosphere for establishing the cloud computing system are falling short. The purpose of this research importance of success factors of "Building a cloud computing system of cyber university in Korea" by classifying the work characteristics and scale, and to derive and analyze the importance cloud rankings considering the organization and individual dimension. Therefore, this study has drawn 14 major factors in the previous researches and models through the survey on experts with knowledge related to the cloud computing. The analysis was conducted to see what differences there are in factors for the successful establishment of the cloud computing system using AHP. It is expected that the factors for success presented through this study would be used as systemic strategies and tools for the purpose of drawing factors for the success of establishing the private cloud computing system for the higher education institutions and public information systems.

      • Research on Improved Hadoop Distributed File System in Cloud Rendering

        Ren Qin,Gao Jue,Gao Honghao,Bian Minjie,Xu Huahu,Feng Weibing 보안공학연구지원센터 2016 International Journal of Database Theory and Appli Vol.9 No.11

        With the rapid development of cloud computing technology, it’s the cloud rendering that cloud computing is applied to render the job in CG (Computer Graphic) industry. The cloud rendering can handle a large number of rendering requests which are enormous pressure for back-end servers in system. Facing with massive data and computing resources, the bottleneck of original HDFS (Hadoop Distributed File System) based on cloud computing has become more and more prominent, such as the failure of single Namenode, scalability issues. Therefore, the paper proposed an improved HDFS which evolved a single Namenode into multi-Namenode. In HDFS, Metadata management is very important. So this paper presented a two-level Metadata distribution algorithm. The two-level algorithm was based on the principle that different distribution strategies were used to different categories of Metadata. The experiments verified that the improved HDFS effectively improved the performance of the system.

      • SCIESCOPUSKCI등재

        Dynamic Service Assignment based on Proportional Ordering for the Adaptive Resource Management of Cloud Systems

        ( Romeo Mark A. Mateo ),( Jaewan Lee ) 한국인터넷정보학회 2011 KSII Transactions on Internet and Information Syst Vol.5 No.12

        The key issue in providing fast and reliable access on cloud services is the effective management of resources in a cloud system. However, the high variation in cloud service access rates affects the system performance considerably when there are no default routines to handle this type of occurrence. Adaptive techniques are used in resource management to support robust systems and maintain well-balanced loads within the servers. This paper presents an adaptive resource management for cloud systems which supports the integration of intelligent methods to promote quality of service (QoS) in provisioning of cloud services. A technique of dynamically assigning cloud services to a group of cloud servers is proposed for the adaptive resource management. Initially, cloud services are collected based on the excess cloud services load and then these are deployed to the assigned cloud servers. The assignment function uses the proposed proportional ordering which efficiently assigns cloud services based on its resource consumption. The difference in resource consumption rate in all nodes is analyzed periodically which decides the execution of service assignment. Performance evaluation showed that the proposed dynamic service assignment (DSA) performed best in throughput performance compared to other resource allocation algorithms.

      • KCI등재

        의료 산업 분야에서 클라우드 컴퓨팅의 기회와 도전

        이욱현 한국지식정보기술학회 2023 한국지식정보기술학회 논문지 Vol.18 No.6

        The latest trendy new approach to successfully delivering IT services is through cloud computing. Medicine is becoming an increasingly data-intensive field, which generates large amounts of data that must be stored and later accessed. This has led to a growing need for dynamic and scalable resources. The main body of this research shows that cloud technologies that fulfill these requirements can improve service quality in healthcare. Cloud computing, like any other technological advancement, must be thoroughly evaluated before it is widely used. Many researchers and clinicians are interested in the availability of large-scale, rapidly available, reconfigurable resources such as virtual systems, platforms, and applications at minimal service costs. This study thoroughly analyzes the academic literature on cloud computing in healthcare. It proposes a classification methodology into five categories: cloud-based green healthcare in healthcare, cloud-based framework development, virtual machine deployment in healthcare, cloud-based healthcare security, and broker development in healthcare. The authors reviewed 227 papers and narrowed them down to 40. The modern concept of "service" emphasizes creative approaches to delivering value to customers. Future research should include a broader view of IT service delivery with service value components such as scalability, reliability, and security and should investigate the benefits and challenges of data sharing as well as the regulatory compliance of CSPs providing these services. The integration of cloud computing for decision support in the healthcare industry holds great potential for academics and practitioners, as cloud-based systems can provide access to the multidimensional data needed for decision making.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼