RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        N<sub>2</sub>O 플라즈마 점화 하이브리드 로켓에 대한 실험적 연구

        김명진,김태규,Kim, Myoungjin,Kim, Taegyu 한국추진공학회 2019 한국추진공학회지 Vol.23 No.3

        아산화질소($N_2O$) 열분해를 위해 아크 플라즈마를 이용한 점화 실험을 수행하였다. 기존의 점화기들은 신뢰성 및 즉각적인 응답을 얻기 어렵다는 단점을 해결하기 위한 방안으로 플라즈마를 활용하는 방안을 제시하고자 하며, 점화기로써의 가능성을 보기 위해 가스 온도 측정 및 연소 실험을 수행하였다. 1 g/s, 0.7 A 조건에서 가장 안정적인 방전 특성을 보였으며 이때 측정된 벽면 부근의 온도는 약 $960^{\circ}C$이었다. 이를 바탕으로 하이브리드 로켓 연소 실험을 수행하였다. 플라즈마 방전 이후 약 3.1 sec만에 총 유량 10 g/s의 메인 연소가 성공적으로 이루어졌으며 점화에 필요한 플라즈마 발생을 위한 에너지 소모량은 1,780 J이었다. In this study, Arc plasma was employed for the thermal decomposition of nitrous oxide($N_2O$). Conventional ignition systems such as torch, spark, and catalyst systems, have disadvantages in that they are not reliable and do not provide rapid responses. Therefore, this study suggests the plasma application of plasma to overcome the problems of conventional ignition methods. A gas temperature and combustion experiment was carried out to investigate the feasibility to a novel igniter. The gas temperature was measured around $960^{\circ}C$ at 1 g/s, 0.7 A at the nearest wall. In addition, a combustion test was successfully conducted in 3.1 sec after the plasma discharge was initiated with a main flow rate of 10 g/s. The energy consumption for ignition was 1,780 J(574 W).

      • u-GIS 기반 건설정보화 혁신 기술개발 프로젝트를 위한 분산 실시간 시스템

        김명진(Myoungjin Kim),이한구(Hanku Lee),이동근(Dongkeun Lee),이원사(Wonsa Lee) 한국정보과학회 2008 한국정보과학회 학술발표논문집 Vol.35 No.2

        유비쿼터스 컴퓨팅 환경 하에서 진행되고 있는 “U-GIS 기반 건설정보화 혁신 기술개발” 프로젝트는 실시간으로 건설 현장에서 생성되는 각종 데이터 및 원격지 장비조작 등을 통합 관리하기 위해 실시간으로 데이터를 처리 할 수 있는 통합 관제 시스템을 필요로 한다. 공사현장의 분산된 각 노드 또는 센서에서 생성되는 데이터(위치정보 센서 데이터, 영상 정보 데이터 등)를 실시간으로 다량 처리하기 위해서 TMO모델을 통해 시간동기화를 거쳐 실제 공사 현장을 원격지에서 모니터링 할 수 있고, 현장의 장비를 조작 할 수 있는 TMO 기반의 실시간 제어, 데이터처리 시스템을 제안하고자 한다.

      • 에이전트와 EOB를 이용한 효율적인 MPEG-2 스트리밍 전송에 관한 연구

        김명진 ( Myoungjin Kim ),이병래 ( Byeong Rae Lee ) 한국정보처리학회 2004 한국정보처리학회 학술대회논문집 Vol.11 No.2

        두 시스템간의 MPEG-2 데이터를 전송할 때 발생되는 여러 가지의 지연으로 인하여 데이터를 제때 재생하지 못하는 경우가 발생할 수 있다. 본 논문에서는 이러한 문제점을 보완하기 위하여 전송률을 제어하는 에이전트를 설계하고 네트워크 상태에 따라 MPEG-2의 스케일링 기법(시간적, 공간적 스케일링 기법)을 적용하여 전송률을 조절하는 전송률 제어방식을 제시한다. 특히 공간적 스케일링 기법에서는 충실도에 따라 그룹별로 계층화하는데 있어서 블록의 EOB 위치를 조정하여 MPEG-2 비디오 비트스트림을 네트워크 QoS에 따라 다양한 화질로 전송될 수 있도록 하고 있다.

      • KCI등재

        클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현

        김명진 ( Myoungjin Kim ),한승호 ( Seungho Han ),최운 ( Yun Cui ),이한구 ( Hanku Lee ) 한국인터넷정보학회 2013 인터넷정보학회논문지 Vol.14 No.6

        컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다. Log data, which record the multitude of information created when operating computer systems, are utilized in many processes, from carrying out computer system inspection and process optimization to providing customized user optimization. In this paper, we propose a MongoDB-based unstructured log processing system in a cloud environment for processing the massive amount of log data of banks. Most of the log data generated during banking operations come from handling a client`s business. Therefore, in order to gather, store, categorize, and analyze the log data generated while processing the client`s business, a separate log data processing system needs to be established. However, the realization of flexible storage expansion functions for processing a massive amount of unstructured log data and executing a considerable number of functions to categorize and analyze the stored unstructured log data is difficult in existing computer environments. Thus, in this study, we use cloud computing technology to realize a cloud-based log data processing system for processing unstructured log data that are difficult to process using the existing computing infrastructure`s analysis tools and management system. The proposed system uses the IaaS (Infrastructure as a Service) cloud environment to provide a flexible expansion of computing resources and includes the ability to flexibly expand resources such as storage space and memory under conditions such as extended storage or rapid increase in log data. Moreover, to overcome the processing limits of the existing analysis tool when a real-time analysis of the aggregated unstructured log data is required, the proposed system includes a Hadoop-based analysis module for quick and reliable parallel-distributed processing of the massive amount of log data. Furthermore, because the HDFS (Hadoop Distributed File System) stores data by generating copies of the block units of the aggregated log data, the proposed system offers automatic restore functions for the system to continually operate after it recovers from a malfunction. Finally, by establishing a distributed database using the NoSQL-based Mongo DB, the proposed system provides methods of effectively processing unstructured log data. Relational databases such as the MySQL databases have complex schemas that are inappropriate for processing unstructured log data. Further, strict schemas like those of relational databases cannot expand nodes in the case wherein the stored data are distributed to various nodes when the amount of data rapidly increases. NoSQL does not provide the complex computations that relational databases may provide but can easily expand the database through node dispersion when the amount of data increases rapidly; it is a non-relational database with an appropriate structure for processing unstructured data. The data models of the NoSQL are usually classified as Key-Value, column-oriented, and document-oriented types. Of these, the representative document-oriented data model, MongoDB, which has a free schema structure, is used in the proposed system. MongoDB is introduced to the proposed system because it makes it easy to process unstructured log data through a flexible schema structure, facilitates flexible node expansion when the amount of data is rapidly increasing, and provides an Auto-Sharding function that automatically expands storage. The proposed system is composed of a log collector module, a log graph generator module, a MongoDB module, a Hadoop-based analysis module, and a MySQL module. When the log data generated over the entire client business process of each bank are sent to the cloud server, the log collector module collects and classifies data according to the type of log data and distributes it to the MongoDB module and the MySQL module. The log graph generator module generates the results of the log analysis of the MongoDB module, Hadoop-based analysis module, and the MySQL module per analysis time and type of the aggregated log data, and provides them to the user through a web interface. Log data that require a real-time log data analysis are stored in the MySQL module and provided real-time by the log graph generator module. The aggregated log data per unit time are stored in the MongoDB module and plotted in a graph according to the user`s various analysis conditions. The aggregated log data in the MongoDB module are parallel-distributed and processed by the Hadoop-based analysis module. A comparative evaluation is carried out against a log data processing system that uses only MySQL for inserting log data and estimating query performance; this evaluation proves the proposed system`s superiority. Moreover, an optimal chunk size is confirmed through the log data insert performance evaluation of MongoDB for various chunk sizes.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼