RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        분산형 레이어 7 서버 부하 분산

        권희웅,곽후근,정규식,Kwon, Hui-Ung,Kwak, Hu-Keun,Chung, Kyu-Sik 한국정보처리학회 2008 정보처리학회논문지 A Vol.15 No.4

        무선 인터넷 프록시 서버 클러스터링에서 저장공간을 최소화하기 위해서는 URL 해싱기법을 가진 Layer 7 부하분산기가 필요하다. 서버 클러스터 앞단에 위치한 Layer 4 부하분산기는 TCP 또는 UDP와 같은 트랜스포트 계층에서 컨텐츠 내용을 확인하지 않고 사용자 요청들을 똑같은 컨텐츠를 가진 서버들에게 분배한다. 서버 클러스터 앞단에 위치한 Layer 7 부하분산기는 응용계층에서 사용자 요청을 분석하여 요청 컨텐츠 유형에 따라 해당되는 서버들에게 분배한다. Layer 7 부하분산기를 이용하면 서버들이 배타적으로 각기 다른 컨텐츠를 가지게 할 수 있어서 서버들 저장공간을 최소화할 수 있으며 전체 클러스터 성능을 향상할 수 있다. 그러나 Layer 7 부하분산기는 응용계층에서 사용자 요청을 분석하는데 요구되는 큰 처리 부담으로 인해 Layer 4 부하분산기와 다르게 확장성이 제한된다. 본 논문에서는 그 확장성 제한을 극복하기 위해서 분산형 Layer 7 부하분산기를 제안한다. 종래의 방법에서는 한 대의 Layer 7 부하분산기 를 사용하는데 본 논문에서 제안한 방법에서는 서버 클러스터 앞에 한 대의 Layer 4 부하분산기를 설치하고 서버들에게 Layer 7 부하분산기들을 각각 설치한다. 클러스터 기반의 무선 인터넷 프록시 서버에서 종래의 방법을 리눅스기반의 Layer 7 부하분산기인 KTCPVS를 이용하여 구현하였다. 본 논문에서 제안한 방법에서는 리눅스기반의 Layer 4 부하분산기인 IPVS를 사용하고 각 서버들에게 Layer 7 부하분산기인 KTCPVS를 설치하여 같이 동작하게 구현하였다. 실험은 16대의 컴퓨터를 사용하여 수행되었고, 실험 결과에 의하면 제안 방법이 종래 방법에 비해 서버 대수가 증가함에 따라 확장성 및 높은 성능 향상률을 가짐을 확인하였다. A Clustering based wireless internet proxy server needs a layer-7 load balancer with URL hashing methods to reduce the total storage space for servers. Layer-4 load balancer located in front of server cluster is to distribute client requests to the servers with the same contents at transport layer, such as TCP or UDP, without looking at the content of the request. Layer-7 load balancer located in front of server cluster is to parse client requests in application layer and distribute them to servers based on different types of request contents. Layer 7 load balancer allows servers to have different contents in an exclusive way so that it can minimize the total storage space for servers and improve overall cluster performance. However, its scalability is limited due to the high overhead of parsing requests in application layer as different from layer-4 load balancer. In order to overcome its scalability limitation, in this paper, we propose a distributed layer-7 load balancer by replacing a single layer-7 load balancer in the conventional scheme by a single layer-4 load balancer located in front of server cluster and a set of layer-7 load balancers located at server cluster. In a clustering based wireless internet proxy server, we implemented the conventional scheme by using KTCPVS(Kernel TCP Virtual Server), a linux based layer-7 load balancer. Also, we implemented the proposed scheme by using IPVS(IP Virtual Server), a linux-based layer-4 load balancer, installing KTCPVS in each server, and making them work together. We performed experiments using 16 PCs. Experimental results show scalability and high performance of the proposed scheme, as the number of servers grows, compared to the conventional scheme.

      • KCI등재

        멀티코어 시스템에서 흐름 수준 병렬처리에 기반한 리눅스 TCP/IP 스택의 성능 개선

        권희웅,정형진,곽후근,김영종,정규식,Kwon, Hui-Ung,Jung, Hyung-Jin,Kwak, Hu-Keun,Kim, Young-Jong,Chung, Kyu-Sik 한국정보처리학회 2009 정보처리학회논문지 A Vol.16 No.2

        최근 멀티코어가 장착된 시스템이 증가하면서 이를 통한 애플리케이션 성능향상에 대한 노력이 계속 되어왔다. 하나의 시스템에 다수의 처리장치가 존재함으로 인해 프로세싱 파워는 기존보다 증가했지만 기존의 소프트웨어나 하드웨어들은 싱글코어 시스템에 적합하게 설계된 경우가 많아 멀티코어의 이점을 충분히 활용하지 못하고 있는 경우가 많다. 기존의 많은 소프트웨어들은 멀티코어 상에서 공유 자원에 대한 병목현상과 비효율적인 캐시 메모리 사용으로 인하여 충분한 성능향상을 기대하기 어려우며 이러한 문제점들로 인하여 기존 소프트웨어는 코어의 개수에 비례한 성능을 얻지 못하며, 최악의 경우 오히려 감소될 수 있다. 본 논문에서는 TCP/IP를 사용하는 기존의 네트워크 애플리케이션과 운영체제에 흐름 수준 병렬처리 기법을 적용하여 성능을 증가 시킬 수 있는 방법을 제안한다. 제안된 방식은 개별 코어단위로 네트워크 애플리케이션, 운영체제의 TCP/IP 스택, 디바이스 드라이버, 네트워크 인터페이스가 서로 간섭 없이 작동할 수 있는 환경을 구성하며, L2 스위치를 통해 각 코어 단위로 트래픽을 분산하는 방법을 적용하였다. 이를 통해 각 코어 간에 애플리케이션의 데이터 및 자료구조, 소켓, 디바이스 드라이버, 네트워크 인터페이스의 공유를 최소화하여, 각 코어간의 자원을 차지하기 위한 경쟁을 최소화하고 캐시 히트율을 증가시킨다. 이를 통하여 8개의 멀티코어를 사용하였을 경우 네트워크 접속속도와 대역폭이 코어의 개수에 따라 선형적으로 증가함을 실험을 통해 입증하였다. With increasing multicore system, much effort has been put on the performance improvement of its application. Because multicore system has multiple processing devices in one system, its processing power increases compared to the single core system. However in many cases the advantages of multicore can not be exploited fully because the existing software and hardware were designed to be suitable for single core. When the existing software runs on multicore, its performance improvement is limited by the bottleneck of sharing resources and the inefficient use of cache memory on multicore. Therefore, according as the number of core increases, it doesn't show performance improvement and shows performance drop in the worst case. In this paper we propose a method of performance improvement of multicore system by applying Flow-Level Parallelism to the existing TCP/IP network application and operating system. The proposed method sets up the execution environment so that each core unit operates independently as much as possible in network application, TCP/IP stack on operating system, device driver, and network interface. Moreover it distributes network traffics to each core unit through L2 switch. The proposed method allows to minimize the sharing of application data, data structure, socket, device driver, and network interface between each core. Also it allows to minimize the competition among cores to take resources and increase the hit ratio of cache. We implemented the proposed methods with 8 core system and performed experiment. Experimental results show that network access speed and bandwidth increase linearly according to the number of core.

      • KCI등재

        서버 클러스터 환경에서 에너지 절약을 위한 향상된 서버 전력 소비 추정 모델

        김동준,곽후근,권희웅,김영종,정규식,Kim, Dong-Jun,Kwak, Hu-Keun,Kwon, Hui-Ung,Kim, Young-Jong,Chung, Kyu-Sik 한국정보처리학회 2012 정보처리학회논문지 A Vol.19 No.3

        서버 클러스터 환경에서 에너지 절약을 위한 방법 중 하나는 서버의 전원을 트래픽 상황에 맞게 제어하는 전원 제어 기술이다. 이는 현재 데이터 센터의 전체 에너지 사용량과 각 서버의 에너지 사용량을 파악하여 적절하게 ON/OFF 상태로 관리하는 기술이다. 이를 위해서 각 서버의 전력을 효과적으로 추정하는 방식이 필요한데, 본 논문에서는 비용 면과 에너지 면에서 효율적인 소프트웨어 방식의 추정 모델을 사용하여 전력을 추정한다. 또한 기존의 전력 추정 모델은 CPU의 유휴(idle) 사용량만을 사용함으로써 현재 서버의 세부적인 CPU 상태나 I/O 장치의 사용량을 정확히 파악하지 못하고, 이는 해당 서버의 전력을 효과적으로 추정하지 못하는 단점으로 이어진다. 본 논문에서는 CPU의 다양한 상태 필드를 활용하여 서버의 CPU 및 시스템의 전반적인 상태를 보다 정확히 파악하고, 이에 따라 서버의 전력을 기존의 두 소비전력 추정 모델(CPU/디스크/메모리 기반의 전력 소비 추정 모델 및 CPU 유휴값 기반의 전력 소비 추정 모델)보다 정확히 측정하는 CPU 필드(field) 기반의 전력 추정 모델을 제안한다. 2대의 서버를 사용하여 실험을 수행하였으며, 전력계를 통해 측정한 실제 전력과 각 추정 모델의 추정 값을 비교하여 평균 오차율을 계산하였다. 실험 결과 기존 소비전력 추정 모델이 평균 8-15%대의 오차율을 보이는 반면, 본 논문에서 제안하는 서버 전력 추정 모델은 2%대의 오차율을 보여 주었다. In the server cluster environment, one of the ways saving energy is to control server's power according to traffic conditions. This is to determine the ON/OFF state of servers according to energy usage of data center and each server. To do this, we need a way to estimate each server's energy. In this paper, we use a software-based power consumption estimation model because it is more efficient than the hardware model using power meter in terms of energy and cost. The traditional software-based power consumption estimation model has a drawback in that it doesn't know well the computing status of servers because it uses only the idle status field of CPU. Therefore it doesn't estimate consumption power effectively. In this paper, we present a CPU field based power consumption estimation model to estimate more accurate than the two traditional models (CPU/Disk/Memory utilization based power consumption estimation model and CPU idle utilization based power consumption estimation model) by using the various status fields of CPU to get the CPU status of servers and the overall status of system. We performed experiments using 2 PCs and compared the power consumption estimated by the power consumption model (software) with that measured by the power meter (hardware). The experimental results show that the traditional model has about 8-15% average error rate but our proposed model has about 2% average error rate.

      • KCI등재

        서버 클러스터 환경에서 에너지 절약을 위한 동적 서버 전원 모드 제어

        김호연,함치환,곽후근,권희웅,김영종,정규식,Kim, Ho-Yeon,Ham, Chi-Hwan,Kwak, Hu-Keun,Kwon, Hui-Ung,Kim, Young-Jong,Chung, Kyu-Sik 한국정보처리학회 2012 정보처리학회논문지 C : 정보통신,정보보안 Vol.19 No.2

        All the servers in a traditional server cluster environment are kept On. If the request load reaches to the maximum, we exploit its maximum possible performance, otherwise, we exploit only some portion of maximum possible performance so that the efficiency of server power consumption becomes low. We can improve the efficiency of power consumption by controlling power mode of servers according to load situation, that is, by making On only minimum number of servers needed to handle current load while making Off the remaining servers. In the existing power mode control method, they used a static policy to decide server power mode at a fixed time interval so that it cannot adapt well to the dynamically changing load situation. In order to improve the existing method, we propose a dynamic server power control algorithm. In the proposed method, we keep the history of server power consumption and, based on it, predict whether power consumption increases in the near future. Based on this prediction, we dynamically change the time interval to decide server power mode. We performed experiments with a cluster of 30 PCs. Experimental results show that our proposed method keeps the same performance while reducing 29% of power consumption compared to the existing method. In addition, our proposed method allows to increase the average CPU utilization by 66%. 기존의 서버 클러스터 환경에서는 모든 서버가 항상 On된다. 만일 서버 요청 부하가 최대가 되면 서버 클러스터에서 얻을 수 있는 가능한 최대 성능을 얻게 되며, 그렇지 않으면 가능한 최대 성능의 일부만을 사용하게 되면서 서버 전력 소비의 효율성은 떨어지게 된다. 부하 상황에 따라 서버의 전력 모드를 제어함으로써 전력 소비의 효율성을 높일 수 있다. 다시 말하면 현재 부하를 처리하는데 필요한 대수의 서버들만 On하고 나머지 서버들은 Off 한다. 기존의 서버 전원 모드 제어 방법에서는 고정된 주기로 서버 전원 모드를 제어하는 정적인 정책을 적용함으로써 동적으로 변하는 부하 환경에 잘 적응하지 못한다. 이를 개선하기 위해 본 논문에서는 동적 서버 전원 제어 알고리즘을 제안한다. 제안 방법에서는 서버 소비 전력의 이력을 갖고서 가까운 장래에 서버 소비 전력이 증가할 것인가를 예측한다. 이 예측에 따라 서버 모드 제어 주기를 동적으로 변경한다. 30대의 PC 클러스터를 이용하여 실험을 수행하였다. 실험을 통하여 일반적인 클러스터링 환경과 비교하여 제안된 방법은 동일한 성능을 유지하면서 29%까지 소비 전력을 절감했다. 또한, 서버 클러스터에서 서버 CPU 사용률 평균은 66% 증가하였다.

      • KCI등재

        고성능 네트워크 침입방지시스템을 위한 개선된 시그니처 해싱 알고리즘

        고중식 ( Joong Sik Ko ),곽후근 ( Hu Keun Kwak ),왕정석 ( Jeong Seok Wang ),권희웅 ( Hui Ung Kwon ),정규식 ( Kyu Sik Chung ) 한국정보처리학회 2009 정보처리학회논문지 C : 정보통신,정보보안 Vol.16 No.4

        시그니처 해싱 알고리즘[9]은 해시 테이블을 사용하여 네트워크 침입방지시스템(Intrusion Prevention System)을 위한 빠른 패턴 매칭 속도를 제공한다. 시그니처 해싱 알고리즘은 모든 규칙에서 2 바이트를 선택하여 해쉬 값을 구한 후 해쉬 테이블에 링크시킨다. 이렇게 하여 패턴 매칭 시에 실제 검사하는 규칙의 개수를 줄임으로써 성능이 향상되는 장점을 가진다. 그러나 규칙의 개수와 상관관계가 증가할 경우 같은 해쉬 값을 가지는 규칙의 개수가 증가하여 성능이 떨어지는 단점이 있다. 본 논문에서는 시그니처 해싱 알고리즘의 단점을 보완하기 위해 규칙의 개수와 상관관계에 무관하게 모든 규칙을 해쉬 테이블 상에 고르게 분포시키는 방법을 제안한다. 제안된 방법에서는 해쉬 테이블에 규칙을 링크하기 전에 해당 해쉬 값에 링크된 규칙이 있는지 검사한다. 만약 링크된 규칙이 없으면 해당 해쉬 값에 규칙을 링크하고, 링크된 규칙이 있으면 다른 위치에서 해쉬 값을 다시 계산한다. 제안한 방법은 리눅스 커널 모듈 형태로 PC에서 구현하였고, 네트워크 성능 측정 툴인 Iperf를 이용하여 실험하였다. 실험 결과에 의하면 기존 방식에서는 시그니처 개수 및 규칙의 상관관계가 증가함에 따라 성능이 저하되었지만, 본 논문에서 제안한 방식은 시그니처 개수와 규칙의 상관관계에 무관하게 일정한 성능을 유지하였다. The signature hashing algorithm[9] provides the fast pattern matching speed for network IPS(Intrusion Prevention System) using the hash table. It selects 2 bytes from all signature rules and links to the hash table by the hash value. It has an advantage of performance improvement because it reduces the number of inspecting rules in the pattern matching. However it has a disadvantage of performance drop if the number of rules with the same hash value increases when the number of rules are large and the corelation among rules is strong. In this paper, we propose a method to make all rules distributed evenly to the hash table independent of the number of rules and corelation among rules for overcoming the disadvantage of the signature hashing algorithm. In the proposed method, it checks whether or not there is an already assigned rule linked to the same hash value before a new rule is linked to a hash value in the hash table. If there is no assigned rule, the new rule is linked to the hash value. Otherwise, the proposed method recalculate a hash value to put it in other position. We implemented the proposed method in a PC with a Linux module and performed experiments using Iperf as a network performance measurement tool. The signature hashing method shows performance drop if the number of rules with the same hash value increases when the number of rules are large and the corelation among rules is strong, but the proposed method shows no performance drop independent of the number of rules and corelation among rules.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼