
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Reconstruction of a high dynamic range image and its visualization : 하이 다이내믹 레인지 이미지 복원과 시각화
점점 더 많은 영역에서 디지털 영상이 사용되고 있다. 이러한 디지털 영상은 공간의 밝기를 이산화한 2차원 배열이다. 다만 디지털 영상에서의 각 화소의 값은 실제 밝기에 정확히 비례하는 값을 갖지는 않는다. 실생활에서의 밝기의 범위는 매우 밝은 값부터 어두운 값까지 거의 무한대에 가까운 범위에 분포하나, 이를 영상으로 변환하는 이미징 장치가 제한된 다이내믹 레인지를 갖기 때문에 한 영상에 표현할 수 있는 밝기의 범위는 이로 인해 제한될 수 밖에 없기 때문이다. 또한 빛의 밝기와 화소의 값을 대응시키는 이미징 장치의 응납 함수의 비선형성으로 인해 발생하는 오류도 이러한 차이를 발생시키게 된다. 이로 인해 획득된 영상에서 아주 높거나 낮은 조도를 갖는 부부느이 정보 손실이 발생하게 된다. 이러한 한계를 극복하기 위해 새로운 센서의 구조나 하이 다이내믹 레인지 이미지를 복원해 내는 알고리즘들이 연구된다. 본 논문에서는 서로 다른 노출을 갖는 여러 장의 로우 다이내믹 레인지(low dynamic range) 영상으로부터 한 장의 하이 다이내믹 레인지(high dynamic range) 영상을 만들어 낸 후, 복원된 영상을 기존의 로우 다이내믹 레인지를 갖는 영상 장치에 시각화하기 위한 알고리듬을 제안한다. 이를 위해 이미징 장치의 응납 함수를 고려한 영상 획득 모델을 세운 후, 이 모델로부터 응납 함수와 하이 다이내믹 레인지 영상으로 복원해 낸다. 이 데이터를 시각화하기 위해서, 국부 대비를 유지하며 영상 전체의 다이내믹 레인지를 압축하는 방법을 제안한다. Digital images become increasingly important in many fields, such as astronomical imaging, medical imaging, remote sensing, and a variety of consumer electronic applications. Digital images are two dimensional arrays of digitized brightness value of the natural scene. But, these digitized values are not true measurements of relative radiance in the scene. The captured image of a scene has limited brightness range. The bright regions may be saturated, the dark regions may be set to zero, or both. This is due to the limited dynamic range of image capture devices. Also, there are some nonlinear mapping between real radiance and pixel values because the response function of image capture device is the composition of several nonlinear functions. These limitations cause the loss of information in the region where the intensities of brightness is too low, too high, or both. Therefore, novel sensor architectures or reconstruction algorithms of high dynamic range images are researched. In this thesis, a reconstruction algorithm of a high dynamic range image from multipleframes with different exposures are proposed. Proposed algorithm is based on theimage formation model of image capture device. Also, a dynamic range compressionalgorithm for its visualization with tradition display devices is proposed.
Field-based deinterlacing scheme based on edge pattern : 필드에 기반하여 텍스처 패턴을 고려한 순차주사화
고해상도 영상에 대한 수요가 증가하면서 HDTV 같은 고급 영상매체가 발달하였다. HDTV는 기존의 SDTV와는 달리 영상 인식할 때 비월주사(interlaced acan)가 아닌 순차주사(progressive scan)를 택하여 비월주사 영상에서 순차주사 영상으로 전환하는 순차주사화가 필요하게 되었다. 그러나 한 장의 필드만을 이용하는 기존의 알고리즘은 에지의 방향도 정확하게 찾지 못할 뿐 아니라 이로 인하여 추가적인 에러를 발생시켜 결과 영상의 질을 떨어뜨리는 문제점이 있다. 이 논문에서는 선명한 영상을 얻기 위하여, 한 장의 필드만을 이용하여 에지의 방향을 정확히 찾는 새로운 알고리즘을 제안한다. 보다 정확하게 에지의 방향을 추정하기 위하여 제안한 알고리즘에서는 에지의 패턴을 가중치로 이용하였다. 또한, 수평방향과 수직방향의 에지 패턴을 모두 사용하여 안정화된 영상을 구하도록 하였다. 에지의 패턴을 고려하는 것은 주어진 라인에서 고주파 성분을 이용하는 것을 의미한다. 그러므로 제안한 알고리즘은 저주파 성분의 차이만을 이용하는 기존의 알고리즘과는 달리 저주파 성분의 차이 뿐 아니라 고주파 성분의 차이도 이용한다고 말할 수 있다. 그리고 결과 영상의 정확성과 평활성을 조정하기 위하여 정규화 파라미터를 도입하였다. 에지의 패턴을 이용한 가중치와 정규화 파라미터는 함수들로 이루어져있으며 자동적으로 결정된다. 실험 결과는 제안한 알고리즘이 기존의 알고리즘에 비하여 객관적인 측정에서나 시각적인 측면에서나 정확하고 안정된 알고리즘이라는 것을 보인다. The demand for high resolution images is gradually increasing and advanced media like HDTV(high definition television) is developed. HDTV select a method of progressive scanning during image acquisition unlike SDTV(standard definition television) using interlaced scanning. Thus the demand of deinterlacing is increasing. Spatial interpolation is used widely since it is simple and easy to implementation. However conventional algorithms considering edge are not able to detect edge direction accurately and produce additional errors which decrease quality of image. In this thesis, we propose new deinterlacing algorithm using one field which determine edge direction to obtain a better image visually. To produce a image which has vivid edge, we apply patterns of edge to weight of proposed algorithm. We make use of both patterns of edge in horizontal and vertical direction in order to find edge exactly. To consider patterns of edge means to use high frequency components in lines. Therefore proposed algorithm utilize not only difference of low frequency components but also difference of high frequency components unlike conventional algorithms using the former. And we use regularization parameter which controls fidelity and stability. Weight using pattern of edge and regularization parameter are composed of functions and determined automatically. Experimental results show that proposed algorithm is more stable and accurate than any other conventional algorithms in terms of both objective measurement and visual evaluation.
많은 영상 데이터의 전송을 위해서 영상 압축은 꼭 필요한 기법이며, DCT의 간단하고 특성과 훌륭한 압축률 덕분에 많은 영상 압축 기법 및 응용 기법들은 DCT 압축에 기반하고 있다. 하지만 영상에 잡음이 첨가되어 있는 경우 영상의 압축률도 현저히 떨어지고 디코딩 후의 블로킹 현상도 심해진다. 그리하여 영상이 압축되기 이전에 먼저 잡음이 제거되는 것이 좋으며 실제로 많은 잡음 제거 방법들이 제안되었지만, 이 논문에서는 DCT 기반의 압축 환경을 고려하여 DCT 계수를 그대로 이용하여 잡음 제거하는 방법을 제안한다. 잡음을 제거할 때 가장 유의해야 할 사항은 영상이 원래 가지고 있는 고주파 성분인 에지 성분을 과도하게 없애지 말아야 하며 에지 성분을 보존하기 위해 역시 DCT 계수를 분석하여 에지를 찾는다. Bayesian 접근 방식으로 통한 잡음 제거 방식이 도입되고, 더 정확한 사전지식 확보를 위해 DCT 계수의 통계적 분포에 대해 조사한다. 가장 널리 쓰이고 있는 라플라시안 분포 대신에 더 포괄적인 정보를 가질 수 있는 일반적인 가우시안 분포(generalized Gaussian distribution)의 우수성을 입증한다. 잡음 제거시 과도하게 뭉개지기 쉬운 에지를 보존하기 위해 DCT 영역에서 에지를 찾아내어 보존하게 된다. Image Compression is an inevitable processing for transferring huge image data, and lots of image compression applications are based on DCT due to simplicity and good compressibility of DCT. In case of noisy images, however, compression rate becomes severely worse and the decoded image suffers from serious blocking artifact. For these reasons noise must be removed before image compression and noise removal has been studied widely for long times. In this paper noise removal using DCT coefficients themselves is proposed with regard of compression systems based on DCT. Denoising by Bayesian approach is applied and for more accrate prior assumption, the statistical distribution of DCT coefficient is examined. Instead of Lapalcian distribution used most popularly, superiority of generalized gaussian distribution assumption is demonstrated. Furthermore, edges in the spatial domain are considered in the DCT domain to prevent from oversmoothing them during noise removal.
김재언 연세대학교 공학대학원 2002 국내석사
범국가적으로 초고속 국가정보화 계획이 수립되어 추진중에 있다. 우리군에서도 국방정보화 계획이 수립되어 장차전에서 예상되는 정보통신 소요를 충족하기 위해 음성, 데이터 및 영상등의 멀티미디어 전장정보를 실시간에 전달하기 위한 전력증강에 박차를 가하고 있다. 본 논문에서는 현재 우리군이 추구하고 있는 정보와 지식중심의 국방정보화를 위한 기반체계중 전략 및 전술종합정보통신망의 관리체계에 대한 설계방안을 조명해 보았다. 현재 통신·전산망의 문제점은 개별적, 독자적인 관리체계로 정보통신망의 단편적인 부분만을 제공하고 있으며, 무선통신망은 독자적인 프로토콜로 관리체계간 상호운용성이 결여되여 있다. 또한, 중복투자, 전문인력 운영의 비효율화 초래 및 전력화 지연이 대두되고 있어 광대역의 국방정보통신망 구축과 독자적인 관리체계를 통합관리 할 수 있는 통합망의 구축이 요구되고 있다. 이에 국방통합망에 대한 미군의 경우와 이론적 접근을 통하여 적용 가능성을 탐색하고, 기존통신체계를 ITU-T에서 제안한 TMN의 구조개념을 적용하여 통합망 관리체계에 대하여 구축설계하였다. TMN은 통신망 및 통신서비스 관리를 목적으로 OS와 인터페이스로 연결한 논리적인 구조로 네트워크에 대한 관리기능 및 상호정보전송기능을 제공한다. 따라서 TMN의 개념을 적용하여 국방통합망에 대해서 관리체계 및 확장이 용이하고 실시간 동시전파체계를 구축하도록 설계하였다. 본 연구를 통하여 설계된 관리체계는 사용자가 원하는 양질의 정보서비스 지원이 가능할 것이며, 통합관리 운용체계와 상호운용성에 대한 계속적인 연구가 필요하다. The “super high-speed information-oriented nation plan" is established and promoting nation-wide. ROKA have established information-oriented national defense plan. This plan is on the spur to strengthen war potential in order to transmit multimedia information such as speech, data and real-time video of front for the purpose of fulfilling expected requirements of information & communication in future warfare. In this dissertation, I illuminated the construction design for management system of comprehensive information & communication network of strategy and tactics which is part of the information-oriented national defense plan, focused on information and knowledge which korean military is trying to set up. In the present, the problem of communication-computing networks is so separated, and individual management system that it can't offer general parts of information & communication and wireless communication network is lack of mutual operation between management systems because of its individual protocol. Moreover, overlapped investment, inefficient specialist management and delay of cultivating war potentials are arising. So construction of extensive national information & communication network and integrated network which can control individual management system are demanded. On this, through the examples of U.S.Army and by theoretical approach to national defense integrated network, I have searched possibility of application and constructed, planed the integrated network management system by applying structural concept of TMN which was presented by ITU-T. TMN is a logical structure linking with OS and Interface, built on purpose to manage the communication network as well as communication service. Also it provides network management and mutual informational transmission function. Therefore I applied TMN's notion to national defense integrated network, and I have constructed the network that is easy to control the system, expand and build the same time propagative system on real time. The newly developed management system through this research, will be able to support good quality information services that all users want, and it is needed to continue the research on united control application system and mutual operation.
전웅찬 연세대학교 공학대학원 2002 국내석사
E-Biz의 급성장에 따라 전산인프라의 물리적인 규모는 크게 늘고 있다. 이와 더불어 전산시스템관리, 특히 시스템의 성능관리는 투자대비 효용성 증대 등의 비용적인 측면과 장애예방 등의 데이터 보호를 위해 필수적으로 강구해야만 하는 중요요소가 되었다. 운영인력은 변동이 없는 반면 시스템의 수는 크게 증가되면서, 시스템에 대한 관리가 체계적이고 효율적이면서, 이론적인 근거가 분명한 방법론이 요청되고 있다. 그러한 방법론은 어떤 시스템으로, 어떤Application을 사용하는냐에 따라 관리기준이나 기법이 다른데, 각기 환경특성에 알맞은 시스템화된 관리방법이 필요하게 되었다. 본 논문에서는 ERP와 전자상거래 Application환경하에서, Unix서버를 운용하는 Site를 모델로 시스템의 성능관리를 하기 위해 필요한 요소들에 대한 이론적인 배경을 서술하고, 어떻게 시스템을 자동화 시켜서 그러한 요소 항목들의 데이터를 얻을 수 있는지에 대해 서술 하였다. 이론내용에서는, Unix서버의 Physical/Logical 구조와 Work Process의 내용을 주로 다루었고, 또한 선정된 성능관리 항목의 데이터 수치가 갖는 의미를 기술하였다. 이어 실험부분에서는, 서버에서 자동 실행 되도록 항목별 Shell Script를 나타내고 일련의 Job Scheduling에 의해 데이터가 생성/이동하는 Process를 구현하였다. 마지막으로 DB에 저장된 데이터들을 Web상에서 보여준 후, 항목별로 데이터들을 비교/분석함으로, 올바른 성능관리에 대한 이해를 도모하고 효율적인 관리방법을 제시하였다. The volume of computing machine has been increasingly enlarged due to expansion of E-business area and growth in E-Biz Industry. Namely, investment for the IT Infrastructures such as servers, network equipments and application software have been increased and performance administration for computing machine has been one of the most important factor that should be considered to manage investment efficiently and to protect the data from any unexpected events. Those solutions to administration for computing machine may differ from system configurations such as server, application type and so on, and are required at corporate in a worse condition that decreases the number of engineer and technician working for management of Computing Machine. This paper handles better solutions that are needed to control the performance in Computing System, and how to configure and integrate systems to get the performance data automatically. This paper is divided into four sections such as preface, theory section, experimental section, and conclusion. The theory section described physical and logical structure in Unix server and process to flow the work from end-user, and defined the standard value for the selected performance factors such as CPU, Memory, Swap, Disk I/O, Load. To get the performance data for each factor in Unix server automatically, Posix Shell Scripts were presented on the experimental section. And then, I show the performance data stored in database table to the Web. Finally, my intention is to improve understanding of right performance management for Computing Machine and to suggest better solution to raise the its efficiency through this paper.
디지털 영상을 기록하는 과정에서, 영상의 해상도는 광학계의 왜곡 현상 및 셔터 스티드의 제한으로 인한 움직임 블러 현상, 센서 자체 및 전송과정에서 발생하는 잡음, 그리고 센서해상도의 제한으로 인하여 필연적으로 열화된다. 또한 최근의 영상 획득 시스템에서는 영상의 전송 및 저장에 앞서 압축 알고리듬을 영상에 적용하는 경우가 많으므로, 이러한 경우 획득된 영상의 화질은 더욱 열화되게 된다. 본 학위 논문에서는 이러한 열화 현상을 제거하기 위한 두 가지의 영상처리 방법에 대하여 논한다. 하나는 잡음만을 제거하기 위한 잡음제거 알고리듬이고, 다른 하나는 위에서 언급한 모든 열화 현상을 제거하기 위한 초해상도 영상 재구성 알고리듬이다. 이러한 알고리듬들에 있어서 영상의 에지 성분을 보존하면서 잡음을 효율적으로 제거하기 위해서는 영상에 대한 잘 정립된 사전 모델이 요구된다. 본 학위 논문에서는 영상의 비정적 상관관계 특성을 나타낼 수 있는 새로운 비정적 가우시안 영상모델을 3장에서 먼저 제안한 후, 이를 기반으로 계산적으로 효율적인 공간 적응적 잡음제거 알고리듬을 제안한다. 기존의 비정적 영상 모델에서는 연산량의 부담을 덜기 위해 각 화소들 사이에 상관관계(correlation)가 없다고 가정하므로 영상의 미세한 정보들이 필터링에 의하여 훼손된다. 제안된 영상 모델에서는 이러한 한계를 극복하기 위해 영상신호가 비정적 평균을 가지며, 각기 다른 형태의 정적(stationary) 상관관계를 가지는 부분 영상으로 분리된다고 가정된다. 제안된 영상모델에서 유도되는 공분산(covariance) 행렬의 특수한 구조를 이용하여 계산적으로 효율적인 FFT에 기반한 적응적 선형최소자승오차 필터를 가산 잡음, 곱셈 잡음, 필름 그레인 잡음에 대하여 유도한다. 4장에서는 앞에서 제안한 영상 모델을 DCT 기반의 압축알고리듬으로 압축된 저해상도 영상들로부터 고해상도 영상을 재구성하는 기술을 제안한다. 영상에 대한 압축은 이를 복원하기 위한 과정을 복잡하게 만들며, 기존의 초해상도 영상 재구성 기술을 그대로 사용하기에는 한계가 있다. 그러므로, 압축에러에 대한 정확한 모델링이 재구성 과정에 필요시 된다. 이를 위해 DCT 양자화 잡음을 분석하며, 이를 공간 영역에서 상관관계가 있는 가우시안 잡음으로 모델링한다. 이러한 모델링은 압축율이 높을 때에 원래 영상에 대한 사전 지식 없이 양자화 잡음을 추정하는 것을 가능케하며, 이를 바탕으로 고해상도 영상과 양자화 잡음을 동시에 추정하는 것을 알고리듬을 제안한다. 이 과정에서 압축으로 인한 블록킹 및 링잉 아티펙트를 줄이기 위한 비정적 영상 모델에 기반한 평활화 속박 (smoothing constraint)을 포함시키며, 이 평활화 속박의 정도을 아무런 사전 지식 없이 조절하기 위한 정규화 함수를 정의한다. 최소화시키고자 하는 전체 평활화 함수(smoothing functional)를 볼록 모양(convex)으로 만드는 조건을 유도하며, 알고리듬의 안정성과 유일해를 보존하기 위한 반복연산법의 수렴조건을 유도한다. 기존의 초해상도 영상 재구성 기법과의 비교을 통하여 제안된 알고리듬의 우수성을 확인한다. In the process of recording a digital image, there is a natural loss of spatial resolution caused by the optical distortions, motion blur due to limited shutter speed, noise which occurs within the sensor or during transmission, and insufficient sensor density. Thus, the recorded image usually suffers from blur, noise and aliasing effects. In current acquisition systems, the quality of recorded images is further degraded since images are routinely compressed prior to transmission and storage. In this dissertation we are interested in two important image processing applications. One is a denoising algorithm which considers restoration of images corrupted by noise only, and the other is a superresolution image reconstruction which covers all degradation factors mentioned above. When we estimate an original scene in both applications, well-established models for image and noise process are required to remove noise effectively while preserving edgecomponents of image. Thus, we first present a new nonstationary Gaussian image model which accounts for the nonstationary correlation characteristics of images in chapter 3 Based on this image prior model, we also propose a computationally feasible adaptive denosing algorithm. In conventional nonstationary image models, pixels are assumed to be uncorrelated to each other in order not to increase a computational burden too much. As a result, some detailed information is lost in the filtered results. To overcome this problem, we assume that an image has a nonstationary mean and can be segmented into subimages which have individually different stationary correlations. Taking advantage of the special structure of the covariance matrix that results from the proposed image model, we derive a computationally efficient FFT-based adaptive linear minimum mean square error filter for cases of signal uncorrelated additive, multiplicative, and film-grain noises. In chapter 4 the proposed image prior model is modified for DCT-based compressed image, and we consider the problem of recovering a high-resolution image from a sequence of low-resolution DCT-based compressed observations. The introduction of compression complicates the recovery problem, and traditional high-resolution (or superresolution) image reconstruction techniques cannot address this problem successfully. Thus, a precise modeling for compression errors should be incorporated into reconstruction process. We analyze the DCT quantization noise and propose to model it in the spatial domain as a colored Gaussian process. This allows us to estimate the quantiixzation noise at low bit-rates without explicit knowledge of the original image frame, and we propose a method that simultaneously estimates the quantization noise along with the high-resolution data. We also incorporate a nonstationary image prior model to address blocking and ringing artifacts while still preserving edges. To facilitate the simultaneous estimate, we employ a regularization functional to determine the regularization parameter without any prior knowledge of the reconstruction procedure. The smoothing functional to be minimized is then formulated to have a global minimizer in spite of its nonlinearity by enforcing convergence and convexity requirements. Experiments illustrate the benefit of the proposed method when compared to traditional high-resolution image reconstruction methods.
Spatio-temporally adative Kalman filter for video noise removal
In video sequences, each pair of consecutive frames has relatively high correlation in the temporal direction. A moving object has strong temporal correlation, but along the trajectory of the motion. Thus, motion compensation is required, if spatio-temporal filtering is to be successful in preserving much of high spatial frequencies. The accuracy of motion compensation is closely related to the quality of video, but the quality of motion compensation cannot be satisfied easily. Moreover, inaccurate motion compensation cause undesirable effect. In this thesis, we have proposed a spatio-temporally adaptive Kalman filter for video noise removal without motion compensation. To aviod the problem, due to the motion compensation, the discrimination between the region with motion and the region without motion is required for support region of Kalman filter. At the region with motion, spatial correlation is more important to remove noise, so the spatial range of support region is wider than that of temporal range, and at the region without motion, temporal correlation needs more consideration than spatial correlation therefore, the temporal range of support region is wider than that of spatial range. Applying the adatptive support region, we can successfully remove noise without motion compensation. The effectiveness of the proposed algorithm is demonstrated experimentall. 본 논문에서는 영상의 노이즈 제거를 위한 시공간 적응적 칼만 필터를 제안한다. 노이즈가 없고 움직임이 적은 영상의 경우 연속한 두 장의 영상간에는 시간축상으로 상대적으로 높은 상관관계를 갖는다. 이와는 대조적으로, 노이즈의 경우 대부분이 상관관계가 없다. 이동 물체의 경우 역시 상대적으로 높은 시간적 상관관계를 갖고 있으나 그것은 움직임의 경로를 따라 상관관계를 가지고 있으며 따라서 시공간 필터링이 성공하기 위해서는 움직임 보상이 필요해진다. 그러나 움직임 보상은 많은 연산량을 요구하며 또한 움직임 보상이 제대로 되지 않은 경우에 문제를 일으킨다. 움직임 보상 없이 이러한 문제를 해결하기 위해서는 움직임이 있는 영역과 그렇지 않은 영역을 구별하는 것이 필요하다. 움직임이 있는 영역의 경우에는 공간적 상관관계가 노이즈를 제거하기 위해 더 필수적이며 움직임이 없는 지역의 경우에 있어 시간적 상관관계를 공간적 상관관계보다 더 많이 고려하는 것이 중요하다. 이를 위해 움직임이 없는 영역의 경우, 시간축상으로 긴 폭을 갖는 영역을 잡고, 움직임이 있는 영역의 경우 공간적으로 넓은 영역을 이용하여 칼만 필터 계수를 취하는 방법을 택한다. 이러한 방법을 적용하여 움직임 보상 없이 노이즈를 제거할 수 있었다. 제안된 방법의 효율성을 실험적으로 입증하였다.
컴포넌트 기반 개발에서 테스트 케이스 추출에 관한 연구
최기수 연세대학교 공학대학원 2003 국내석사
본 논문에서는 컴포넌트 기반 개발 프로세스에서 테스트 케이스를 효과적으로 추출하는 방법과 JUnitEE라는 도구를 이용해 추출된 테스트 케이스를 구현하는 방법에 관하여 살펴본다. 기존의 테스트 케이스 추출방법은 컴포넌트 명세에서 테스트 케이스를 추출하도록 되어 있어 테스트 케이스의 추출이 효과적이지 못하였다. 하나의 인터페이스를 두 개 이상의 컴포넌트에서 구현할 경우 컴포넌트 명세에 기반한 테스트 케이스 추출은 중복된 테스트 케이스가 추출되게 된다. 또 인터페이스를 구현하는 컴포넌트가 변경이 되는 경우에는 별도의 테스트 케이스 추출 작업을 거쳐야 한다. 또, 테스트 케이스 추출을 위해 별도의 산출물 작성하여야 하는 경우도 있다. 본 논문에서는 개발 프로세스에서 공통적으로 나오는 산출물을 이용하고 인터페이스 명세와 컴포넌트 명세를 분리하여 인터페이스 명세를 기준으로 테스트 케이스를 추출하는 방법을 통해 효과적으로 테스트 케이스를 추출하도록 개선하였다. This thesis introduces the effective technique of extracting the test case in component based development process and the method of implementing test case which was abstracted using the tool called JUnitEE. Early method of extracting test case was not effective while it was extracted from component specification. In case of implementing more than two component using one interface, extraction of test case based on component specification will extract overlapped test case. In case component, which implements interface, is changed, it should be taken different type of test case extraction. There would be a case which you need to produce additional artifact for extracting test case. This thesis uses the artifact which commonly produced by development processes, and shows the method of dividing interface specifications and component specifications. That would improve the method of extracting test case effectively by extracting test case with interface specifications basis.
Deinterlacing algorithm using independent edge vectors
The demand for an efficient deinterlacing algorithm that converts interlaced-to-progressivescanning is increasing due to its significant role in HDTV or multimedia displays. Fieldbased spatial interpolation is widely used for deinterlacing because it is simple and easyto implement. In particular, conventional edge directional interpolation (EDI) algorithmsperform visually better than any other deinterlacing algorithm using one field. However,they may produce unpleasant results if they fail in estimating edge direction. In this paper,we propose an efficient deinterlacing algorithm using two algorithms based on EDI.First, independent edge vectors to estimate upper edge vector by using upper pixel andlower edge vector by using lower pixel independently are used. By using these vectors,viiedge direction of target pixel that will be generated becomes same to the direction ofupper and lower pixel. Thus the occurrence of broken edges are reduced in resultantimages, where edges are broken in conventional EDI when there is a thin edge in homogeneousbackground area. For hardware implementation, previous algorithm which usestwo edge vectors needs four lines, but we need only two lines, therefore hardware computationalcomplexity is not increased. Second, adaptive search range is used. Whenthere exist several edges that are similiar, it is difficult to estimate edge direction. Inthese high frequency areas, we narrow the search range of edge direction, which reduceserror occurrence and execution time. In other cases, we widen the search range of edgedirection to estimate edge direction more accurately. Adopting independent directionalvectors and adaptive search range result in robust edge vector estimation and savingexecution time. The proposed algorithm requires lower computational complexity andproduces better performance than conventional algorithms. Experimental results indicatethat the proposed algorithm outperforms conventional approaches with respect toboth objective and subjective criteria. 본 연구에서는 순차주사화 알고리즘 중 한 필드를 사용하는 알고리즘에 관해 논한다. 여기에는 주로 에지를 고려한 알고리즘이 주를 이룬다. 이전 연구들은 에지를 찾는데 있어서 배경과 에지를 혼동하여 잘못 찾은 경우 결과영상에 심각한 문제를 일으켰다. 본 연구에서는 두 가지 목표를 설정한다. 첫 번째는 잘못 찾는 에지를 줄이는 것이고, 두 번째는 구현을 위한 하드웨어를 증가시키지 않는다는 것이다. 이 목표를 이루기 위해 첫 번째 제안한 것은 독립적 방향 벡터이다. 에지의 방향벡터를 찾기 위해서 이전 연구들처럼 생성하려고 하는 픽셀의 방향벡터를 추정하는 것이 아니라, 이미 존재하는 입력된 바로 위 화소와 아래 화소가 가진 방향 벡터 두 개를 구하여 이용한다. 따라서 보다 정확한 에지의 방향 추정이 가능해 졌다. 두 개의 방향 벡터를 구하기 위해 제안한 함수를 이용하면 두 배의 라인 정보를 필요로 하지 않기 때문에 하드웨어를 증가시키지 않는다. 두 번째 제안한 것은 적응적 탐색 범위의 설정이다. 에지를 찾기 위해서 탐색 범위 전체를 탐색 하지 않고, 국부 영역의 특성에 맞게 적응적으로 변하는 탐색 범위를 설정하였다. 따라서 보다 효율적이면서 실행시간도 줄일 수 있게 한다. 마지막으로 찾은 에지에 해당하는 화소 값 들의 차를 이용한 가중치를 설정하여 보다 정확성을 높였다. 이러한 제안사항들에 대한 성능은 실험결과를 통해서 확인한다.