http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
영남지방 농산물에서의 Zearalenone 생성균의 분리
김성영,정선희,정덕화,Kim, Sung-Young,Chung, Sun-Hee,Chung, Duck-Hwa 한국식품과학회 1992 한국식품과학회지 Vol.24 No.6
영남지방으로부터 백미(60), 보리쌀(52), 대두(45), 땅콩(33), 옥수수(32), 메주(27), 벼(40), 보리(54) 및 토양(32) 등 총 375종의 시료를 수거하여 Fusarium속으로 추정된 균주를 분리하고, 분리균을 고체배지에 접종하여 배양(14일, $30^{\circ}C$)한 후에 zearalenone 생성균주를 선별한 결과는 다음과 같다. 375종의 시료에서 302주의 Fusarium속을 분리하였고, 분리된 302주를 고체배지에서 배양한 다음 TLC와 HPLC법에 의해 zearalenone 생성균주를 선정하였다. TLC 결과에서 zearalenone 생성균주는 29주 [쌀(3), 메주(2), 옥수수(1), 보리쌀(5), 토양(4), 땅콩(3), 대두(4), 보리(5) 그리고 벼(2)]로 나타났으나, HPLC 분석결과 19주 [쌀(2), 메주(1), 옥수수(1), 보리쌀(4), 토양(3), 대두(2), 보리(3) 그리고 벼(3)]가 zearalenone 생성균주로 확인되었다. To isolate zearalenone-producing strains from agricultural products in Youngnam districts, various samples such as rice(60), barley(52), soybean(45), peanut(33), corn(32), maeju(27), unhulled rice(UR, 40), unhulled barley(UB, 54), and soil(32) collected. From 375 samples, 302 Fusarium strains were isolated. The isolated strains were cultured for 14 days at $30^{\circ}C$ in rice medium, and then screened zearalenone-producing strains by TLC and HPLC. The result was that 29 isolates[rice(3), maeju(2), corn(1), barley(5), soil(4), peanut(3), soybean(4), U.B.(5), U.R.(2)] were screened as zearalenone-producing strains by TLC, while 19 isolates [rice(2), maeju(1), corn(1), barley(4), soil(3), soybean(2), U.B.(3), U.R.(3)] by HPLC method.
김성영(Sung-Young Kim) 한국컴퓨터정보학회 2012 韓國컴퓨터情報學會論文誌 Vol.17 No.4
본 논문에서는 비디오 스트림으로부터 움직이는 객체를 추출하기 위해 고유 배경(eigenbackground)을 사용하여 효율적으로 배경을 모델링하는 방법을 제안한다. 배경은 모델링하더라도 시간이 지남에 따라 날씨나 조명의 변화에 따라 변화가 발생하므로 변화 요소를 반영할 수 있도록 배경 모델을 갱신해야 한다. 이를 위해 본 논문에서는 R-SVD 방법에 기반을 두고 배경 모델을 갱신하도록 한다. 이 때 영상 변화도를 정의하여 이 값에 따라 동적으로 배경을 모델링하여 처리시간을단축할 수 있도록 한다. 또한 고유 배경을 사용하는경우 충분한 훈련 데이터를사용해야만 정확한 모델을 생성할 수 있지만 본 논문에서는 적은 수의 데이터만을 사용하여 정확한 모델을 생성할 수 있도록 입력 프레임을 재구성하여 사용한다. 제안한 방법은 초기 고유 배경 모델 및 기존의 주기적으로 배경을 갱신하는 방법과의 비교를 통해 그 우수성을 확인한다. In this paper, we propose an efficient dynamic background modelling method by using eigenbackground to extract moving objects from video stream. Even if a background model has been created, the model has to be updated to adapt to change due to several reasons such as weather or lighting. In this paper, we update a background model based on R-SVD method. At this time we define a change ratio of images and update the model dynamically according this value. Also eigenbackground need to be modelled by using sufficient training images for accurate models but we reorganize input images to reduce the number of images for training models. Through simulation, we show that the proposed method improves the performance against traditional eigenbackground method without background updating and a previous method.
김성영(Sung-Young Kim) 한국컴퓨터정보학회 2008 韓國컴퓨터情報學會論文誌 Vol.13 No.2
본 논문에서는 칼라 영상으로부터 관심 객체를 효과적으로 추출할 수 있는 방법을 제안한다. 본 논문에서 제안한 방법은 추출할 객체에 대한 사전 지식이 필요 없으며 단순한 배경뿐만 아니라 복잡한 배경에서도 영상에 포함된 관심 객체를 추출하는 것이 가능하도록 한다. 이를 위해 가버 필터 사전을 사용하여 객체의 대략적인 형상을 포함하는 가버 영상을 생성한다. 이를 기반으로 객체 추출에 필요한 특징 정보의 추출 기준이 되는 관심 창(attention window)의 초기 위치를 설정한다. 객체 추출 단계는 기존 연구에서 제안한 방법을 일부 수정하여 적용한다. 제안된 방법의 추출 성능을 평가하기 위해 제안된 방법으로 추출된 결과를 수작업으로 추출된 객체와 비교하여 Precision. Recall 및 F-measure를 계산한다. 이를 통해 제안된 방법의 성능을 확인하였다. 또한 기존 방법과의 추출 결과 비교를 통해 제안된 방법의 우수성을 검증하였다. In this paper, an extraction method of objects of interest in the color images is proposed. It is possible to extract objects of interest from a complex background without any prior-knowledge based on the proposed method. For object extraction. Gabor images that contain information of object location. are created by using Gabor filter. Based on the images the initial location of attention windows is determined, from which image features are selected to extract objects. To extract object. I modify the previous method partially and apply the modified method. To evaluate the performance of propsed method, precision. recall and F-measure are calculated between the extraction results from propsed method and manually extracted results. I verify the performance of the proposed methods based on these accuracies. Also through comparison of the results with the existing method. I verify the superiority of the proposed method over the existing method.
관심 객체 검출에 기반한 객체 및 비객체 영상 분류 기법
김성영(Sung-Young Kim) 한국컴퓨터정보학회 2006 韓國컴퓨터情報學會論文誌 Vol.11 No.2
본 논문에서는 영상을 자동적으로 객체와 비객체 영상으로 분류하는 방법을 제안한다. 객체 영상은 객체를 포함하는 영상이다. 객체는 영상의 중심 부근에 위치하고 주변 영역과는 상이한 칼라 분포를 가지는 영역들로 정의한다. 영상 분류를 위해 객체의 특징에 기반을 두고 네 가지 기준을 정의한다. 첫 번째 기준인 중심 영역의 특이성은 중심 영역과 주변 영역간의 칼라 분포의 차이를 통해 계산된다. 두 번째 기준은 영상 내의 특이 픽셀의 분산이다. 특이 픽셀은 영상의 주변영역보다 중심 부근에서 더욱 빈번하게 나타나는 상호 인접한 픽셀들의 칼라 쌍에 의해 정의된다. 세 번째 기준은 중심 객체의 평균 경계강도이다. 세 번째 기준은 분류 기준들중에서 가장 우수한 분류 성능을 나타내지만 특징값을 추출하기 위해서는 중심 객체를 추출해야 되는 많은 연산을 내포하고 있다. 이에 이와 비슷한 특성을 나타내는 네 번째 기준으로 영상 중심 영역에서의 평균 경계강도를 선택하였다. 네 번째 분류 기준은 세 번째 분류 기준에 비해 분류 성능은 조금 낮지만 빠르게 특징값을 추출할 수 있어 많은 데이터를 빠른 시간 내에 처리해야 되는 대규모 영상 데이터 베이스에 적용가능하다. 영상을 분류하기 위해 신경회로망 및 SVM을 사용하여 이들 기준들을 통합하였으며 신경회로망 및 SVM의 분류 성능을 비교하였다. We propose a method that automatically classifies the images into the object and non-object images. An object image is the image with object(s). An object in an image is defined as a set of regions that lie around center of the image and have significant color distribution against the other surround (or background) regions. We define four measures based on the characteristics of an object to classify the images. The center significance is calculated from the difference in color distribution between the center area and its surrounding region. Second measure is the variance of significantly correlated colors in the image plane. Significantly correlated colors are first defined as the colors of two adjacent pixels that appear more frequently around center of an image rather than at the background of the image. Third one is edge strength at the boundary of candidate for the object. By the way, it is computationally expensive to extract third value because central objects are extracted. So, we define fourth measure which is similar with third measure in characteristic. Fourth one can be calculated more fast but show less accuracy than third one. To classify the images we combine each measure by training the neural network and SVM. We compare classification accuracies of these two classifiers.