RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        문서 영상 내 테이블 영역에서의 단어 추출

        정창부,김수형 한국정보처리학회 2005 정보처리학회논문지. 소프트웨어 및 데이터 공학 Vol.12 No.4

        Document image is segmented and classified into text, picture, or table by a document layout analysis, and the words in table regions are significant for keyword spotting because they are more meaningful than the words in other regions. This paper proposes a method to extract words from table regions in document images. As word extraction from table regions is practically regarded extracting words from cell regions composing the table, it is necessary to extract the cell correctly. In the cell extraction module, table frame is extracted first by analyzing connected components, and then the intersection points are extracted from the table frame. We modify the false intersections using the correlation between the neighboring intersections, and extract the cells using the information of intersections. Text regions in the individual cells are located by using the connected components information that was obtained during the cell extraction module, and they are segmented into text lines by using projection profiles. Finally we divide the segmented lines into words using gap clustering and special symbol detection. The experiment performed on 100 table images that are extracted from Korean documents, and shows 99.16% accuracy of word extraction. 문서 영상은 문서 구조 분석을 통하여 텍스트, 그림, 테이블 등의 세부 영역으로 분할 및 분류되는데, 테이블 영역에 있는 단어는 다른 영역의 단어보다 의미가 있기 때문에 주제어 검색과 같은 응용 분야에서 중요한 역할을 한다. 본 논문에서는 문서 영상의 테이블 영역에 존재하는 문자 성분을 단어단위로 추출하는 방법을 제안한다. 테이블 영역에서의 단어 추출은 실질적으로 테이블을 구성하는 셀 영역에서 단어를 추출하는 것이기 때문에 정확한 셀 추출 과정이 필요하다. 셀 추출은 연결 요소를 분석하여 테이블 프레임을 찾아내고, 교차점 검출은 전체가 아닌 테이블 프레임에 대해서만 수행한다. 잘못 검출된 교차점은 이웃하는 교차점과의 관계를 이용하여 수정하고, 최종 교차점 정보를 이용하여 셀을 추출한다. 추출된 셀 내부에 있는 텍스트 영역은 셀 추출 과정에서 분석한 문자성분의 연결 요소 정보를 재사용하여 결정하고, 결정된 텍스트 영역은 투영 프로파일을 분석하여 문자열로 분리된다. 마지막으로 분리된 문자열에 대하여 갭 군집화와 특수 기호 검출을 수행함으로써 단어 분리를 수행한다. 제안 방법의 성능 평가를 위하여 한글 논문 영상으로부터 추출한 총 100개의 테이블 영상에 대해 실험한 결과, 99.16%의 단어 추출 성공률을 얻을 수 있었다.

      • KCI등재

        유방암 환자의 감시림프절 생검을 위한 림포신티그라피와 실사영상의 합성

        정창부,김광기,김태성,김석기,Jeong, Chang-Bu,Kim, Kwang-Gi,Kim, Tae-Sung,Kim, Seok-Ki 대한의용생체공학회 2010 의공학회지 Vol.31 No.2

        This paper presents a method that registers a lymphoscintigraphy to the real image captured by a CMOS camera, which helps surgeons to easily and precisely detect sentinel lymph nodes for sentinel lymph node biopsy in breast cancer patients. The proposed method consists of two steps: pre-matching and image registration. In the first step, we localize fiducial markers in a lymphoscintigraphy and a real image of a four quadrant bar phantom by using image processing techniques, and then determines perspective transformation parameters by matching with the corresponding marker points. In the second step, we register a lymphoscintigraphy to a real images of patients by using the perspective transformation of pre-matching. To examine the accuracy of the proposed method, we conducted an experiment with a chest mock-up with radioactive markers. As a result, the euclidean distance between corresponding markers was less than 3mm. In conclusion, the present method can be used to accurately align lymphoscintigraphy and real images of patients without attached markers to patients, and then provide useful anatomical information on sentinel lymph node biopsy.

      • KCI등재

        문서 영상의 그림 영역에서 통계적 분석을 이용한 단어 영상 추출

        정창부,김수형,Jeong, Chang-Bu,Kim, Soo-Hyung 한국정보처리학회 2006 정보처리학회논문지B Vol.13 No.6

        본 논문에서는 문서 영상의 그림 영역에서 통계적 분석을 통한 단어 영상을 추출하는 방법을 제안한다. 제안 방법은 그림 영역의 구성 요소를 문자 성분과 그래픽 성분으로 분류하기 위하여 연결요소에 대한여 통계적 분석 방법인 상자그림 분석을 적용하고, 분류된 문자 성분들에 대하여 지역적 밀집도를 분석하여 문자 영역을 추출한다. 추출된 문자 영역에서 투영 히스토그램 분석을 통하여 문자열을 추출하고, 문자열을 단어단위 영상으로 분리하기 위하여 투영 히스토그램 분석과 갭 군집화, 특수 기호 검출 등을 수행한다. 제안 방법은 임계값의 사용 대신에 그림 영역의 구성 요소들에 대하여 통계적 분석을 수행하기 때문에 그림의 형태 변화에 민감하지 않으며, 지역적 밀집도 분석으로 보다 정확한 문자 영역을 추출하였다. 또한 제안 방법의 응용 분야인 주제어 검색을 위한 오프라인의 전처리에 해당하는 문서 영상의 단어단위 영상 추출에 적용하여 제안 방법에 대한 연구의 필요성을 제시하였다. This paper describes the development and implementation of a algorithm to decompose word images from image regions mixed text/graphics in document images using statistical analyses. To decompose word images from image regions, the character components need to be separated from graphic components. For this process, we propose a method to separate them with an analysis of box-plot using a statistics of structural components. An accuracy of this method is not sensitive to the changes of images because the criterion of separation is defined by the statistics of components. And then the character regions are determined by analyzing a local crowdedness of the separated character components. finally, we devide the character regions into text lines and word images using projection profile analysis, gap clustering, special symbol detection, etc. The proposed system could reduce the influence resulted from the changes of images because it uses the criterion based on the statistics of image regions. Also, we made an experiment with the proposed method in document image processing system for keyword spotting and showed the necessity of studying for the proposed method.

      • KCI등재

        문서 영상의 그림 영역에서 통계적 분석을 이용한 단어 영상 추출

        정창부,김수형 한국정보처리학회 2006 정보처리학회논문지. 소프트웨어 및 데이터 공학 Vol.13 No.7

        This paper describes the development and implementation of a algorithm to decompose word images from image regions mixed text/graphics in document images using statistical analyses. To decompose word images from image regions, the character components need to be separated from graphic components. For this process, we propose a method to separate them with an analysis of box-plot using a statistics of structural components. An accuracy of this method is not sensitive to the changes of images because the criterion of separation is defined by the statistics of components. And then the character regions are determined by analyzing a local crowdedness of the separated character components. Finally, we devide the character regions into text lines and word images using projection profile analysis, gap clustering, special symbol detection, etc. The proposed system could reduce the influence resulted from the changes of images because it uses the criterion based on the statistics of image regions. Also, we made an experiment with the proposed method in document image processing system for keyword spotting and showed the necessity of studying for the proposed method. 본 논문에서는 문서 영상의 그림 영역에서 통계적 분석을 통한 단어 영상을 추출하는 방법을 제안한다. 제안 방법은 그림 영역의 구성 요소를 문자 성분과 그래픽 성분으로 분류하기 위하여 연결요소에 대한여 통계적 분석 방법인 상자그림 분석을 적용하고, 분류된 문자 성분들에 대하여 지역적 밀집도를 분석하여 문자 영역을 추출한다. 추출된 문자 영역에서 투영 히스토그램 분석을 통하여 문자열을 추출하고, 문자열을 단어단위 영상으로 분리하기 위하여 투영 히스토그램 분석과 갭 군집화, 특수 기호 검출 등을 수행한다. 제안 방법은 임계값의 사용 대신에 그림 영역의 구성 요소들에 대하여 통계적 분석을 수행하기 때문에 그림의 형태 변화에 민감하지 않으며, 지역적 밀집도 분석으로 보다 정확한 문자 영역을 추출하였다. 또한 제안 방법의 응용 분야인 주제어 검색을 위한 오프라인의 전처리에 해당하는 문서 영상의 단어단위 영상 추출에 적용하여 제안 방법에 대한 연구의 필요성을 제시하였다.

      • KCI등재

        문서 영상 내 테이블 영역에서의 단어 추출

        정창부,김수형,Jeong, Chang-Bu,Kim, Soo-Hyung 한국정보처리학회 2005 정보처리학회논문지B Vol.12 No.4

        Document image is segmented and classified into text, picture, or table by a document layout analysis, and the words in table regions are significant for keyword spotting because they are more meaningful than the words in other regions. This paper proposes a method to extract words from table regions in document images. As word extraction from table regions is practically regarded extracting words from cell regions composing the table, it is necessary to extract the cell correctly. In the cell extraction module, table frame is extracted first by analyzing connected components, and then the intersection points are extracted from the table frame. We modify the false intersections using the correlation between the neighboring intersections, and extract the cells using the information of intersections. Text regions in the individual cells are located by using the connected components information that was obtained during the cell extraction module, and they are segmented into text lines by using projection profiles. Finally we divide the segmented lines into words using gap clustering and special symbol detection. The experiment performed on In table images that are extracted from Korean documents, and shows $99.16\%$ accuracy of word extraction. 문서 영상은 문서 구조 분석을 통하여 텍스트, 그림, 테이블 등의 세부 영역으로 분할 및 분류되는데, 테이블 영역에 있는 단어는 다른 영역의 단어보다 의미가 있기 때문에 주제어 검색과 같은 응용 분야에서 중요한 역할을 한다. 본 논문에서는 문서 영상의 테이블 영역에 존재하는 문자 성분을 단어단위로 추출하는 방법을 제안한다. 테이블 영역에서의 단어 추출은 실질적으로 테이블을 구성하는 셀 영역에서 단어를 추출하는 것이기 때문에 정확한 셀 추출 과정이 필요하다. 셀 추출은 연결 요소를 분석하여 테이블 프레임을 찾아내고, 교차점 검출은 전체가 아닌 테이블 프레임에 대해서만 수행한다. 잘못 검출된 교차점은 이웃하는 교차점과의 관계를 이용하여 수정하고, 최종 교차점 정보를 이용하여 셀을 추출한다. 추출된 셀 내부에 있는 텍스트 영역은 셀 추출 과정에서 분석한 문자성분의 연결 요소 정보를 재사용하여 결정하고, 결정된 텍스트 영역은 투영 프로파일을 분석하여 문자연로 분리된다. 마지막으로 분리된 문자열에 대하여 갭 군집화와 특수 기호 검출을 수행함으로써 단어 분리를 수행한다. 제안 방법의 성능 평가를 위하여 한글 논문 영상으로부터 추출한 총 In개의 테이블 영상에 대해 실험한 결과, $99.16\%$의 단어 추출 성공률을 얻을 수 있었다.

      • KCI등재

        투영 프로파일, Gap 및 특수 기호를 이용한 텍스트 영역의 어절 단위 분할

        정창부(Chang Bu Jeong),김수형(Soo Hyung Kim) 한국정보과학회 2004 정보과학회논문지 : 소프트웨어 및 응용 Vol.31 No.9

        본 논문에서는 인쇄체 텍스트 영상에 대한 문자열 분리 방법과 어절 분리 방법을 제안한다. 문자열 분리 방법은 수평 투영 프로파일을 분석하고, 오분리된 문자열에 대하여 재귀적 투영 프로파일(Recursive Projection Profile) 분석을 수행한다. 어절 단위 분리는 문자열에 대한 연결요소 분석을 통하여 gap을 검출한 후, 계층적 군집화 기법에 의해 어절과 어절 사이에 존재하는 gap을 판별하여 어절 분리점을 결정한다. 또한 어절과 어절 사이에 존재하는 특수기호를 검출하여 어절 분리점을 추가하기 위해서, 연결요소의 종횡비와 골격선(skeleton)의 형태적 특징을 고려한다. 제안 방법의 성능 평가를 위하여 총 84개의 텍스트 영상에 대하여 실험하였고, 국내 상용 OCR 소프트웨어인 아르미와 성능 비교하였다. 최종 어절 분리에 대하여 제안 방법과 아르미가 각각 99.92%와 97.58%의 성능으로 측정됨으로써 제안 방법이 아르미에 비해 우수함을 보였다. This paper proposes a method for line and word segmentation for machine-printed text blocks. To separate a text region into the unit of lines, it analyses the horizontal projection profile and performs a recursive projection profile cut method. In the word segmentation, between-word gaps are identified by a hierarchical clustering method after finding gaps in the text line by using a connected component analysis. In addition, a special symbol detection technique is applied to find two types of special symbols lying between words using their morphologic features. An experiment with 84 text regions from English and Korean documents shows that the proposed method achieves 99.92% accuracy of word segmentation, while a commercial OCR software named Armi 6.0 ProTM has 97.58% accuracy.

      • 문서 영상의 그림 영역에서 효과적인 단어 영상 추출에 관한 연구

        정창부 ( Chang-bu Jeong ),김수형 ( Soo-hyung Kim ) 한국정보처리학회 2006 한국정보처리학회 학술대회논문집 Vol.13 No.1

        본 논문에서는 그림 영역에서 단어 영상을 효과적으로 추출하는 방법을 제안한다. 제안 방법은 문자 성분과 그래픽 성분을 분류하기 위하여 구성 원소들의 통계값을 이용하는 상자그림 분석을 응용하고, 분류된 문자 성분들에 대하여 지역적 밀집도를 분석하여 문자 영역을 추출한다. 추출된 문자 영역에서 문자열 및 단어 영상을 추출하는 방법은 투영 히스토그램 분석 등을 적용한다. 제안 방법은 임계치 대신에 그림 영역의 통계값을 이용하였기 때문에 그림의 형태 변화에 민감하지 않으며, 지역적 밀집도 분석으로 보다 정확한 문자 영역을 추출하였다.

      • 수취인 주소 영역의 영상매칭에 기반한 유사 우편물 추출 방법

        정창부(Chang-Bu Jeong),박상철(Sang-Cheal Park),손화정(Hwa-Jeong Son),김수형(Soo-Hyung Kim) 한국정보과학회 2004 한국정보과학회 학술발표논문집 Vol.31 No.2Ⅱ

        우편물을 배달순서대로 정렬하는 과정을 순로구분이라고 하는데, 우편물의 처리과정에서 가장 많은 시간이 소요되는 부분이 바로 이 순로구분 과정이다. 우정선진국의 순로구분 자동화 시스템은 바코드를 이용하여 순로구분를 자동으로 처리하고 있지만, 국내의 시스템은 순로구분의 전단계까지만 수행하고 나머지 과정은 배달원이 자신의 경험에 의해 수작업으로 처리하고 있다. 본 논문에서는 우편물을 자동 검증하는 방법으로 바코드 대신에 우편영상 특정기반의 Virtual ID 사용을 위한 유사한 우편영상 추출방법을 제안한다. 제안 방법은 질의영상과 후보영상간의 유사성을 판별할 때, 각 영상의 수취인 영역에서 추출된 문자열 bounding Box 들의 대응되는 쌍을 결정하고 그 쌍들의 영역이 겹치는 정도를 유사도로 측정하는 방법이다. 291개의 우편영상에 대하여 실험한 결과, 289개의 영상이 정상적으로 유사한 우편영상으로 추출되었다. 또한, 유사한 우편영상으로 추출된 영상의 평균개수는 3.78 개로 비교적 높게 나왔지만 이는 실험 데이터에 동일 DM 발송 우편물이 연속적으로 위치한 경우가 많았기 때문이다.

      • KCI등재

        New Parametric Imaging Method with Fluorescein Angiograms for Detecting Areas of Capillary Nonperfusion

        김영재,정창부,황정민,양희경,이승현,김광기 대한의료정보학회 2014 Healthcare Informatics Research Vol.20 No.3

        Objectives: Fluorescein angiography (FAG) is currently the most useful diagnostic modality for examining retinal circulation, and it is frequently used for the evaluation of patients with diabetic retinopathy, occlusive diseases, such as retinal venous and arterial occlusions, and wet macular degeneration. This paper presents a method for objectively evaluating retinal circulation by quantifying circulation-related parameters. Methods: This method allows the semiautomatic preprocessing and registering of FAG images. The arterial input function is estimated from the registered set of FAG images using gamma-variate fitting. Then, the parameters can be computed by deconvolution on the basis of truncated singular value decomposition, and they can finally be presented as parametric color images in a combination of three colors, red, green, and blue. Results: After the estimation of arterial input function, the parameters of relative blood flow and mean transit time were computed using deconvolution analysis based on truncated singular value decomposition. Conclusions: The parametric color image is helpful to interpret the status of retinal blood circulation and provides quantitative data on retina ischemia without interobserver variability. This system easily provides the status of retinal blood circulation both qualitatively and quantitatively. It also helps to standardize FAG interpretation and may contribute to network-based telemedicine systems in the future.

      • KCI등재

        3차원 영상을 이용한 다트 던지기 운동에서의 주상골, 유두골, 월상골의 움직임 분석

        박찬수,김광기,김유신,정창부,장익규,이상림,오수찬,유도현,백구현,Park, Chan-Soo,Kim, Kwang-Gi,Kim, Yu-Shin,Jeong, Chang-Bu,Jang, Ik-Gyu,Lee, Sang-Lim,Oh, Su-Chan,Yu, Do-Hyun,Baek, Goo-Hyun 대한의용생체공학회 2011 의공학회지 Vol.32 No.2

        The primary purpose of this study was to analyze the motion of the scaphoid, capitate, and lunate during dart-throwing motion by three-dimensional modeling. Five series of CT images of five normal right wrists were acquired from five motion steps from radial extension to ulnar flexion in the dart-throwing motion plane. Segmentation and three-dimensional modeling of bones from CT images was performed using Analyze. Distances among centroids of the scaphoid, capitate and lunate and angles between principal axes of three carpal bones were calculated to analyze the motion by using MATLAB. As the wrist motion changed from radial extension to ulnar flexion, the distance between two adjacent bones decreased. The scaphoid and lunate rotated less than the capitates during dart-throwing motion. This study reports the Three-dimensional in vivo measurement of carpal motion using CT images.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼