http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
경로 재설정을 통한 3차원 시상 두뇌 자기공명영상 분할
허신,손광훈,최윤식,강문기,이철희,Hun, S.,Sohn, K. H.,Choe, Y. S.,Kang, M. G.,Lee, C. H. 대한의용생체공학회 2000 의공학회지 Vol.21 No.2
본 논문에서는 중앙시상 두뇌 자기공명영상 분할결과를 이용한 3차원 시상 두뇌 자기공명영상의 자동분할기법을 제안한다. 제안된 알고리즘에서는 먼저 3차원 시상 두뇌 자기공명영상의 중앙영상을 분할하고, 분할된 중앙두뇌 자기공명영상을 인접하는 영상에 마스크로 적용한다. 이 때 마스크 적용으로 인하여 인접하는 영상이 절단되는 문제가 발생할 수 있다. 이러한 문제를 해결하기 위하여 절단 영역의 경계점을 검출한 후, 절단 영역에 대한 경로 재설정을 통해 절단 영역을 복원한다. 이러한 경로 재설정을 위해 connectivity-based threshold segmentation algorithm을 사용하였다. 실험결과 제안된 알고리즘의 유용성을 확인할 수 있었다.
물체 정합을 위한 특징점 추출 및 물체 표현에 관한 연구
박정민,손광훈,허영,Park, Jeong-Min,Sohn, Kwang-Hoon,Huh, Young 대한전자공학회 1998 電子工學會論文誌, S Vol.s35 No.6
물체를 인식하기 위한 효율적인 방법 중의 하나는 물체의 경계선에서 가장 적절한 특징들을 추출해 내어 인식에 사용하는 것이다. 본 논문에서는 경계선 위의 각 화소에서 주변 화소들과의 관계를 이용해 코너점, 접점, 변곡점을 추출하여 물체의 특징점으로 사용하였다. 기존에 주로 사용되던 중요한 특징점의 하나인 코너점은 곡률 함수상에서 찾고, 또한 물체가 직선과 곡선으로 이루어져 있을 경우 코너점만으로 물체를 표현하기에 부족하므로 곡률 함수를 미디안 필터링하여 양자화 잡음을 제거함으로써 접점과 변곡점을 찾는 새로운 방법을 제안하였다. 그리고 이 세 가지 특징점을 물체 정합의 요소로 사용하여 물체를 정합하였다. 정합 방법으로는 Discrete Hopfield Neural Network을 사용하였으며, 성능 분석 결과 곡선이 섞인 물체에서 코너점만으로 물체를 정합한 경우보다 특징점으로 물체를 정합한 경우 우수한 정합 성능을 나타내었다. An efficient approach to recognize occluded objects is to detect a number of essential features on the boundary of the unknown shape. The salient points including corner points, tangential points and inflection points are detected by the relation of neighboring pixels of each pixel on the boundaries. Corner points are usually detected in the curvature function and tangential points and inflection points are detected by median filtering the curvature function to avoid the effect of quantization noise as corner points is not sufficient to represent an object with lines and arcs. Then, these salient points are used as features for object matching. Discrete Hopfield Neural Network is used for object matching. Experimental results show that the matching result using salient points is better than those of using corner points only when an object consists of lines and arcs.
3D Visual Attention Model and its Application to No-reference Stereoscopic Video Quality Assessment
김동현,손광훈,Kim, Donghyun,Sohn, Kwanghoon The Institute of Electronics and Information Engin 2014 전자공학회논문지 Vol.51 No.4
최근 사용자에게 직접 입체감을 제공하는 3차원 영상기술에 대한 관심이 증대함에 따라 스테레오스코픽 비디오 화질 측정기술개발은 중요한 주제로 많은 연구자에게 관심을 받고 있다. 특히, 스테레오스코픽 비디오 화질 측정에 중요한 역할을 하는 인간시각특성을 고려한 연구가 활발히 진행되지 않고 있어 본 논문에서 스테레오스코픽 비디오를 시청할 때 자극되는 다수의 인간시각특성 요소인 깊이, 움직임, 컬러, 휘도, 대조 등을 고려하여 3차원 시각 주의 모델을 제안한다. 또한, 본 논문에서는 실제 3차원 영상 특정 영역의 화질 열화 정도를 측정하는데 제안된 3차원 시각 주의 모델을 사용하여 무참조 스테레오스코픽 비디오 화질 측정 방법을 제안하였다. 제안 방법을 검증하기 위해 주관평가를 실시하여 기존의 스테레오스코픽 비디오 화질 측정 방법보다 평균 평가점에서 더 높은 연관성을 보였다. 게다가, 3차원 시각 주의 모델을 이용하여 스테레오스코픽 비디오의 관심영역 추출 결과는 공간적, 시간적 요소를 고려하여 추출된 관심영역에 비해 실제 관심영역과 더욱 유사함을 주관적으로 보여 제안 방법의 효율성을 보였다. As multimedia technologies develop, three-dimensional (3D) technologies are attracting increasing attention from researchers. In particular, video quality assessment (VQA) has become a critical issue in stereoscopic image/video processing applications. Furthermore, a human visual system (HVS) could play an important role in the measurement of stereoscopic video quality, yet existing VQA methods have done little to develop a HVS for stereoscopic video. We seek to amend this by proposing a 3D visual attention (3DVA) model which simulates the HVS for stereoscopic video by combining multiple perceptual stimuli such as depth, motion, color, intensity, and orientation contrast. We utilize this 3DVA model for pooling on significant regions of very poor video quality, and we propose no-reference (NR) stereoscopic VQA (SVQA) method. We validated the proposed SVQA method using subjective test scores from our results and those reported by others. Our approach yields high correlation with the measured mean opinion score (MOS) as well as consistent performance in asymmetric coding conditions. Additionally, the 3DVA model is used to extract information for the region-of-interest (ROI). Subjective evaluations of the extracted ROI indicate that the 3DVA-based ROI extraction outperforms the other compared extraction methods using spatial or/and temporal terms.
프로젝션 기반 무안경 방식 멀티뷰 3D 디스플레이에서 구면 렌티큐라 렌즈 시트를 이용하여 재생된 입체영상의 해상도를 증가시키는 광학적 접근 방법
손영섭,김성규,손광훈,이광훈,Sohn, Young-Sub,Kim, Sung-Kyu,Sohn, Kwanghoon,Lee, Kwang-Hoon 한국광학회 2012 한국광학회지 Vol.23 No.4
고정 화소수의 표시소자를 기반으로 하는 무안경 방식 다시점 3D 디스플레이는 시점수 증가에 따른 입체영상 저해상도 문제를 안고 있다. 이를 해결하기 위하여, 본 논문은 프로젝션 기반의 무안경식 다시점 3D 디스플레이 시스템에서 구면 형태의 상용 렌티큐라 렌즈시트를 사용하여 단위화소의 폭을 집속하고 광원수 증가에 따른 유효 해상도를 증가시켜 저해상도의 문제를 해결하는 광학적 접근 방법을 제시하였다. 제시된 방법은 주어진 시스템환경에서 도출 가능한 주요 파라메터의 정의 및 이론적, 실험적 결과를 통하여 축소 가능한 단위화소폭 및 확장 가능한 유효 해상도를 도출하는 수순으로 수행되었다. 결과적으로 1.016 mm의 단위화소폭을 기준으로 25 LPI의 렌티큐라 렌즈 시트를 투과하였을 경우, 축소된 폭(Beam waist)은 0.19 mm, 확장 가능한 유효 해상도는 최대 5배를 나타내었다. 이와 더불어, 초점심도(Depth of focus)는 1.496 mm로서 상용 렌티큐라 렌즈 시트의 두께 허용치 및 광학계 정렬 허용범위를 충분히 확보하였다. Multi-view 3D displays based on a limited number of pixels have the problem that the stereo-scopic image has a low resolution because of increasing view number. To solve the problem of low resolution, we propose an optical approaching method that focuses the width of a unit pixel by using a commercial spherical shape lenticular lens sheet and increases the effective resolution by increasing the number of sources of light in the multi-view 3D display system based on projection type. The method was performed in such an order that several main derivable parameters were defined, and, through the theoretical and experimental result, the value of the contractible unit pixel width and the scalable effective resolution was derived in a given system environment. As a result, for the case that the ray of light from the projector transmitted the 25 LPI lenticular lens sheet which has the pitch size 1.016 mm, the focused unit pixel width was 0.19 mm and the scalable effective resolution was, at most, 5 times wider than the original one. In addition, the range of depth of focus was 1.496 mm, which shows us the range of thickness tolerances of commercial spherical shape lenticular lens sheet and sufficient optical alignment tolerances.