http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
지연숙(Yeonsook Chi),변혜란(Hyeran Byun),유지상(Jisang Yoo) 한국정보과학회 1998 한국정보과학회 학술발표논문집 Vol.25 No.2Ⅱ
웨이브렛 변환을 사용한 영상은 인간의 시각체계(HVS)에 적절한 양자화 및 부호화를 위한 계층적 구조를 제공한다. 인간의 시각이 민감하게 감지하는 부분을 더 정확하게 부호화 하고, 그렇지 못한 부분에서는 적절한 정보의 손실을 허용하는 원리를 이상적으로 적용할 수 있다. 이런 웨이브렛 변환영상의 통계적 특성을 이용한 제로트리 부호화 기법은 중요한 영상계수를 선별하여 영상전체에서 의미있는 계수를 순서대로 부호화 함으로써 매입 파일(Embeded File)를 생성한다. 본 연구에서는 제로트리 부호화 과정중 불확실 구간(Uncertainty Interval)에서 발생하는 오차(Error)를 줄이기 위하여 LBG(Linde Bute Gray) 알고리즘을 도입하여 최적이 오차 코드북을 생성한 후 복원시 사용함으로써 결과의 향상을 보였다. 오차교정(Error Correction)은 EZW(Embeded Zerotee Wavelet) 부호화 과정에서 손실되기 쉬운 고주파수 밴드에 적용하여 복원시 영상의 자세한(detail) 성분을 살리는데 효과적이다. JPEG과 같은 DCT 기반 영상압축 결과에 비하여 화질에서 더 좋은 성능을 보일뿐 아니라, DCT 특유의 블록화 현상도 제거되었다.
객체의 크기 추정과 영상 매팅을 결합한 단일 뷰에서의 객체 삽입
조선영(Sunyoung Cho),변혜란(Hyeran Byun) 한국정보과학회 2009 한국정보과학회 학술발표논문집 Vol.36 No.1C
본 논문에서는 객체의 크기 추정과 영상 매팅을 결합하여 사실적인 합성 영상 생성을 위한 단일 뷰에서의 객체 삽입 방법을 제안한다. 제안하는 방법은 영상의 기하학 정보와 참조 객체와의 관계를 이용하여 삽입하는 객체의 크기를 추정하고, 트라이맵 최적화와 신뢰도 맵 생성을 통한 필터링 기반의 영상 매팅을 이용하여 세밀하게 전경 객체를 추출한다. 실험을 통해 객체의 크기가 적은 오차 범위 내에서 잘 추정되는 것을 보였고, 제안하는 매팅 또한 이전의 방법론들과의 비교 및 다양한 데이터 실험을 통해 전경 객체를 잘 추출하는 것을 보였다. 마지막으로 객체의 크기 추정 및 매팅을 결합하여 자연스럽고 사실적으로 객체를 삽입한 결과를 보였다.
성하천(Hacheon Sung),변혜란(Hyeran Byun) 한국정보과학회 2009 한국정보과학회 학술발표논문집 Vol.36 No.1C
3D 얼굴 추적은 표정 인식, 보안, HCI(Human-Computer Interface)등 컴퓨터 비전에 관련된 여러 분야의 기반 기술로써 효과적인 얼굴 추적을 위한 다양한 방법들이 제안 되어 왔다. 그러나, 현재까지 제안된 방법들은 높은 연산 비용 때문에 일반적인 저 사양 단말기에 적용하는데 한계가 있다. 본 논문에서는 저 사양 단말기에서도 적용 가능한 3D 공간에서의 실시간 얼굴 추적 및 포즈 추정을 위하여, 1) 원근 투영(Perspective Projection)된 3D 움직임 파라미터(3D Motion parameter) 기반의 특징 선택, 2) 선택된 특징 기반의 파티클 필터(Particle Filter)를 이용한 3D 얼굴 추적 그리고, 3) 위의 1)과 2)를 3D 실린더 헤드 모델(3D Cylindrical Head Model)과 결합한 빠른 속도의 3D 얼굴 추적 방법을 제안한다.
Exploiting Web Images for Video Highlight Detection With Triplet Deep Ranking
Kim, Hoseong,Mei, Tao,Byun, Hyeran,Yao, Ting IEEE 2018 IEEE transactions on multimedia Vol.20 No.9
<P>Highlight detection from videos has been widely studied due to the fast growth of video contents. However, most existing approaches to highlight detection, either handcraft feature based or deep learning based, heavily rely on human-curated training data, which is very expensive to obtain and, thus, hinders the scalability to large datasets and unlabeled video categories. We observe that the largely available Web images can be applied as a weak supervision for highlight detection. For example, the top-ranked images in reference to the query “skiing” returned by a search engine may contain considerable positive samples of “skiing” highlights. Motivated by this observation, we propose a novel triplet deep ranking approach to video highlight detection using Web images as a weak supervision. The approach handles the relative preference of highlight scores between highlighting frames, nonhighlighting frames, and Web images by the triplet ranking constraints. Our approach can iteratively train two interdependent deep models (i.e., a triplet highlight model and a pairwise noise model) to deal with the noisy Web images in a single framework. We train the two models with relative preferences to generalize the capability regardless of the categories of training data. Therefore, our approach is fully category independent and exploits weakly supervised Web images. We evaluate our approach on two challenging datasets and achieve impressive results compared with the state-of-the-art pairwise ranking support vector machines, a robust recurrent autoencoder, and spatial deep convolution neural networks. We also empirically verify through cross-dataset evaluation that our category-independent model is fairly generalizable even if two different datasets do not share exactly the same categories.</P>