http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
임광용(Kwangyong Lim),변혜란(Hyeran Byun),최영우(Yeongwoo Choi) 한국정보과학회 2016 정보과학회논문지 Vol.43 No.2
본 논문에서는 도로주행 영상에서의 자동차 번호판 검출방법을 제안한다. 제안하는 방법은 조명변화에 강인한 8bit-MCT 특징과 랜드마크 기반의 Adaboost 알고리즘을 이용하여 번호판 후보 영역을 생성하고, Adaboost의 검출 스코어를 이용하여 번호판의 위치를 확률로 추정하는 현저도 지도를 생성한다. 현저도 지도에서 임계값 이상의 영역을 번호판 후보 영역으로 검출하고, 각 후보 영역에 대하여 지역분산을 이용하여 영역을 보정한 후 SVM과 8bit-MCT의 히스토그램을 특징으로 사용하여 영역을 검증하고 자동차 번호판 영역을 확정한다. 본 논문에서 제안한 방법을 한국과 유럽의 다양한 도로주행 영상에 적용하여 85%의 안정적인 검출 성능을 실험을 통하여 입증하였다. This paper proposes a vehicle license plate detection method in real road environments using 8 bit-MCT features and a landmark-based Adaboost method. The proposed method allows identification of the potential license plate region, and generates a saliency map that presents the license plate’s location probability based on the Adaboost classification score. The candidate regions whose scores are higher than the given threshold are chosen from the saliency map. Each candidate region is adjusted by the local image variance and verified by the SVM and the histograms of the 8bit-MCT features. The proposed method achieves a detection accuracy of 85% from various road images in Korea and Europe.
Optical flow를 이용한 얼굴요소 및 얼굴의 움직임 측정값에 따른 3차원 얼굴모델의 움직임 합성
박도영(Doyoung Park),변혜란(Hyeran Byun) 한국정보과학회 1998 한국정보과학회 학술발표논문집 Vol.25 No.2Ⅱ
동영상에서 얼굴의 움직임을 이해하는 것은 인간과 컴퓨터간의 상호작용을 이루는 분야에서 중요한 문제이다. 본 논문에서는 2차원 동영상에서 얼굴요소 및 얼굴의 움직임을 측정하기 위해 optical flow를 통해 매개변수화된 움직임 벡터를 추출한다. 그리고나서, 이를 소수의 매개변수들의 조합으로 만들어 얼굴의 움직임에 대한 정보를 묘사할 수 있게 하였다. 매개변수화된 움직임 벡터는 얼굴 및 얼굴 요소의 특징에 따라 다른 벡터 모델을 사용한다. 2차원 동영상에서 매개변수화된 움직임 벡터는 매 프레임마다 갱신되어 각 프레임에서 얼굴 및 얼굴 요소의 위치를 파악한다. 또한, 갱신된 벡터의 매개변수 조합으로 만들어 확인된 움직임에 대한 정보가 3차원 얼굴모델에 전달되며 3차원 얼굴 모델의 단위행위(Action Unit)와 연결 되어 2차원 동영상에서의 얼굴 움직임을 합성할 수 있게 하였다.
박일권(Ilkwon Park),변혜란(Hyeran Byun) 한국정보과학회 2006 한국정보과학회 학술발표논문집 Vol.33 No.2B
본 논문에서는 단일 비디오 내에서 다양한 움직임 유형을 분석하여 각각의 움직임 유형에 따른 효율적인 입체 영상 변환 알고리즘을 제안한다. 움직임 정보는 단일 비디오 영상을 입체영상으로 변환하기 위해 가장 많이 사용되는 정보 중 하나이며 특히, 줌 인(zoom in), 줌 아웃 (zoom out) 움직임 발생시 상대적으로 높은 입체감을 제공한다. 따라서 본 논문은 수평, 수직 모션뿐만 아니라 줌 움직임(zooming motion)을 효율적으로 검출하기 위한 새로운 모션 결정 규칙을 제안 하였다. 실험에서는 MPEG 실험에 많이 사용되는 동영상 데이터를 이용하였으며 제안된 모션 결정 규칙은 순수한 줌 움직임뿐만 아니라 노이즈가 포함된 복잡한 줌 움직임에도 강인한 결과를 보였다.
조선영(Cho Sunyoung),변혜란(Byun Hyeran) 한국정보과학회 2008 한국정보과학회 학술발표논문집 Vol.35 No.2
본 논문에서는 영상 세그멘테이션 정보를 이용한 자연 영상에서의 매팅 방법을 제안한다. 이전의 매팅 방법들은 확실한 전경과 배경에 대한 정보를 주는 트라이맵을 자세하게 주지 않을 경우 불확실 영역에서의 색상 모델의 부족으로 인해 부정확한 알파맷을 생성한다. 따라서 제안하는 매팅 방법에서는 영상 세그멘테이션 정보를 이용하여 대략적인 트라이맵을 자세하게 바꿈으로써 불확실 영역에서의 색상 모델의 부족으로 인한 문제점을 해결하였다. 또한, 알파값 추정시 색상정보 뿐 아니라 명도정보 및 거리정보를 이용함으로써 더 정확한 알파맷을 생성하도록 하였다. 실험을 통해 제안하는 방법이 알파맷을 생성하는 데 효율적임을 보였다.
지연숙(Yeonsook Chi),변혜란(Hyeran Byun),유지상(Jisang Yoo) 한국정보과학회 1998 한국정보과학회 학술발표논문집 Vol.25 No.2Ⅱ
웨이브렛 변환을 사용한 영상은 인간의 시각체계(HVS)에 적절한 양자화 및 부호화를 위한 계층적 구조를 제공한다. 인간의 시각이 민감하게 감지하는 부분을 더 정확하게 부호화 하고, 그렇지 못한 부분에서는 적절한 정보의 손실을 허용하는 원리를 이상적으로 적용할 수 있다. 이런 웨이브렛 변환영상의 통계적 특성을 이용한 제로트리 부호화 기법은 중요한 영상계수를 선별하여 영상전체에서 의미있는 계수를 순서대로 부호화 함으로써 매입 파일(Embeded File)를 생성한다. 본 연구에서는 제로트리 부호화 과정중 불확실 구간(Uncertainty Interval)에서 발생하는 오차(Error)를 줄이기 위하여 LBG(Linde Bute Gray) 알고리즘을 도입하여 최적이 오차 코드북을 생성한 후 복원시 사용함으로써 결과의 향상을 보였다. 오차교정(Error Correction)은 EZW(Embeded Zerotee Wavelet) 부호화 과정에서 손실되기 쉬운 고주파수 밴드에 적용하여 복원시 영상의 자세한(detail) 성분을 살리는데 효과적이다. JPEG과 같은 DCT 기반 영상압축 결과에 비하여 화질에서 더 좋은 성능을 보일뿐 아니라, DCT 특유의 블록화 현상도 제거되었다.
김진모(Jinmo Kim),변혜란(Hyeran Byun) 한국정보과학회 2004 한국정보과학회 학술발표논문집 Vol.31 No.2Ⅱ
본 논문에서는 얼굴 요소 기반의 얼굴 검출을 설명한다. 기존의 얼굴 전체 영역을 사용한 검출의 문제점과 얼굴 요소 기반의 얼굴 검출 방법의 차이점을 제시하며, 얼굴 전체 영역을 사용한 검출 방법에서 해결하기 어려운 문제점을 해결 하고자 한다. 얼굴 요소 기반의 얼굴 검출 방법은 Support Vector Machines (SVM)을 사용 한다. 이 SVM을 사용하여 독립적으로 얼굴 요소를 찾으며 각각의 얼굴 요소의 위치 정보를 이용한 지식 기반 방법을 이용하여 최종 얼굴 영역을 판별해 낸다. 실험 결과에서 알 수 있듯이 얼굴 요소 기반 알고리즘은 얼굴 요소 가려짐 및 얼굴 요소의 유실에 강인함을 볼 수 있다.
홍성희(Sunghee Hong),변혜란(Hyeran Byun) 한국정보과학회 2004 한국정보과학회 학술발표논문집 Vol.31 No.1B
본 논문에서는 사람의 얼굴표정을 구분하기 위해서 무표정 영상으로부터 18개의 특징점을 찾고, 그 특징점간의 거리를 템플릿으로 이용하는 방법을 연구하였다. 얼굴표정인식을 위해 정의된 기본 템플릿과 입력 표정 영상에서의 특징점 간의 상대적인 거리의 차이와 특징점의 좌표변위 차이를 이용하여 표정을 구분하도록 하였다. 각 테스트 표정영상의 특징점은 주요 얼굴요소로부터 아이겐포인트(eigen-point)를 자동으로 추출하였다. 표정 인식은 신경망 학습을 통해서 기쁨, 경멸, 놀람, 공포, 슬픔 등 5가지로 나누어 실험하였고 신경망의 인식 결과와 사람의 인식 결과를 통해서 비교한 결과, 72%의 인식성능을 보여주었다.