http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
몰입형 비디오 부호화의 아틀라스 생성을 위한 홀 채움 기법
임성균(Sung-Gyun Lim),이광순(Gwangsoon Lee),김재곤(Jae-Gon Kim) 한국방송·미디어공학회 2021 한국방송공학회 학술발표대회 논문집 Vol.2021 No.6
MPEG 비디오 그룹은 제한된 3D 공간 내에서 움직임 시차(motion parallax)를 제공하면서 원하는 시점(view)을 렌더링(rendering)하기 위한 표준으로 TMIV(Test Model for Immersive Video)라는 테스트 모델과 함께 효율적인 몰입형 비디오의 부호화를 위한 MIV(MPEG Immersive Video) 표준을 개발하고 있다. 몰입감 있는 시각적 경험을 제공하기 위해서는 많은 수의 시점 비디오가 필요하기 때문에 방대한 양의 비디오를 고효율로 압축하는 것이 불가피하다. TMIV 는 여러 개의 입력 시점 비디오를 소수의 아틀라스(atlas) 비디오로 변환하여 부호화되는 화소수를 줄이게 된다. 아틀라스는 선택된 소수의 기본 시점(basic view) 비디오와 기본 시점으로부터 합성할 수 없는 나머지 추가 시점(additional view) 비디오의 영역들을 패치(patch)로 만들어 패킹(packing)한 비디오이다. 본 논문에서는 아틀라스 비디오의 보다 효율적인 부호화를 위해서 패치 내에 생기는 작은 홀(hole)들을 채우는 기법을 제안한다. 제안기법은 기존 TMIV8.0 에 비해 1.2%의 BD-rate 이 향상된 성능을 보인다.
VVC 를 위한 CNN 기반의 변환계수 적응적 화질개선 기법
김지훈(Ji-Hun Kim),임성균(Sung-Gyun Lim),박도현(Dohyeon Park),김재곤(Jae-Gon Kim) 한국방송·미디어공학회 2021 한국방송공학회 학술발표대회 논문집 Vol.2021 No.6
최근 VVC(Versatile Video Coding) 표준 완료 이후 JVET(Joint Video Experts Team)은 NNVC(Neural Network-based Video Coding) AhG(Ad-hoc Group)을 구성하고 인공지능을 이용한 비디오 압축 기술들을 탐색하고 있다. 본 논문에서는 VVC 복원 영상의 DCT 계수를 기반으로 복원 영상을 분류하고, 분류된 각 클래스에 따라 적응적으로 CNN(Convolutional Neural Network) 기반의 화질 개선을 수행하는 VVC 후처리 기법을 제안한다. 실험결과, 제안기법은 AI(All Intra) 부호화 모드에서 1.23% BD-rate 이득을 보였다.
몰입형 비디오의 깊이 영상 생성을 위한 IVDE 개선 기법
김현호(Hyun-Ho Kim),임성균(Sung-Gyun Lim),김용환(Yong-Hwan Kim) 한국방송·미디어공학회 2023 한국방송공학회 학술발표대회 논문집 Vol.2023 No.6
최근 메타버스(Metaverse)에 대한 관심이 늘어남에 따라, 이를 구성하는 가상현실(VR), 증강현실(AR)과 같은 몰입형 미디어 관련 연구개발이 활발하게 진행되고 있다. 이를 돕기 위해, ISO/IEC MPEG (Moving Picture Experts Group) 표준화 그룹은 MPEG-I (Immersive) 그룹 내에서 다양한 몰입형 미디어 부호화 표준화를 진행 중이다. 그 중에서도, 3 자유도 이상을 제공하는 다수의 2D 비디오를 기반으로 사용자에게 몰입감을 줄 수 있는 미디어의 압축, 전송에 대한 기술 표준화가 MPEG-I Visual (MIV) 소그룹에서 진행되고 있으며, 이러한 미디어는 사용자의 시점 정보를 토대로 영상을 합성해 사용자에게 출력하기 위해 깊이 영상(depth video)이라는 추가 정보를 제공한다. 여기에 필요한 깊이 영상을 사전에 생성하기 위해, MIV 에서는 몰입형 비디오 깊이 예측 프로그램인 IVDE(Immersive Video Depth Estimate)를 개발 중에 있으나, 여전히 출력 깊이 영상의 율-왜곡(BD-rate) 성능이 다소 낮다는 단점을 가지고 있다. 이를 개선하고자, 본 논문에서는 IVDE 의 색채 정보 차이 계산에 성분 별 가중치를 다르게 주고, 예측에 사용하는 깊이 값을 더 세분화하여 최종 합성 영상의 성능을 높이는 기법을 제안한다. 제안 방식은 6 개의 테스트 영상에서 WS-PSNR 기준 평균 1.7%, IV-PSNR 기준 평균 5.21% BD-rate 이득을 보였다.
효율적인 몰입형 비디오의 부호화를 위한 적응적 패치 패킹 블록 크기 조절 기법
김현호(Hyun-Ho Kim),임성균(Sung-Gyun Lim),김유라(Yura Kim),김용환(Yong-Hwan Kim) 한국방송·미디어공학회 2023 한국방송공학회 학술발표대회 논문집 Vol.2023 No.11
최근 메타버스(Metaverse)에 대한 관심이 집중됨에 따라, 이를 구성하는 가상현실(VR), 증강현실(AR)과 같은 몰입형 미디어 관련 연구개발이 활발하게 진행되고 있다. 이를 돕기 위해, ISO/IEC MPEG (Moving Picture Experts Group) 표준화 그룹은 MPEG-I (Immersive) 그룹 내에서 다양한 종류의 몰입형 미디어 부호화 표준화를 진행중이다. 그 중에서도, 다수의 2D 비디오를 기반으로 3 자유도 이상을 제공하여 사용자에게 몰입감을 줄 수 있는 미디어의 압축 및 전송을 위한 MPEG-I Immersive Video (MIV) 표준화가 진행되고 있으며, 이러한 다시점 영상의 효과적인 부호화를 위한 테스트 모델인 Test Model for Immersive Video (TMIV)를 개발하였다. 현재 TMIV 내에서 사용되는 패치 패킹 블록 크기 값은 고정된 값을 사용하고 있으며, 이로 인해 몇몇 다시점 영상의 패치들이 전송되지 못하고 그대로 버려지는 상황이 발생한다. 이를 개선하고자, 본 논문에서는 TMIV 내 패치 패킹 블록크기를 Group of frames (GOF) 단위에서 적응적으로 조절하여, 버려지는 패치의 수를 최소화함으로써 최종 영상의 합성 성능을 높이는 기법을 제안한다. 제안 방식은 8 개의 테스트 영상에서 WS-PSNR 기준 평균 10.0% 이상, IVPSNR기준 평균 13.2% 이상의 BD-rate 이득을 보였다.