RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        정형체의 투사 선분의 오차 최소화에 의한 영상기반 모델링

        박종승,Park Jong-Seung 한국정보처리학회 2005 정보처리학회논문지B Vol.12 No.5

        다중영상으로부터 투사 선분을 이용하여 3D 모델을 생성하고 각 면의 텍스쳐를 획득하는 구조 복원 기법을 제안한다 사용자는 매우 단순한 절차를 통해 정확한 3D 모델 데이터를 획득할 수 있다. 모델 파라메터 추정을 위해 내재된 비선형 최적화 방법은 사용자 지정 영상 선분과 모델의 투사 선분의 거리를 최소화하는 방법에 기반하고 있다. 모델링 기법의 기능적 주요 목표는 형상이 포함된 다중 영상으로부터 그 형상의 3차원 구조를 복원하고 각 면의 텍스쳐를 생성하는 것이다. 본 연구에서는 3D 정형체를 사용하여 사용의 편리성을 증대시킬 수 있고 정형체의 파라메터의 오차를 최소화하여 복원된 구조의 정확성을 높이는 방법을 제시한다. 제안된 방법은 유한 선분에 기반한 오차 함수를 도입하여 무한 직선에 기반한 방법보다 정확한 모델링이 가능하다. 제안된 방법을 다양한 실제 영상에 적용한 실험 결과를 제시하고 다중 영상기반 모델링 도구의 개발 과정에서의 기술적인 문제점과 해결책을 기술한다. This paper proposes an image-based modeling method which recovers 3D models using projected line segments in multiple images. Using the method, a user obtains accurate 3D model data via several steps of simple manual works. The embedded nonlinear minimization technique in the model parameter estimation stage is based on the distances between the user provided image line segments and the projected line segments of primitives. We define an error using a finite line segment and thus increase accuracy in the model parameter estimation. The error is defined as the sum of differences between the observed image line segments provided by the user and the predicted image line segments which are computed using the current model parameters and camera parameters. The method is robust in a sense that it recovers 3D structures even from partially occluded objects and it does not be seriously affected by small measurement errors in the reconstruction process. This paper also describesexperimental results from real images and difficulties and tricks that are found while implementing the image-based modeler.

      • KCI등재

        객체 특징점 모델링을 이용한 시멘틱 단서 기반 영상 분류

        박상혁(Sanghyuk Park),변혜란(Hyeran Byun) 한국정보과학회 2010 정보과학회 컴퓨팅의 실제 논문지 Vol.16 No.1

        대부분의 영상들은 여러 객체 영역들의 시각적인 특징과 각각의 의미들의 조합으로 구성되어 있다. 그러나 일반적으로 영상 처리를 위한 컴퓨터 시스템들은 영상을 특정 객체 영역의 의미 정보 단위로 해석하지 못하기 때문에 사람이 영상을 인지하는 것과 의미적인 차이(semantic gap)가 발생한다. 본 논문에서는 이러한 문제점을 극복하기 위하여 각 객체 영역 단위에서 추출한 고유한 특징점들을 고차원의 의미 정보로 모델링하여 영상을 분류하는 방법을 제안한다. 제안하는 방법은 객체 단위로 추출된 고유한 특징점들의 의미 정보를 특정 객체 영역을 인식하기 위한 의미 단서로 이용한다. 이를 통하여 기존의 영상 분류 방법들에 비하여 인간의 인지 능력과 유사하고 보다 효율적으로 영상을 분류할 수 있는 장점이 있다. 실험 결과는 다양한 카테고리 종류의 영상에 대하여 제안하는 방법의 효과적인 분류 성능을 보여준다. Most images are composed as union of the various objects which can describe meaning respectively. Unlike human perception, The general computer systems used for image processing analyze images based on low level features like color, texture and shape. The semantic gap between low level image features and the richness of user semantic knowledges can bring about unsatisfactory classification results from user expectation. In order to deal with this problem, we propose a semantic cue based image classification method using salient points from object of interest. Salient points are used to extract low level features from images and to link high level semantic concepts, and they represent distinct semantic information. The proposed algorithm can reduce semantic gap using salient points modeling which are used for image classification like human perception. and also it can improve classification accuracy of natural images according to their semantic concept relative to certain object information by using salient points. The experimental result shows both a high efficiency of the proposed methods and a good performance.

      • 컴퓨터 그래픽스 응용 연구 현황 - 디지털 식물 기술

        김진모 동국대학교 영상문화콘텐츠연구원 2013 영상문화콘텐츠연구 Vol.0 No.-

        Diverse study areas related to computer graphics have developed so much by now. Computer graphics were largely divided into modeling, rendering, and animation, have been steadily studied aiming at realistic expressions and real-time processing of virtual worlds, are developing in combination with many application fields such as computer visions, virtual reality, augmented reality, human-and computer interaction, and visual effects in movies. Technologies related to digital plant production such as natural phenomenon modeling, rendering, and visualizing have been hardly studied in Korea compared to other computer graphics application studies despite their importance. This study analyzes overseas study trends for digital plant techniques related modeling, rendering, and simulation and methods of expression of natural landscapes including virtual ecosystems composed of multiple plants. Through the analysis, the necessity and perspective of digital plant production techniques which are weak in Korea are set forth. 컴퓨터 그래픽스와 관련된 다양한 연구 분야는 지금까지 많은 발전을 이루어왔다. 컴퓨터 그래픽스는 크게 모델링, 렌더링, 애니메이션으로 분류되어 가상 세계의 사실적 표현과 실시간 처리를 위한 목표로꾸준히 연구되었고, 컴퓨터비전, 가상 및 증강현실, 인간과 컴퓨터 상호작용, 영화 특수 효과 등 여러 응용분야와 융합하여 발전하고 있다. 식물을 포함한 자연현상을 모델링, 렌더링 및 시각화하는 등의 디지털식물 제작과 관련된 기술들은 중요성에 비해 다른 컴퓨터 그래픽스 응용 연구와 비교하여 국내에서는 거의 연구가 진행되고 있지 않다. 본연구는 디지털 식물 기술과 관련한 모델링, 렌더링 그리고 시뮬레이션기술과 다수의 식물로 구성된 가상생태계를 비롯한 자연 조경의 표현방법에 대한 국외 연구 동향을 분석한다. 그리고 이를 통해 국내 취약한 디지털 식물 제작 기술에 대한 연구의 필요성과 전망을 정리한다.

      • KCI등재

        A CORBA-Based Collaborative Work Supported Medical Image Analysis and Visualization System

        전준철,손재기,Chun, Jun-Chul,Son, Jae-Gi Korea Information Processing Society 2003 정보처리학회논문지D Vol.10 No.1

        본 논문에서는 분산환경에서 사용자들에게 효과적인 접근성과 사용성을 제공하는 코바기반 협업 지일 의료영상 분석 덴 가시화 시스템을 소개한다. 개발된 시스템은 분산환경에서 의료영상 분활 및 모델링과 같은 의료영상 분석 및 처리 기능을 제공하며 아울러 의료영상 데이터의 효율적 관리 기능을 제공한다. 영상의 분류 및 특정 세포조직의 추출은 베이지안 방법과 활성 윤곽선 모델등 적용하여 수행되며, 획득된 영상의 특성정보는 의료영상의 실시간 3차원 모델링에 사용된다. 개발된 시스템은 브로드 케스팅과 동기화 메커니즘에 기반하여 시스템을 사용하는 다중 사용자들간의 협동작업을 지원한다. 본 시스템은 분산 프로그램을 지원하는 자바 및 코바에 의해 개발되었으며, 따라서 클라이언트는 분산 객체의 위치나 분산객체가 수행되는 운영체제에 관한 정보가 없이도 메소드 호출방법에 의해 서버 객체에 접근할 수 있다. In this paper, a CORBA-based collaborative medical image analysis and visualization system, which provides high accessibility and usability of the system for the users on distributed environment is introduced. The system allows us to manage datasets and manipulates medical images such as segmentation and volume visualization of computed geometry from biomedical images in distributed environments. Using Bayesian classification technique and an active contour model the system provides classification results of medical images or boundary information of specific tissue. Based on such information, the system can create real time 3D volume model from medical imagery. Moreover, the developed system supports collaborative work among multiple users using broadcasting and synchronization mechanisms. Since the system is developed using Java and CORBA, which provide distributed programming, the remote clients can access server objects via method invocation, without knowing where the distributed objects reside or what operating system it executes on.

      • KCI등재

        컴퓨터 그래픽스 응용 연구 현황

        김진모 동국대학교 영상문화콘텐츠연구원 2013 영상문화콘텐츠연구 Vol.6 No.-

        컴퓨터 그래픽스와 관련된 다양한 연구 분야는 지금까지 많은 발전을 이루어왔다. 컴퓨터 그래픽스는 크게 모델링, 렌더링, 애니메이션으로 분류되어 가상 세계의 사실적 표현과 실시간 처리를 위한 목표로 꾸준히 연구되었고, 컴퓨터비전, 가상 및 증강현실, 인간과 컴퓨터 상호작용, 영화 특수 효과 등 여러 응용분야와 융합하여 발전하고 있다. 식물을 포함한 자연현상을 모델링, 렌더링 및 시각화하는 등의 디지털 식물 제작과 관련된 기술들은 중요성에 비해 다른 컴퓨터 그래픽스 응용 연구와 비교하여 국내에서는 거의 연구가 진행되고 있지 않다. 본 연구는 디지털 식물 기술과 관련한 모델링, 렌더링 그리고 시뮬레이션 기술과 다수의 식물로 구성된 가상생태계를 비롯한 자연 조경의 표현방법에 대한 국외 연구 동향을 분석한다. 그리고 이를 통해 국내 취약한 디지털 식물 제작 기술에 대한 연구의 필요성과 전망을 정리한다. Diverse study areas related to computer graphics have developed so much by now. Computer graphics were largely divided into modeling, rendering, and animation, have been steadily studied aiming at realistic expressions and real-time processing of virtual worlds, are developing in combination with many application fields such as computer visions, virtual reality, augmented reality, human-and computer interaction, and visual effects in movies. Technologies related to digital plant production such as natural phenomenon modeling, rendering, and visualizing have been hardly studied in Korea compared to other computer graphics application studies despite their importance. This study analyzes overseas study trends for digital plant techniques related modeling, rendering, and simulation and methods of expression of natural landscapes including virtual ecosystems composed of multiple plants. Through the analysis, the necessity and perspective of digital plant production techniques which are weak in Korea are set forth.

      • KCI등재

        KOMPSAT-2 영상의 정밀궤도기반모델을 이용한 3차원 위치결정 정확도 평가

        이상진(Lee Sang Jin),김정욱(Kim Jung Uk),최윤수(Choi Yun Soo),정승균(Jung Seung Kyoon) 대한공간정보학회 2010 대한공간정보학회지 Vol.18 No.4

        본 연구는 KOMPSAT-2 고해상도 위성영상에 대하여 기존의 RFM방식이 아닌 궤도-자세각 모델을 이용하여 좌?우 스테레오 위성영상의 정밀센서모델링을 다양한 파라메터를 조합하는 방법으로 분석하였다. 또한, 궤도기반정밀센서모델링을 수립한 결과를 토대로 수치사진측량시스템에 적용하여 지상기준점에 대한 오차 확인과 수치지도 시범제작을 하여 정확도를 검증하였다. 그 결과, KOMPSAT-2 위성영상에 대한 궤도기반 정밀센서모델링을 수행 할 경우 적은 지상기준점으로도 스테레오 입체시를 하여 중축척 이상의 수치지도 제작이 가능하다는 것을 확인할 수 있었다. In this study, the orbit-based sensor modeling is applied to the digital plotting and the accuracy of digital plotting is analyzed. The KOMPSAT-2 satellite image with orbit-attitude model is used for the analysis. The precise sensor modeling with various combination of parameters is performed for the stereo satellite image. In addition, we analyze the error range of ground control points by applying the result of stereo modeling to digital survey system. According to the result, it is possible to produce digital map using stereo image with a small number of GCPs when the orbit-based sensor modeling for KOMPSAT-2 is applied. This means that it is suitable for the generation of digital map on a scale of 1/5,000 to 1/25,000 considering the resolution of KOMPSAT-2 image.

      • 소실점을 이용한 2차원 영상의 물체 변환

        김대원,이동훈,정순기 한국정보과학회 2003 정보과학회논문지 : 시스템 및 이론 Vol.30 No.11

        본 논문은 한 장의 영상 속에 포함되어 있는 물체들이 외관상의 3차원 운동이 가능하도록 하는 방법을 제시한다. 이전 연구들은 여러 장의 영상으로부터 영상 기반 모델링 기법들을 이용하여 3차원 모델을 생성하거나 소실점을 이용한 카메라 보정을 통하여 장면을 입방체로 모델링하여 3차원 모델을 생성하는 방식으로 접근하였다. 그러나 본 논문에서는 장면의 기하학적 정보나 카메라 보정 없이 장면 속 물체의 영상 기반 운동(image-based motion)의 가능성을 제시한다. 구현된 시스템은 영상을 시점에 관한 사영 평면으로 생각하고 사용자에 의해 입력된 선과 점의 정보를 이용하여 사영된 3차원 물체의 2차원 모양을 모델링한다. 그리고 모델링된 물체는 3차원 운동을 하기 위한 지역 좌표계로서 소실점을 이용한다. This paper addresses a method of enabling objects in an image to have apparent 3D motion. Many researchers have solved this issue by reconstructing 3D model from several images using image-based modeling techniques, or building a cube-modeled scene from camera calibration using vanishing points. This paper, however, presents the possibility of image-based motion without exact 3D information of scene geometry and camera calibration. The proposed system considers the image plane as a projective plane with respect to a view point and models a 2D frame of a projected 3D object using only lines and points. And a modeled frame refers to its vanishing points as local coordinates when it is transformed.

      • KCI등재

        3차원 입체 콘텐츠 제작을 위한 통합 저작 시스템

        윤창옥(Chang Ok Yun),윤태수(Tae Soo Yun),이동훈(Dong Hoon Lee) 한국산업정보학회 2008 한국산업정보학회논문지 Vol.13 No.1

        최근 디지털 영상 미디어의 발전으로 인해 3차원 입체 콘텐츠에 대한 관심이 높아지고 있다. 이로 인해 3차원 입체 콘텐츠 생성에 대한 많은 기술들이 연구ㆍ개발되고 있다. 하지만 자연스럽고 몰입감이 높은 3차원 입체 콘텐츠 생성하는데 많은 어려움이 있다. 왜냐하면 2차원 영상에서는 3차원의 기하정보가 존재하지 않아 입체 콘텐츠 생성이 매우 어렵기 때문이다. 그리고 입체 카메라 생성 시 몰입감이 높은 입체 시점을 결정하기 위해 반복적인 저작 과정이 필요하다. 따라서 본 논문에서는 다양한 형태의 영상들을 이용하여 3차원 입체 콘텐츠 제작을 위한 통합형 저작 시스템을 제안한다. 이를 위해 영상 기반 모델링 기법을 활용하여 영상 내에 존재하는 사영 기하 정보를 통해 3차원 모델을 생성한다. 그리고 3차원 입체 카메라 생성 시 몰입감이 높은 입체 영상의 시점을 결정하기 위해 실시간 대화식 입체 영상 미리보기 기능을 제공한다. 이때 입체 모니터와 편광 필터 안경을 통해 직관적으로 고품질의 입체 콘텐츠를 생성한다. Recently, it has shown an increased interest in 3D stereoscopic contents due to the development of the digital image media. Therefore, many techniques in 3D stereoscopic image generation have being researched and developed. However, it is difficult to generate high immersion and natural 3D stereoscopic contents, because the lack of 3D geometric information imposes restrictions in 2D image. In addition, control of the camera interval and rendering of the both eyes must be repetitively accomplished for the stereo effect being high. Therefore, we propose integrated editing system for 3D stereoscopic contents production using a variety of images. Then, we generate 3D model from projective geometric information in single 2D image using image-based modeling method. And we offer real-time interactive 3D stereoscopic preview function for determining high immersion 3D stereo view. And then we generate intuitively 3D stereoscopic contents of high-quality through a stereoscopic LCD monitor and a polarizing filter glasses.

      • 역전가능 메쉬워프 알고리즘에 의한 정면 얼굴 영상의 포즈 변형

        오승택,전병환 한국정보과학회 2003 정보과학회논문지 : 소프트웨어 및 응용 Vol.30 No.1

        본 논문에서는 기하학적인 3차원 모델을 사용하지 않고 정면이 얼굴 영상 및 2차원 메쉬만으로 얼굴의 포즈 변형을 수행하는 영상기반 렌더링(Image Based Rendering; IBR) 기법을 제안한다. 3차원 기하학적 모델을 대신하기 위해, 먼저 표준 인물의 정면, 좌우 반측면, 좌우 측면의 얼굴 영상에 대한 표준 메쉬를 작성한다. 합성하고자 하는 임의의 인물에 대해서는 주어진 정면 얼굴 영상의 메쉬만을 작성하고, 그 밖의 메쉬는 표준 메쉬 집합을 근거로 자동 생성된다. 그런 다음, 메쉬 제어점들의 중첩 및 역전을 허용하도록 개선한 역전가능 메쉬워프 알고리즘(invertible meshwarp algorithm)을 이용하여 얼굴의 입체적인 회전 변형을 수행한다. 또한, 눈이나 입의 개폐 변형도 동일한 워핑 알고리즘으로 구현한다. 얼굴 변형 성능을 평가하기 위해, 총 10명으로부터 머리를 수평으로 회전하면서 동영상을 취득한 후, 실제 영상과 변형 영상마다 양 눈의 중간 위치인 기준점에서 각 특징점까지의 거리를 계산하여 평균 차이를 구하였다. 그 결과, 기준점에서 입의 중간 위치까지의 거리에 비해 약 7.0%의 평균 위치 오차만이 발생하였다. In this paper, we propose a new technique of image based rendering(IBR) for the pose transformation of a face by using only a frontal face image and its mesh without a three-dimensional model. To substitute the 3D geometric model, first, we make up a standard mesh set of a certain person for several face sides ; front. left, right, half-left and half-right sides. For the given person, we compose only the frontal mesh of the frontal face image to be transformed. The other mesh is automatically generated based on the standard mesh set. And then, the frontal face image is geometrically transformed to give different view by using Invertible Meshwarp Algorithm, which is improved to tolerate the overlap or inversion of neighbor vertexes in the mesh. The same warping algorithm is used to generate the opening or closing effect of both eyes and a mouth. To evaluate the transformation performance, we capture dynamic images from 10 persons rotating their heads horizontally. And we measure the location error of 14 main features between the corresponding original and transformed facial images. That is, the average difference is calculated between the distances from the center of both eyes to each feature point for the corresponding original and transformed images. As a result, the average error in feature location is about 7.0% of the distance from the center of both eyes to the center of a mouth.

      • KCI등재

        영상기반 자동 화재감지시스템의 감지성능 특성 분석 연구

        구재현,Ku. Jae-Hyun 한국방재학회 2013 한국방재학회논문집 Vol.13 No.5

        기존의 연기감지기와 불꽃감지기는 화재 발생시 주변 환경의 영향에 의해 감지성능이 크게 제한되어 명확한 화재감지에 문제점을 가지고 있다. 본 연구에서는 화재감지 성능을 향상시키기 위하여 CCTV 카메라, 영상화재수신기, CPU로 구성된 영상기반 자동 화재감지시스템의 감지성능을 분석하고자 한다. 지능형 모션 감지를 위한 GMM(Gaussian Mixture Model) 모델링이 해석되었고 MHI(Motion History Image) 기술의 적용은 화재감지 성능을 향상시킴을 보여 주었다. 화재감지 성능은 화원과 감지거리에 따라 실험적으로 평가되었다. 결과적으로, 화재감지 시간은 감지거리가 증가할수록 증가하며 감지거리 15 m에서 10초로 분석되었다. 따라서, 개발된 영상기반 자동 화재감지 시스템은 불꽃감지기의 감지시간기준 30초와 비교하여 자동 화재감지를 위한 양호한 성능을 보여 주었다. Smoke detectors and flame detectors in detection ability of sensors is greatly limited by the ability to detect environmental impacts in case of fire have a problem in accurate fire detection. This study describes to analyze detection performance of a video-based automated fire detection system consisted of CCTV camera, a video-based fire alarm control station, CPU in order to enhance the fire detection performance. GMM(Gaussian Mixture Model) modeling for an intelligent motion detection is analyzed and the application of MHI(Motion History Image) technology is showed the improved fire detection performance. The fire detection performance is experimentally evaluated as a function of the fire source and detection distance. As a result, the fire detection time is found to increase with increased the detection distance and is analyzed with 10 sec at the detection distance of 15 m. Therefore, the video-based automated fire detection system developed showed good performance for automatic fire detection comparing with the detection time criteria of 30 sec for flame detectors.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼