RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • FPGA 기반 AES-256 CTR 모듈의 Text Length 별 사양 비교

        장혜림(Hyerim Jang),정성훈(Sunghun Jung),하지석(Jiseok Ha),문병인(Byungin Moon) 한국정보기술학회 2021 Proceedings of KIIT Conference Vol.2021 No.11

        IT 분야의 발전을 통해 더욱더 많은 데이터를 처리함으로써 얻는 이점도 많지만, 이와 동시에 정보유출의 위험 또한 증가하게 되었다. 정보유출 문제를 막기 위해 데이터를 암호화하는 방법이 적용되고 있으나, 막대한 데이터들을 실시간으로 암호화해야 하는 분야에서는 적용하기 어려운 문제가 있다. 이에 본 논문에서는 암호화 연산을 실시간으로 수행하기에 적절한 하드웨어 가속기의 구조를 제시하기 위해 AES-256 CTR 모듈의 text length 별 하드웨어 리소스와 전력의 사용량, 그리고 연산의 소요 시간을 비교분석 한다. There are many advantages to be gained by processing a lot of data through the development of information technology, but the risk of information leakage has also increased. Data encryption method is applied to prevent information leakage problem, but there is a problem that it is difficult to apply in the field where huge amount of data needs to be encrypted in real time. Therefore, in this paper, in order to present the architecture of a hardware accelerator suitable for real-time encryption, we compare and analyze the hardware resource usage, power consumption, and the processing time of AES-256 CTR modules by text length.

      • 효율적인 DCNN 연산을 위한 FPGA 기반 TDC 가속기

        장혜림 ( Hyerim Jang ),문병인 ( Byungin Moon ) 한국정보처리학회 2021 한국정보처리학회 학술대회논문집 Vol.28 No.1

        딥러닝 알고리즘 중 DCNN(DeConvolutional Neural Network)은 이미지 업스케일링과 생성·복원 등 다양한 분야에서 뛰어난 성능을 보여주고 있다. DCNN은 많은 양의 데이터를 병렬로 처리할 수 있기 때문에 하드웨어로 설계하는 것이 유용하다. 최근 DCNN의 하드웨어 구조 연구에서는 overlapping sum 문제를 해결하기 위해 deconvolution 필터를 convolution 필터로 변환하는 TDC(Transforming the Deconvolutional layer into the Convolutional layer) 알고리즘이 제안되었다. 하지만 TDC를 CPU(Central Processing Unit)로 수행하기 때문에 연산의 최적화가 어려우며, 외부메모리를 사용하기에 추가적인 전력이 소모된다. 이에 본 논문에서는 저전력으로 구동할 수 있는 FPGA 기반 TDC 하드웨어 구조를 제안한다. 제안하는 하드웨어 구조는 자원 사용량이 적어 저전력으로 구동 가능할 뿐만 아니라, 병렬 처리 구조로 설계되어 빠른 연산 처리 속도를 보인다.

      • 딥러닝을 이용한 미디어 콘텐츠 NFT Collection 가격 예측

        장혜림(Hyerim Jang),오수빈(Soobeen Oh),윤용익(Yongik Yoon),엄태원(Tai-Won Um) 한국통신학회 2022 한국통신학회 학술대회논문집 Vol.2022 No.2

        최근 코로나로 인해 비대면 시대가 되면서 메타버스 가상현실 서비스가 게임 산업을 넘어 유통, 금융, 미디어 등의 산업으로 확장되고 있다. 또한 NFT(Non-fungible Token)의 등장으로 메타버스 내에서 디지털 자산을 거래하는 가상경제가 급성장하고 있다. 향후 NFT 자산의 중요성과 활용성이 확대될 것이라고 예상하는 바이며 본 논문은 NFT 가 갖는 특성을 고려하여 NFT Collection 의 가격을 예측하는 연구를 수행하였다.

      • 암호화 영상 스트리밍을 위한 FPGA 기반 Co-processing 하드웨어 가속기

        정성훈(Sunghun Jung),장혜림(Hyerim Jang),김영현(Younghyeon Kim),이상현(Sanghyun Lee),문병인(Byungin Moon) 한국정보기술학회 2021 Proceedings of KIIT Conference Vol.2021 No.11

        기업에서는 CCTV, IP 카메라의 영상 해킹으로 인한 정보유출 문제를 방지하기 위해 폐쇄망, 사설망과 같은 통신망을 사용한다. 그러나 통신망의 보안은 단순한 영상 패킷 스니핑 해킹 기법으로도 무용지물 될 수 있기 때문에 영상 데이터를 암호화하는 기술이 요구되고 있다. 이에 본 논문에서는 CCTV, IP 카메라와 같은 종단 장치에 적합한 암호화 영상 스트리밍 co-processing 하드웨어 가속기의 구현을 위해 RTP 및 AES 알고리즘을 적용해 설계한 FPGA 기반 시스템의 하드웨어 리소스와 전력의 사용량, 그리고 연산의 소요 시간을 분석한다. Companies use communication networks such as closed networks and private networks to prevent information leakage problems due to video hacking of CCTVs and IP cameras. However, since the security of the communication network can be useless even by simple video packet sniffing hacking technique, technology for encrypting video data is required. This paper analyzes the hardware resource usage, power computation, and processing time of the FPGA-based system, which are designed based on the AES algorithm and RTP, for the purpose of implementing an encrypted video streaming co-processing hardware accelerator suitable for end-devices such as CCTV and IP cameras.

      • KCI등재

        비용 효율적인 OTT 서비스를 위한 심층강화학습 기반 클라우드 자원 할당 연구

        이예슬(Yeseul Lee),장혜림(Hyerim Jang),오수빈(Soobeen Oh),이연수(Yeonsu Lee),윤용익(Yongik Yoon),엄태원(Tai-Won Um) 한국디지털콘텐츠학회 2022 한국디지털콘텐츠학회논문지 Vol.23 No.3

        Even in a situation where Over-The-Top (OTT) service requests are rapidly increased, an OTT service platform must be able to reliably provide high-quality video streaming services to users. Although a cloud computing-based OTT service platform has the advantage of being able to dynamically allocate the resources required for the services, there is a limitation in satisfying the OTT service quality while allocating cloud resources in a timely manner in a situation where the demand for OTT services is fluctuated significantly. This paper proposes a new cloud-based OTT resource management method that adaptively adjusts the amount of allocated and released cloud resources using an LSTM-based deep reinforcement learning model trained with past OTT viewing data. Through OTT resource allocation simulation based on the deep reinforcement learning, it was verified that the proposed method can maintain the service quality while minimizing cloud resource waste.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼