http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
BERT, LSTM과 GRU를 사용한 네트워크 이상 탐지 성능 비교
임주완(Juwan Lim),김인경(Inkyung Kim),이명학(Myunghak Lee),하정민(Jungmin Ha),이재구(Jaekoo Lee) 한국통신학회 2022 한국통신학회 학술대회논문집 Vol.2022 No.2
자연어 처리 분야 문제에서 state-of-the-art(SOTA)을 달성한 bi-directional encoder representations from transformers(BERT)는 미세 조정(fine-tuning) 기반 전이 학습법으로서, 위키피디아와 BooksCorpus 같이 레이블이 없는 텍스트 데이터를 트랜스포머(transformer)의 인코더로 사전 학습(pre-trained)한 모델이다. 본 논문에서는 HTTP 메시지 페이로드(payload) 기반 네트워크 이상 탐지 과업에 대해 자연어 처리 분야에서 뛰어난 성능을 보였던 long short term memory(LSTM), gate recurrent unit(GRU)와 BERT의 성능을 비교 분석하였다. 그 결과 HTTP 메시지 페이로드 데이터 집합에 대해 BERT가 순환 신경망 모델보다 더 높은 F1 점수와 정확도를 보였다. 이러한 실험 결과를 바탕으로 추후 네트워크 이상 탐지 분야에서 BERT의 활용 가능성에 관한 연구를 계획할 수 있을 것으로 기대한다.
합성곱 신경망과 비전 트랜스포머를 활용한 포트홀과 맨홀 감지 성능 비교
하정민(Jungmin Ha),김인경(Inkyung Kim),임주완(Juwan Lim),이재구(Jaekoo Lee) 한국통신학회 2022 한국통신학회 학술대회논문집 Vol.2022 No.2
본 논문은 도로 위의 포트홀(Pothole)과 맨홀(Manhole)을 감지하는 과업을 위해 합성곱 신경망을 이용한 모델과 최근 많은 연구가 이뤄지고 있는 트랜스포머(Transformer) 구조를 활용한 모델의 성능 비교에 관하여 서술하였다. 학습과 검증에 사용된 데이터로는 과학기술정보통신부와 한국지능정보사회진흥원의「지능정보산업 인프라 조성」사업의 목적으로 구축한 도로 장애물 및 표면 인지(Detection) 영상 데이터 집합을 사용하였고 그 중 포트홀과 맨홀 데이터만을 선별하여 사용하였다. 합성곱 신경망을 이용한 모델로는 Yolo-v3를 사용하였고 트랜스포머 구조를 활용한 모델로는 Meta Research 에서 발표한 DEtection TRansformer(DE:TR)을 사용하였다. 실험 결과 DE:TR은 bbox_mAP가 0.306, Yolo-v3는 bbox_mAP가 0.231로 DE:TR이 0.075 더 높은 성능을 보여주었다.