http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
지도학습 기반의 부정·불량 식품 기사 자동 분류에 관한 연구
임형준(HyoungJun Lim),이재윤(JaeYoon Lee),김도희(Dohee Kim),김태훈(Taehoon Kim),정승진(Seungjin Jung),최종원(Jongwon Choi) 대한전자공학회 2023 대한전자공학회 학술대회 Vol.2023 No.6
최근 식품 공급망의 다양화와 생산, 유통, 소비 방식의 변화로 인해 부정·불량 식품이 증가하고 있어 이에 대한 새로운 대응책이 필요하다. 현재까지는 사람이 직접 부정·불량 식품 관련 기사를 모니터링하고 분석했으나, 처리해야 할 정보의 양이 많아지면서 기사 분석을 위한 비용이 크게 증가하고 있다. 이러한 문제를 해결하기 위해 본 연구에서는 지도학습 기반 모델을 사용한 부정·불량 식품 자동 분류 시스템을 제안한다. 해당 시스템에는 여러 BERT[1] 모델의 앙상블(Ensemble)을 적용하여 과적합(Overfitting)과 편향성(Bias)을 방지하였으며 동시에 분류(Classification) 성능을 향상시켰다. 모델의 분류학습과 성능 평가에는 사전에 수집된 1250개의 기사 데이터를 사용하여 실험을 수행했다. 실험 결과 자연어 처리 분야에서 여러 모델의 앙상블 기법은 단일 모델 대비 적은 데이터로 더 높은 분류 성능을 보이는 것을 확인했다.
AutoDAN: 유전자 알고리즘과 LLM을 이용한 한국 탈옥 프롬프트 생성에 관한 연구
임형준(HyoungJun Lim),김태훈(Taehoon Kim),최종욱(Jongwook Choi),오현식(Hyunsik Oh),전슬기(Seulki Jun),최종원(Jongwon Choi) 대한전자공학회 2024 대한전자공학회 학술대회 Vol.2024 No.6
최근 Large Language Models (LLMs)의 빠른 발전으로 다양한 산업에서 인간을 보조하는 도구로서 활용되고 있다. 하지만 이러한 대형 모델은 산업, 공공기관, 사회 현상 등에 부적절한 추력을 유도하는 탈옥(jailbreak)에 취약하다. 현재까지 LLMs을 탈옥하기 위해서 사람들이 직접 탈옥문을 작성하고 평가하였으나, 확장성과 빠르게 필터링 처리되는 문제가 존재한다. 이러한 문제점을 해결하기 위해 자동으로 탈옥문을 만들어주는 Auto Do Any Thing now (AutoDAN)의 연구가 활발히 진행되고 있다. 본 논문에서 대부분 영어로 작성되어 있는 탈옥문을 한국어로 번역하고 유전 알고리즘과 LLM을 사용하여 한국어 LLMs 탈옥을 위한 AutoDAN 연구를 소개한다. 정량적, 정성적 평가를 통해 한국어 AutoDAN 알고리즘이 문장의 의미는 보전하며 탈옥의 성공률을 높일 수 있음을 입증한다.
박수현(Soohyun Park),임형준(HyoungJun Lim),이주영(Jooyoung Lee),최종원(Jongwon Choi) 대한전자공학회 2023 대한전자공학회 학술대회 Vol.2023 No.6
비디오 데이터를 사용한 시청각 정렬은 멀티 모달표현 학습의 자체 감독을 위한 전통적인 접근 방식입니다. 그러나 배경 음악, 외부 소음 및 인간 대화 소리는 때때로 비디오의 시청각적 불일치를 야기할 수 있으며, 이러한 잘못된 비디오를 제거하면 멀티 모달 표현 학습이 크게 향상된다는 것을 발견했다. 본 논문에서는 잘못된 비디오를 탐지하고 동시에 멀티 모달 표현 모델을 훈련하는 방법을 제안한다. UCF51 및 UCF101 데이터 세트의 비디오 인식 작업에 대한 태스크를 평가하여 시청각 지식 전송을 위한 기존 표현 학습 방법으로 경쟁력 있는 성능을 달성한다.
김태훈(Taehoon Kim),최종욱(Jongwook Choi),임형준(HyoungJun Lim),최종원(Jongwon Choi) 대한전자공학회 2024 대한전자공학회 학술대회 Vol.2024 No.6
As deepfake technology advances, distinguishing deepfakes from real content has become increasingly challenging, leading to the necessity for effective deepfake detection methods. Traditional image-based detection can identify artifacts from trained deepfakes, but often fail to generalize to unseen deepfakes. To enhance generalization, this study analyzes the impact of stylized images on deepfake detection. We generate stylized images with two distinct styles utilizing CLIPstyler and train the Xception model on these images. Comparative experiments demonstrate that using stylized images, generated by style transfer, for training can improve the generalization capability of image-based detector. This work presents new directions in the field of deepfake detection.*
최종욱(Jongwook Choi),조희재(HeeJae Jo),김태훈(Taehoon Kim),임형준(HyoungJun Lim),최종원(Jongwon Choi) 대한전자공학회 2024 대한전자공학회 학술대회 Vol.2024 No.6
In this paper, we analyze the generalization performance of methods designed for detecting synthetic audio data. It is crucial to develop detection models that robustly operate on data generated by various generative models. We analyze the generalization performance of existing synthetic audio detection models under domain shifts. To evaluate the generalization performance within the in-domain, we utilize the WaveFake, which includes fake audio. For cross-domain evaluation, we collect data not included in WaveFake, such as audio generated by diffusion models. The experimental results highlight that current detection methods are not robust to variations in generative models.