http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
조윤기 ( Yungi Cho ),이영한 ( Younghan Lee ),전소희 ( Sohee Jun ),백윤흥 ( Yunheung Paek ) 한국정보처리학회 2021 한국정보처리학회 학술대회논문집 Vol.28 No.1
인공지능 기술은 모든 분야에서 혁신을 이뤄내고 있다. 이와 동시에 인공지능 모델에 대한 여러 보안적인 문제점이 야기되고 있다. 그 중 대표적인 문제는 많은 인적/물적 자원을 통해 개발한 모델을 악의적인 사용자가 탈취하는 것이다. 모델 탈취가 발생할 경우, 경제적인 문제뿐만 아니라 모델 자체의 취약성을 드러낼 수 있다. 현재 많은 연구가 쿼리를 통해 얻는 모델의 입력과 출력을 분석하여 모델의 의사경계면 또는 모델의 기능성을 탈취하고 있다. 하지만 쿼리 기반의 탈취 공격은 획득할 수 있는 정보가 제한적이기 때문에 완벽한 탈취가 어렵다. 이에 따라 딥러닝 모델 연산과정에서 데이터 스니핑 또는 캐시 부채널 공격을 통해 추가적인 정보 또는 완전한 모델을 탈취하려는 연구가 진행되고 있다. 본 논문에서는 최근 연구 동향과 쿼리 기반 공격과의 차이점을 분석하고 연구한다.
한우림 ( Woorim Han ),이영한 ( Younghan Lee ),전소희 ( Sohee Jun ),조윤기 ( Yungi Cho ),백윤흥 ( Yunheung Paek ) 한국정보처리학회 2021 한국정보처리학회 학술대회논문집 Vol.28 No.2
AI (Artificial Intelligence) is being utilized in various fields and services to give convenience to human life. Unfortunately, there are many security vulnerabilities in today’s ML (Machine Learning) systems, causing various privacy concerns as some AI models need individuals’ private data to train them. Such concerns lead to the interest in ML systems which can preserve the privacy of individuals’ data. This paper introduces the latest research on various attacks that infringe data privacy and the corresponding defense techniques.