RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • KCI등재

        딥뉴럴네트워크 상에 신속한 오인식 샘플 생성 공격

        권현,박상준,김용철,Kwon, Hyun,Park, Sangjun,Kim, Yongchul 한국융합보안학회 2020 융합보안 논문지 Vol.20 No.2

        딥뉴럴네트워크는 머신러닝 분야 중 이미지 인식, 사물 인식 등에 좋은 성능을 보여주고 있다. 그러나 딥뉴럴네트워크는 적대적 샘플(Adversarial example)에 취약점이 있다. 적대적 샘플은 원본 샘플에 최소한의 noise를 넣어서 딥뉴럴네트워크가 잘못 인식하게 하는 샘플이다. 그러나 이러한 적대적 샘플은 원본 샘플간의 최소한의 noise을 주면서 동시에 딥뉴럴네트워크가 잘못 인식하도록 하는 샘플을 생성하는 데 시간이 많이 걸린다는 단점이 있다. 따라서 어떠한 경우에 최소한의 noise가 아니더라도 신속하게 딥뉴럴네트워크가 잘못 인식하도록 하는 공격이 필요할 수 있다. 이 논문에서, 우리는 신속하게 딥뉴럴네트워크를 공격하는 것에 우선순위를 둔 신속한 오인식 샘플 생성 공격을 제안하고자 한다. 이 제안방법은 원본 샘플에 대한 왜곡을 고려하지 않고 딥뉴럴네트워크의 오인식에 중점을 둔 noise를 추가하는 방식이다. 따라서 이 방법은 기존방법과 달리 별도의 원본 샘플에 대한 왜곡을 고려하지 않기 때문에 기존방법보다 생성속도가 빠른 장점이 있다. 실험데이터로는 MNIST와 CIFAR10를 사용하였으며 머신러닝 라이브러리로 Tensorflow를 사용하였다. 실험결과에서, 제안한 오인식 샘플은 기존방법에 비해서 MNIST와 CIFAR10에서 각각 50%, 80% 감소된 반복횟수이면서 100% 공격률을 가진다. Deep neural networks (DNNs) provide good performance for machine learning tasks such as image recognition and object recognition. However, DNNs are vulnerable to an adversarial example. An adversarial example is an attack sample that causes the neural network to recognize it incorrectly by adding minimal noise to the original sample. However, the disadvantage is that it takes a long time to generate such an adversarial example. Therefore, in some cases, an attack may be necessary that quickly causes the neural network to recognize it incorrectly. In this paper, we propose a fast misclassification sample that can rapidly attack neural networks. The proposed method does not consider the distortion of the original sample when adding noise. We used MNIST and CIFAR10 as experimental data and Tensorflow as a machine learning library. Experimental results show that the fast misclassification sample generated by the proposed method can be generated with 50% and 80% reduced number of iterations for MNIST and CIFAR10, respectively, compared to the conventional Carlini method, and has 100% attack rate.

      • KCI등재

        딥뉴럴네트워크에서의 적대적 샘플에 관한 앙상블 방어 연구

        권현,윤준혁,김준섭,박상준,김용철 한국융합보안학회 2021 융합보안 논문지 Vol.21 No.2

        딥뉴럴네트워크는 이미지 인식, 음성 인식, 패턴 인식 등에 좋은 성능을 보여주고 있는 대표적인 딥러닝모델 중에 하나이 다. 하지만 이러한 딥뉴럴네트워크는 적대적 샘플을 오인식하는 취약점이 있다. 적대적 샘플은 원본 데이터에 최소한의 노이 즈를 추가하여 사람이 보기에는 이상이 없지만 딥뉴럴네트워크가 잘못 인식 하게 하는 샘플을 의미한다. 이러한 적대적 샘플 은 딥뉴럴네트워크를 활용하는 자율주행차량이나 의료사업에서 차량 표지판 오인식이나 환자 진단의 오인식을 일으키면 큰 사고가 일어나기 때문에 적대적 샘플 공격에 대한 방어연구가 요구된다. 본 논문에서는 여러 가지 파라미터를 조절하여 적대 적 샘플에 대한 앙상블 방어방법을 실험적으로 분석하였다. 적대적 샘플의 생성방법으로 fast gradient sign method, DeepFool method, Carlini & Wanger method을 이용하여 앙상블 방어방법의 성능을 분석하였다. 실험 데이터로 MNIST 데이터셋을 사 용하였으며, 머신러닝 라이브러리로는 텐서플로우를 사용하였다. 실험방법의 각 파라미터들로 3가지 적대적 샘플 공격방법, 적정기준선, 모델 수, 랜덤노이즈에 따른 성능을 분석하였다. 실험결과로 앙상블 방어방법은 모델수가 7이고 적정기준선이 1일 때, 적대적 샘플에 대한 탐지 성공률 98.3%이고 원본샘플의 99.2% 정확도를 유지하는 성능을 보였다. Deep neural networks (DNNs) provide excellent performance for image, speech, and pattern recognition. However, DNNs sometimes misrecognize certain adversarial examples. An adversarial example is a sample that adds optimized noise to the original data, which makes the DNN erroneously misclassified, although there is nothing wrong with the human eye. Therefore studies on defense against adversarial example attacks are required. In this paper, we have experimentally analyzed the success rate of detection for adversarial examples by adjusting various parameters. The performance of the ensemble defense method was analyzed using fast gradient sign method, DeepFool method, Carlini & Wanger method, which are adversarial example attack methods. Moreover, we used MNIST as experimental data and Tensorflow as a machine learning library. As an experimental method, we carried out performance analysis based on three adversarial example attack methods, threshold, number of models, and random noise. As a result, when there were 7 models and a threshold of 1, the detection rate for adversarial example is 98.3%, and the accuracy of 99.2% of the original sample is maintained.

      • KCI등재

        온라인수색 이용 랜섬웨어 조직의 가상자산 압수방안

        권현,이경주,김하영,김영웅,김기범 한국디지털포렌식학회 2022 디지털 포렌식 연구 Vol.16 No.3

        Ransomware extends the scope of attacks from individuals to government agencies and companies, encrypting key data and requiring virtual assets as recovery costs. The amount of damage caused by ransomware has been increasing, reaching 4.742 trillion won over the past five years, but the results of confiscating the paid criminal proceeds are insufficient. Crimes using virtual assets can be traded anonymously and have transnational characteristics, so there is a limit to response with traditional investigative techniques. Therefore, in this study, memory and disk analysis are conducted to determine whether information necessary for the seizure of virtual assets can be checked when searching for PCs online used for virtual asset laundering. An experiment was conducted on four types of virtual asset wallets (MetaMask, BitPay, Exodus, Phantom) to obtain a mnemonic code, wallet private key, virtual asset private key, and wallet password. As a result of the experiment, it was confirmed that wallet restoration information can be obtained from MetaMask, BitPay, Exodus, and Phantom, and virtual assets can be seized. This study can contribute to urging the start of discussions on the introduction and utilization of online search as a way to seize virtual assets used in ransomware crimes. 랜섬웨어는 개인에서 정부기관과 기업을 대상으로 공격 범위를 확대하여 주요 데이터를 암호화하고 복구비용으로 가상자산을 요구한다. 랜섬웨어로 인한 피해금액은 지난 5년간 4조7,423억 원에 달하는 등 갈수록 증가하고 있으나 범죄수익을 압수하는 성과는 부족한 실정이다. 가상자산 범죄는 익명거래가 가능하고 초국가적 특성을 가져 전통적인 수사기법으로는 대응에 한계가 존재한다. 따라서 본 연구에서는 가상자산 지금 세탁에 사용한 PC를 온라인수색하였을 때 가상자산 압수에 필요한 정보를 확인할 수 있는지에 대해 메모리와 디스크 분석을 진행하였다. 가상자산 지갑 4종(MetaMask, BitPay, Exodus, Phantom)을 대상으로 니모닉 코드, 지갑 비밀키, 가상자산 비밀키, 지갑 비밀번호를 획득하는 실험을 하였다. 실험 결과, MetaMask, BitPay, Exodus, Phantom에서 지갑 복원 정보를 얻을 수 있어 가상자산 압수가 가능한 것으로 확인되었다. 본 연구는 랜섬웨어 범죄에 이용되는 가상자산 압수를 위한 방안으로 온라인수색 도입·활용 논의의 시작을 촉구하는 데에 기여할 수 있을 것이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼