Thông tin chung

  English

  Đề tài NC khoa học
  Bài báo, báo cáo khoa học
  Hướng dẫn Sau đại học
  Sách và giáo trình
  Các học phần và môn giảng dạy
  Giải thưởng khoa học, Phát minh, sáng chế
  Khen thưởng
  Thông tin khác

  Tài liệu tham khảo

  Hiệu chỉnh

 
Số người truy cập: 60,662,463

 Automated Detection System for Adversarial Examples with High-Frequency Noises Sieve
Tác giả hoặc Nhóm tác giả: Dang Duy Thang and Toshihiro Matsui
Nơi đăng: In Proceedings of the 11th International Symposium on Cyberspace Safety and Security (CSS) 2019, Guangzhou, China, December 1-3; Số: 1;Từ->đến trang: 348-362;Năm: 2019
Lĩnh vực: Khoa học công nghệ; Loại: Báo cáo; Thể loại: Quốc tế
TÓM TẮT
ABSTRACT
Deep neural networks are being applied in many tasks with encouraging results, and have often reached human-level performance. However, deep neural networks are vulnerable to well-designed input samples called adversarial examples. In particular, neural networks tend
to misclassify adversarial examples that are imperceptible to humans. This paper introduces a new detection system that automatically detects adversarial examples on deep neural networks. Our proposed system can mostly distinguish adversarial samples and benign images in an end-to-end manner without human intervention. We exploit the important role of the frequency domain in adversarial samples, and propose a method that detects malicious samples in observations. When evaluated on two standard benchmark datasets (MNIST and ImageNet), our method achieved an out-detection rate of 99.7-100% in many settings.
© Đại học Đà Nẵng
 
 
Địa chỉ: 41 Lê Duẩn Thành phố Đà Nẵng
Điện thoại: (84) 0236 3822 041 ; Email: dhdn@ac.udn.vn