Le Deep Neural Network (DNN) hanno avuto in questi ultimi anni una crescita esponenziale. Casi reali di applicazione delle DNN sono: Automatic Speech Recognition, Image Recognition, Natural Language Processing, Recommendation System e Financial Fraud Detection.
Un problema ancora irrisolto e di cruciale importanza per l’affermazione definitiva delle DNN sono gli Adversarial Attack. Si tratta di attacchi che cercano di alterare la capacità predittiva del modello attaccato tramite delle piccole modifiche, molto spesso impercettibili all’occhio umano, sull’input orginale.
Sfruttando queste vulnerabilità un’attaccante può effettuare una serie di attacchi come: Model Extraction Attack, Privacy Attack, Adversarial Reprogramming, Evasion e Poisoning Attack.
A supporto per l’analisi, l’attacco e la difesa di una DNN ci sono e delle librerie Open Source, come ART e CleverHans (rispettivamente di IBM e Google).
Obiettivo
L’obiettivo di questa tesi è, a partire da un caso d’uso reale, approfondire le conoscenze sull’utilizzo dei vari tool e librerie Open Source per analizzare, attaccare e difendere una Deep Neural Network (DNN), condurre un’analisi comparativa tra i vari tool ed infine trarre delle conclusioni sullo stato attuale della sicurezza sui modelli di DNN.
Tecnologie
Programming Tool: Jupyter
Librerie specifiche: ART (IBM), CleverHans (Google), FoolBox.
Tools per AML: https://comsec.diee.unica.it/adversarialib/, http://pralab.diee.unica.it/en/AdversariaLib, https://github.com/vu-aml/adlib