Towards Trustworthy AI: Understanding the Impact of Threats and Countermeasures

Autori

Giulio Rossolini
Keywords: Trustworthy AI, AI, Artificial Intelligence, Cybersecurity, Cyber Intelligence

Scheda

La tesi, redatta in lingua inglese, affronta le sfide di sicurezza e affidabilità poste dai rapidi sviluppi dell’intelligenza artificiale, con particolare riferimento alle reti neurali profonde applicate alla computer vision in contesti safety-critical, come sistemi cyber-fisici, robot autonomi e veicoli a guida autonoma. L’attenzione è rivolta alle diverse tipologie di minacce all’IA, che includono sia attacchi avversari intenzionalmente progettati, sia input inattesi fuori distribuzione, evidenziando le vulnerabilità dei modelli e le criticità legate ai requisiti di safety.

Nel quadro della trustworthy AI, il lavoro analizza in modo approfondito le metodologie di testing delle DNN, introducendo l’uso dei criteri di coverage, mutuati dall’ingegneria del software, per il monitoraggio del comportamento dei modelli durante l’esecuzione. Tale approccio fornisce una nuova prospettiva metodologica per valutare l’affidabilità delle reti neurali e individuare potenziali anomalie, contribuendo anche all’individuazione di future direzioni di ricerca.

La tesi esamina inoltre lo stato dell’arte sugli attacchi e sulle difese nel mondo reale, mettendo in luce limiti e lacune analitiche nelle attuali strategie di protezione, soprattutto quando applicate a scenari operativi critici. A partire da queste osservazioni, viene proposta una metodologia innovativa per la realizzazione di attacchi real-world contro task di semantic segmentation, supportata da nuovi approcci di ottimizzazione e dall’uso di simulatori di guida. Infine, il lavoro presenta un’analisi approfondita di meccanismi di difesa interpretabili e robusti, con l’obiettivo di migliorare la sicurezza, l’affidabilità e la comprensione dei sistemi di intelligenza artificiale in contesti ad alto rischio.

Note sull'autore:

La presente tesi è risultata vincitrice del secondo premio del Premio Carlo Mosca della Società Italiana di Intelligence, discussa nell’anno accademico 2022/2023 sotto la supervisione del Professor Giorgio Buttazzo e del Professor Alessandro Biondi.

Giulio Rossolini è Assistant Professor presso la Scuola Superiore Sant’Anna di Pisa dal 2024. Ha conseguito il dottorato di ricerca con lode nel marzo 2024 con una tesi su Trustworthy AI, dopo la laurea con lode in Ingegneria Informatica presso l’Università di Pisa e la Scuola Superiore Sant’Anna.
La sua attività di ricerca si concentra su Safe, Robust and Secure AI per sistemi safety-critical, tra cui computer vision, deep neural networks e large language models . Ha pubblicato articoli su riviste e conferenze di primo piano (IEEE T-PAMI, IEEE T-NNLS, IEEE T-ITS, IEEE T-SE, AAAI, WACV, ICCPS) e ha svolto un periodo di visiting research presso EPFL a Losanna in Svizzera.
Attualmente è coinvolto in diversi progetti di ricerca nazionali e internazionali, e prende parte ai gruppi editoriali di riviste scientifiche come The Visual Computer e IEEE Transactions on Information Forensics and Security.  

Direzione editoriale: Alice Felli

Pubblicato
dicembre 29, 2025
Collana

Details about this monograph

ISBN-13 (15)
979-12-80111-73-9
DOI (06)
https://doi.org/10.36182/2025.11