La Strumentalizzazione di Contenuti Digitali “Algoritmicamente” Manipolati: Rischi e Misure di Attenuazione

08.10.2020 • 15.30
a cura di ETH Center for Security Studies
Webinar

shutterstock_1128653108

Il contributo riguarda l’impiego malevolo di contenuti digitali (video, audio, immagini o testo) che sono stati manipolati attraverso il ricorso a tecniche/tecnologie di machine/deep learning e che sono comunemente conosciuti come “media sintetici” o “deepfake”. Esso offre una riflessione circa le principali modalità di strumentalizzazione di tali contenuti  che, per obiettivi e portata, risulti potenzialmente idonea a compromettere il processo decisionale in organizzazioni più o meno complesse. Il contributo mira a: (i) qualificare meglio la natura e portata della minaccia che dalla di cui sopra strumentalizzazione deriva; (ii) evidenziarne i rischi; (iii) delineare le possibili misure di attenuazione di detti rischi

Azienda promotrice:

CSS-m100y100_gross

ETH Center for Security Studies

The Center for Security Studies (CSS) at ETH Zurich is a center of competence for Swiss and international security policy. It offers security policy expertise in research, teaching, and consulting activities. The CSS promotes understanding of security policy challenges as a contribution to a more peaceful world. Its work is independent, practice-​relevant, and based on a sound academic footing. It combines research and policy consultancy and, as such, functions as a bridge between academia and practice.

Relatori:

Picture without Tie

Matteo E. Bonfanti

Matteo E. Bonfanti, Ph.D, è Senior Researcher presso il Centro per gli Studi sulla Sicurezza del Politecnico Federale di Zurigo (ETH – Center for Security Studies). Matteo svolge attività di ricerca e analisi riguardanti lo sviluppo e l’adozione di nuove o emergenti soluzioni organizzative, tecniche e tecnologiche per prevenire e/o contrastare minacce di natura convenzionale o cibernetica. Matteo ha conseguito il dottorato di ricerca presso la Scuola Superiore Sant’Anna di Pisa.