Global Differential Privacy è un metodo che prevede l’aggiunta di rumore di fondo alla query usata per l’estrazione dell’informazione dal database.
Questo implica che il database contenga tutte le informazioni private e solamente l’interfaccia di collegamento ai dati sia modificata affinché si preservi la privacy dei data subject.
Distinguiamo un secondo metodo di differential privacy, più sicuro.
Local Differential Privacy aggiunge rumore a ogni singolo datapoint. Ogni osservazione del database è quindi soggetta ad alterazione.
La Local Differential Privacy può avvenire sia post-registrazione che in fase di pre-registrazione del dato: in questo caso ciascun data subject aggiunge rumore alle proprie informazioni prima di salvare sul database.
Questa soluzione garantisce la massima protezione delle informazioni, poiché non è necessario fare affidamento al database owner affinché usi i dati responsabilmente.
Il nostro obiettivo è capire come sviluppare algoritmi di differential privacy sicuri e affidabili.
Osserviamo meglio le differenze!
Global Differential Privacy vs Local Differential Privacy
La strategia principale che può essere adottata per preservare la privacy è dunque quella di aggiungere rumore casuale (random noise) ai dati del database e alle query usate per l’estrazione degli stessi.
Ora la fatidica domanda. Qual è la reale differenza tra questi due sistemi?
Beh, se il database operator fosse una persona fidata, l’unica differenza sarebbe che il Global Differential Privacy producesse risultati più accurati a parità di privacy protection.
Questa strategia richiede però che anche il database owner sia affidabile.
Nel vocabolario della Differential Privacy introduciamo allora il concetto di Trusted Curator:
Il Trusted Curator è il proprietario di un database (database owner) su cui è stato applicato Global Differential Privacy. Ci fidiamo che sia applicato correttamente.
Definizione di Trusted Curator
Con questa definizione, ci salutiamo!
Un caldo abbraccio, Andrea.