Con l’avanzata dell’intelligenza artificiale generativa, cresce l’interesse delle big tech verso una risorsa cruciale: i contenuti pubblicati dagli utenti. In prima linea c’è Meta, che ha annunciato l’utilizzo di foto, video e post condivisi su Facebook, Instagram e Threads da parte degli utenti europei adulti per il training dei suoi modelli AI. Ma è ancora possibile negare il consenso e tutelare la propria privacy.
Perché i tuoi dati servono all’intelligenza artificiale
Nell’era digitale, i dati umani sono diventati fondamentali per alimentare e migliorare l’intelligenza artificiale. I sistemi AI imparano osservando milioni di esempi reali, analizzando testi, immagini e video per riconoscere schemi, interpretare linguaggi e prevedere comportamenti. I social network, con la loro mole infinita di contenuti autentici, rappresentano una fonte privilegiata per l’addestramento dei modelli.
Meta ha dichiarato che i dati raccolti serviranno a rendere l’IA più precisa, contestuale e culturalmente rilevante, soprattutto per gli utenti europei. “Vogliamo che i nostri modelli comprendano dialetti, umorismo locale e modalità espressive tipiche delle diverse comunità”, si legge in una nota dell’azienda.
Cosa succede se non dai il consenso
Chi non ha inviato il modulo di opposizione entro il 26 maggio 2025, ha di fatto autorizzato Meta AI a utilizzare tutti i contenuti pubblicati fino a quella data. Tuttavia, è ancora possibile negare il consenso per i contenuti futuri compilando l’apposito modulo disponibile su Facebook e Instagram.
La richiesta di opposizione richiede pochi passaggi:
- Accedi al modulo tramite le impostazioni del tuo account o da un link pubblico.
- Inserisci nome, cognome e l’indirizzo email associato al tuo profilo.
- Scrivi una motivazione sintetica, ad esempio: “Non desidero che i miei contenuti vengano usati per addestrare l’intelligenza artificiale.”
- Invia il modulo e attendi la mail di conferma da parte di Meta.
Una volta accettata la richiesta, i contenuti pubblici pubblicati dopo l’invio del modulo non saranno utilizzati per il training dell’IA.
I rischi della dipendenza dai dati sintetici
Gli esperti avvertono che il futuro dell’AI rischia di essere compromesso dalla scarsità di dati umani. Come sottolineato da Andrew Duncan dell’Alan Turing Institute, l’abuso di dati sintetici generati da altre AI potrebbe compromettere la qualità dei risultati, rendendo i modelli “distorti, ripetitivi e meno affidabili”.
Ecco perché, secondo aziende come Meta, i contenuti autentici degli utenti restano una risorsa insostituibile. Ma questo solleva interrogativi etici e legali, soprattutto sul fronte della tutela della privacy e del diritto al controllo dei propri dati personali.









































