
A partire da questa settimana, Meta — la società madre di Facebook, Instagram e WhatsApp — inizierà a notificare agli utenti europei che i dati pubblici da loro condivisi potranno essere utilizzati per addestrare i suoi modelli di intelligenza artificiale. Un cambiamento importante, che ha già sollevato perplessità tra utenti e addetti ai lavori.
Cosa sta cambiando?
Meta ha aggiornato i termini di servizio per includere l’utilizzo dei contenuti pubblici degli utenti europei (post, commenti, foto, ecc.) come materiale per l’allenamento di Meta AI, il suo chatbot conversazionale integrato nelle app del gruppo. Si tratta di un passo analogo a quanto già fatto da Google e OpenAI, ma nel caso di Meta l’annuncio arriva dopo un lungo confronto con le autorità di controllo europee, tra cui l’EDPB e la Irish Data Protection Commission (IDPC).
Quali dati saranno utilizzati?
Meta ha chiarito che verranno utilizzati solo i contenuti pubblici, ovvero quelli visibili a chiunque e non limitati ad amici o contatti specifici. Questo include:
- Post pubblici su Facebook
- Commenti visibili a tutti
- Foto e video condivisi con impostazioni pubbliche
- Contenuti condivisi nei gruppi o in pagine pubbliche
- Nome, immagine del profilo e copertina del profilo, che sono sempre visibili
Sono esclusi invece i contenuti privati, salvo le conversazioni con il chatbot Meta AI, che saranno ugualmente usate per migliorare il sistema (fatta eccezione per WhatsApp, dove le chat con l’IA resteranno escluse dall’addestramento).
Come opporsi al trattamento dei dati?
Meta metterà a disposizione un modulo specifico che ogni utente potrà compilare per negare il consenso all’utilizzo dei propri dati a fini di addestramento IA. Il link sarà incluso nella notifica che arriverà:
- via email
- sotto forma di banner in-app
Nel modulo sarà necessario fornire una motivazione legata al trattamento dei dati personali, come previsto dal Regolamento europeo GDPR.
Perché è importante?
Secondo Meta, la raccolta dei dati pubblici degli utenti europei ha lo scopo di rendere i modelli linguistici più rappresentativi delle culture, lingue e contesti locali. Tuttavia, l’annuncio arriva in un momento in cui molte big tech si trovano a corto di contenuti autentici generati dagli utenti, necessari per migliorare le performance delle IA generative.
La mossa è quindi vista da molti osservatori come un tentativo di proteggere la competitività di Meta nel settore dell’intelligenza artificiale, oggi dominato da OpenAI, Google e Anthropic.
Conclusione
L’uso dei dati pubblici per addestrare le IA è una prassi sempre più diffusa, ma che solleva domande cruciali su privacy, consenso e trasparenza. Meta offre ora un modo per negare il consenso, ma sarà fondamentale che gli utenti siano consapevoli delle implicazioni e dei propri diritti, esercitandoli con attenzione.