La tutela dei minori sui social network è una priorità crescente per molte aziende tecnologiche, e Meta ha recentemente annunciato un piano innovativo per rafforzare la sicurezza online degli adolescenti sulle sue piattaforme. Questi aggiornamenti, che saranno introdotti a partire da settembre 2024 negli Stati Uniti e da dicembre in Italia, puntano a creare un ambiente digitale più protetto per i giovani utenti di Instagram, Facebook e Messenger.
Tra le principali novità spicca la possibilità per i ragazzi sotto i 16 anni di effettuare dirette su Instagram solo con il consenso dei genitori. Questa misura mira a prevenire situazioni potenzialmente pericolose, limitando l'accesso a contenuti inappropriati o a interazioni non desiderate. L'azienda ha anche sviluppato una funzione che sfoca automaticamente le immagini potenzialmente inadeguate nei messaggi diretti. Anche in questo caso, solo i genitori potranno autorizzare la disattivazione di questa protezione, dimostrando l'impegno di Meta nel coinvolgere le famiglie nella gestione della sicurezza digitale dei propri figli.
Queste iniziative non si limitano a Instagram, ma si estendono anche a Facebook e Messenger, dove gli account teenager saranno dotati di funzionalità simili per garantire un livello uniforme di protezione. Inizialmente, tali aggiornamenti saranno disponibili in paesi come Stati Uniti, Regno Unito, Australia e Canada, per poi essere progressivamente introdotti in altre nazioni.
Delle misure che piacciono ai genitori
I primi dati raccolti mostrano un'ottima accoglienza da parte degli utenti: il 97% degli adolescenti tra i 13 e i 15 anni ha mantenuto le impostazioni di sicurezza predefinite, mentre il 94% dei genitori ha espresso un giudizio positivo sulle nuove funzionalità. Complessivamente, oltre 54 milioni di giovani sono già passati agli account teenager, beneficiando delle protezioni avanzate implementate da Meta.
Queste innovazioni si inseriscono in un panorama globale in cui la sicurezza online dei minori è al centro del dibattito. Molti governi stanno infatti valutando misure simili, come la verifica dell'età e la lotta ai contenuti dannosi. Meta ha sottolineato che lo sviluppo di queste soluzioni è stato guidato dall'ascolto delle preoccupazioni dei genitori, con l'obiettivo di bilanciare l'innovazione tecnologica con la protezione degli utenti più giovani.
In un contesto digitale sempre più complesso, queste misure rappresentano un passo importante verso la creazione di piattaforme social più sicure e responsabili. La collaborazione tra aziende tecnologiche, famiglie e istituzioni sarà fondamentale per affrontare le sfide future e garantire un utilizzo consapevole e protetto delle tecnologie da parte delle nuove generazioni.