Viviamo in un’epoca in cui i social network sono diventati estensioni della nostra identità. Instagram, in particolare, è molto più di una semplice app: è un palcoscenico virtuale dove milioni di adolescenti si raccontano ogni giorno attraverso storie, post, reel e messaggi privati. Un flusso costante di creatività, emozioni e interazioni, che però, dietro il suo fascino colorato e glamour, nasconde anche insidie difficili da ignorare. Cyberbullismo, adescamento, sextortion e contenuti inappropriati sono i pericoli più subdoli di questo mondo digitale che, se non controllato, può trasformarsi in un vero campo minato per i più giovani.
Ed è proprio per rispondere a queste minacce che Meta, la casa madre di Instagram, ha deciso di alzare ulteriormente il livello della sicurezza sulla piattaforma, introducendo una serie di aggiornamenti pensati appositamente per proteggere gli adolescenti… e anche i bambini che, sebbene non dovrebbero avere un account, vengono spesso rappresentati da adulti — come genitori o manager — all’interno dei social.
Sì, perché oggi non basta più una semplice impostazione sulla privacy. È tempo di protezioni intelligenti, di algoritmi etici, di avvisi predittivi e soprattutto di educazione digitale. In un mondo sempre più interconnesso, la sicurezza non è più solo una questione tecnica: è una responsabilità culturale.
L’era della trasparenza: chi sta davvero scrivendo quei DM?
Una delle novità più interessanti riguarda la maggiore trasparenza nelle chat dirette. Instagram ha introdotto nuove funzionalità che permettono ai teenager di visualizzare informazioni dettagliate sulle persone con cui stanno chattando. Non solo sarà possibile vedere quando e in che anno l’account si è iscritto alla piattaforma, ma sarà anche più facile bloccare e segnalare un profilo sospetto direttamente dalla schermata del messaggio. Una sorta di “radar” digitale per aiutare gli adolescenti a riconoscere potenziali minacce e agire immediatamente.
Ma non finisce qui: Instagram sta anche testando (al momento solo fuori dall’Europa) una nuova funzione che avverte gli utenti se stanno interagendo con qualcuno che si trova in un altro Paese. Un dettaglio fondamentale, perché moltissime truffe e casi di sextortion nascono proprio dal falso senso di vicinanza che certi profili creano per ingannare le vittime.
Account di bambini? Solo se gestiti dagli adulti, e con protezioni potenziate
Un altro aspetto delicatissimo è quello degli account dedicati ai bambini sotto i 13 anni, che non possono iscriversi direttamente a Instagram ma vengono spesso rappresentati attraverso profili curati da genitori o manager. Qui Meta ha deciso di stringere ancora di più le maglie: se viene scoperto che è il bambino stesso a gestire il profilo, l’account verrà rimosso.
Nel frattempo, quegli account che rispettano le regole ma espongono comunque i minori a rischi (commenti inappropriati, messaggi espliciti, tentativi di contatto da parte di sconosciuti), saranno automaticamente sottoposti a un regime di protezione avanzata. Questo include l’attivazione delle impostazioni di messaggistica più restrittive, l’uso delle “parole nascoste” per filtrare i commenti offensivi e l’inserimento di notifiche ben visibili nel feed per ricordare agli adulti di rivedere le impostazioni di sicurezza.
Lotta al sextortion: un fronte che non conosce tregua
Tra le novità più rilevanti annunciate da Meta c’è sicuramente la stretta contro il fenomeno criminale del sextortion, un incubo digitale che colpisce sempre più giovani. Il modus operandi è tristemente noto: un contatto apparentemente innocuo inizia una conversazione, guadagna la fiducia della vittima, ottiene immagini intime e poi inizia il ricatto. Una trappola psicologica e tecnologica che può avere conseguenze devastanti.
Per contrastare questa pratica, Instagram ha introdotto diverse misure drastiche. Per esempio, è stato attivato il blocco degli screenshot nei messaggi temporanei, un deterrente per chi cerca di salvare contenuti riservati senza il consenso del mittente. Le immagini di nudo ricevute nei DM vengono automaticamente sfocate e, secondo i dati condivisi da Meta, oltre il 40% di quelle inviate a giugno è rimasto sfocato, dimostrando che l’effetto dissuasivo funziona.
E c’è di più: in presenza di questi avvisi, gli utenti adolescenti hanno deciso di non inoltrare le immagini in quasi il 45% dei casi. Un risultato incoraggiante, che dimostra come un design etico e ben studiato possa davvero modificare i comportamenti online.
La purga digitale: oltre 600.000 account rimossi
Meta non si è limitata a introdurre nuove funzioni. Ha anche fatto pulizia. Dall’inizio del 2025, sono stati eliminati quasi 135.000 account Instagram responsabili di commenti a sfondo sessuale o richieste di immagini esplicite a profili che mostrano bambini. In parallelo, sono stati cancellati altri 500.000 account su Facebook e Instagram collegati ai primi. Una vera e propria operazione di bonifica digitale che testimonia la volontà concreta dell’azienda di mettere in sicurezza le sue piattaforme.
Collaborare per vincere: la sfida è anche educativa
Ma se c’è una cosa che Meta ha capito bene, è che nessuna piattaforma può affrontare queste sfide da sola. La guerra al sextortion e agli abusi online richiede una collaborazione stretta con genitori, scuole, istituzioni e altre aziende tech. Ed è qui che entra in gioco il programma Lantern della Tech Coalition, una rete di condivisione di informazioni tra piattaforme per riconoscere e bloccare comportamenti sospetti in tempo reale. Una sorta di alleanza digitale che unisce le forze per proteggere i più vulnerabili.
Tuttavia, oltre agli strumenti tecnologici, serve anche (e soprattutto) educazione. I giovani devono essere formati a un uso consapevole dei social. Devono sapere cosa significa condividere una foto, capire che un messaggio può essere usato contro di loro, imparare a riconoscere segnali di allarme e sapere a chi rivolgersi in caso di pericolo.
I genitori, dal canto loro, devono smettere di sentirsi estranei in un mondo che appartiene ai loro figli. Devono imparare a usare Instagram, parlarne apertamente in famiglia, aiutare i più piccoli a impostare bene la privacy e, nei casi più delicati, esercitare un monitoraggio consapevole — che non significa invadere la privacy, ma proteggere con intelligenza.
Un futuro (più) sicuro è possibile
Insomma, Instagram sta cambiando pelle. E lo fa con una consapevolezza nuova: quella di essere una piattaforma centrale nella crescita delle nuove generazioni, e quindi anche uno dei luoghi dove la sicurezza deve essere prioritaria. Le novità introdotte da Meta non sono solo tecnicismi da smanettoni, ma tasselli fondamentali per costruire un ecosistema digitale sano, sicuro e rispettoso.
Ovviamente non è la fine del viaggio. Le minacce evolvono, cambiano forma, si adattano. Ma quello che conta è che oggi abbiamo strumenti migliori per combatterle. E soprattutto, abbiamo la consapevolezza che solo unendo le forze — adolescenti, genitori, educatori e piattaforme — possiamo rendere Instagram (e il web intero) un posto migliore.
E voi che ne pensate?
Vi sentite al sicuro su Instagram? Avete mai segnalato un comportamento sospetto? Che ruolo dovrebbero avere i genitori nell’educazione digitale dei figli? Raccontateci le vostre esperienze nei commenti e condividete l’articolo sui vostri social per diffondere consapevolezza. Perché la sicurezza online è una missione che riguarda tutti. Sempre.
Scopri di più da CorriereNerd.it
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.










Aggiungi un commento