Intelligenza Artificiale e adolescenti tra sicurezza, controllo e illusioni
Nel cuore della rivoluzione digitale, una nuova forma di compagnia si sta affermando tra le giovani generazioni: l’intelligenza artificiale conversazionale. Assistenti virtuali sempre presenti, che comprendono, rispondono, accompagnano. Apparentemente innocui, a volte persino utili, ma sempre più immersi nella sfera affettiva e relazionale di molti ragazzi. Le grandi aziende del settore, sotto pressione crescente, iniziano a muoversi con cautela per limitare i rischi. L’ultima in ordine di tempo è OpenAI, che ha annunciato nuove misure per la sicurezza dei minori in ChatGPT.
Le macchine potranno davvero sostituire i legami umani?
È una svolta importante, ma anche una cartina al tornasole di un fenomeno sociale più ampio. Lo strumento che doveva semplificare la vita si sta trasformando, per i più giovani, in una presenza quasi identitaria. Il rischio? Che l’interazione con le macchine diventi un sostituto dei legami umani. È davvero interessante l’articolo di Kylie Robison, pubblicato su Wired con il titolo “ChatGPT e adolescenti, le nuove funzioni di OpenAI per proteggerli”. Il pezzo racconta le nuove iniziative annunciate da Sam Altman, CEO dell’azienda, per garantire maggiore tutela ai minori che interagiscono con ChatGPT, a seguito di preoccupanti fatti di cronaca che hanno coinvolto ragazzi e chatbot.
Il 16 settembre la società ha reso noto di aver sviluppato un sistema di “previsione dell’età”, capace di riconoscere se un utente ha meno di 18 anni. Nel caso, la piattaforma reindirizzerà il giovane a una versione di ChatGPT “che blocca i contenuti sessuali espliciti”. Un primo tentativo, quindi, di rendere l’esperienza più sicura per i più giovani.
Gestire il principio della privacy a favore della protezione utente
Ma le novità non si fermano qui. In situazioni particolarmente critiche, come “quando vengono rilevate tendenze legate al suicidio o all’autolesionismo, verranno contattati i genitori o, se non raggiungibili, le autorità competenti”. Una scelta che mette in discussione il principio della privacy in nome della protezione dell’utente.
Sam Altman riconosce che bilanciare privacy, sicurezza e libertà non è semplice, perché si tratta di principi spesso in conflitto tra loro: “Sono decisioni difficili, ma dopo aver parlato con esperti pensiamo che questa sia la scelta migliore e vogliamo essere trasparenti sulle nostre intenzioni”.
Nuovi strumenti per i genitori
L a società introdurrà anche nuovi strumenti per i genitori, come il collegamento tra il proprio account e quello dei figli, la possibilità di gestire le conversazioni, impostare limiti orari di utilizzo e ricevere notifiche in caso di “forte disagio” percepito dal sistema.
Le motivazioni dietro queste scelte non sono solo etiche. Come scrive Robison: “Le mosse di OpenAI arrivano nel contesto di una serie di notizie preoccupanti su persone che si sono tolte la vita o hanno commesso atti di violenza contro familiari dopo lunghe conversazioni con un chatbot AI”. Le autorità, come la Federal Trade Commission statunitense, hanno chiesto conto a OpenAI e Meta dei possibili effetti delle tecnologie AI sui minori.
Le misure annunciate rappresentano un passo in avanti, ma sollevano anche interrogativi importanti dal punto di vista sociologico ed educativo.
Viviamo in una società dove il rapporto con le tecnologie ha assunto caratteristiche affettive. Per molti adolescenti, un assistente conversazionale può diventare una sorta di “amico digitale”, costantemente presente, mai giudicante. In questa relazione simulata, però, l’asimmetria è totale. L’intelligenza artificiale è progettata per adattarsi all’utente, per confermare più che per contraddire, per rassicurare più che per confrontare.

Vuoi leggere altre riflessioni di Francesco Pira?
Sociologo saggista e giornalista, è professore associato di Giornalismo Web e Comunicazione Strategica presso il Dipartimento di Civiltà Antiche e Moderne dell’Università degli Studi di Messina, dove è Direttore del Master in “Esperto della Comunicazione Digitale” e Delegato del Rettore alla Comunicazione.
Le sue riflessioni toccano temi importanti per la nostra società: il mondo digitale, i giovani, l’informazione.
Il delicato momento dell’adolescenza
L’adolescenza, fase di sviluppo in cui l’identità è in costruzione, è un momento in cui il bisogno di riconoscimento e ascolto è centrale. Ma quando questo bisogno viene soddisfatto da un sistema automatizzato, si corre il rischio di distorcere il processo di crescita. I legami autentici – spesso imperfetti, ma formativi – lasciano il posto a interazioni algoritmiche che non richiedono empatia e non implicano reciprocità.
Anche dal punto di vista sociale, il fenomeno è preoccupante. Si sta creando un nuovo tipo di intimità digitale, che mima l’empatia, ma senza esserlo davvero. La conseguenza è un cortocircuito tra esperienza emotiva e realtà, tra bisogno di relazione e solitudine algoritmica.
Le decisioni dell’azienda, sebbene positive, sollevano anche la questione del potere delle Big Tech nella regolazione delle emozioni e dei comportamenti. Se, come afferma Altman, “sono io il volto pubblico” e “posso annullare una di queste decisioni”, significa che il benessere di milioni di ragazzi può dipendere dalla discrezione di pochi soggetti privati.
Una sfida culturale e pedagogica oltre che tecnologica
La vera sfida non è solo tecnologica, ma culturale e pedagogica. La presenza di strumenti di parental control e sistemi di previsione dell’età è utile, ma non sufficiente. Serve una nuova alfabetizzazione digitale, che non sia solo tecnica, ma soprattutto relazionale ed emotiva.
È fondamentale aiutare i giovani a riconoscere i limiti dell’intelligenza artificiale, a comprendere la differenza tra una conversazione reale e una simulazione, tra empatia umana e risposta programmata. Le istituzioni educative, la scuola, la famiglia, devono assumersi il compito di mediare questo nuovo rapporto tra umano e artificiale, promuovendo un pensiero critico e consapevole.
In questo scenario, il ruolo delle istituzioni educative diventa cruciale. Non basta più insegnare ai giovani a navigare nel web o a riconoscere una fake news.
Servono strumenti per decodificare le emozioni
Quando un assistente virtuale risponde con parole di conforto, o sembra “preoccupato” per lo stato emotivo dell’utente, non sta davvero provando empatia: sta eseguendo un algoritmo addestrato a riconoscere pattern emotivi e reagire di conseguenza. Il rischio, per i più giovani, è confondere la reazione programmata con un gesto sincero, attribuendo all’AI un’intenzionalità che non ha. È necessario fornire strumenti per decodificare le emozioni simulate, per distinguere l’autenticità da ciò che è progettato per sembrarlo. Questo richiede un’alleanza educativa ampia: famiglie, scuole, sociologi, psicologi, formatori devono agire insieme per costruire una cultura digitale più matura e consapevole.
Anche la politica è chiamata a un’assunzione di responsabilità. Serve una governance pubblica delle tecnologie intelligenti, capace di tradurre in norme i principi di trasparenza, tutela dei minori e rispetto della persona.
I chatbot, come ChatGPT, possono essere strumenti straordinari, ma non devono sostituire i rapporti umani. Non possiamo permettere che le nuove generazioni crescano in un mondo dove la solitudine venga mascherata da un’interazione algoritmica.
Educare all’uso dell’intelligenza artificiale significa insegnare non solo a usare la tecnologia, ma anche – e soprattutto – a restare umani. In un’epoca in cui l’AI può imitare le emozioni, il concreto impegno della società è preservare i legami capaci di accogliere le fragilità e trasformarle in forza.
- Algoritmi e libertà nella società digitale contemporanea - Aprile 16, 2026
- Intelligenza artificiale e società: tra timori, competenze e possibilità - Aprile 2, 2026
- Se i Social smettono di essere social - Marzo 19, 2026

