Intelligenza Artificiale e adolescenti tra sicurezza, controllo e illusioni

Nel cuore della rivoluzione digitale, una nuova forma di compagnia si sta affermando tra le giovani generazioni: l’intelligenza artificiale conversazionale. Assistenti virtuali sempre presenti, che comprendono, rispondono, accompagnano. Apparentemente innocui, a volte persino utili, ma sempre più immersi nella sfera affettiva e relazionale di molti ragazzi. Le grandi aziende del settore, sotto pressione crescente, iniziano a muoversi con cautela per limitare i rischi. L’ultima in ordine di tempo è OpenAI, che ha annunciato nuove misure per la sicurezza dei minori in ChatGPT.

Le macchine potranno davvero sostituire i legami umani?

È una svolta importante, ma anche una cartina al tornasole di un fenomeno sociale più ampio. Lo strumento che doveva semplificare la vita si sta trasformando, per i più giovani, in una presenza quasi identitaria. Il rischio? Che l’interazione con le macchine diventi un sostituto dei legami umani. È davvero interessante l’articolo di Kylie Robison, pubblicato su Wired con il titolo “ChatGPT e adolescenti, le nuove funzioni di OpenAI per proteggerli”. Il pezzo racconta le nuove iniziative annunciate da Sam Altman, CEO dell’azienda, per garantire maggiore tutela ai minori che interagiscono con ChatGPT, a seguito di preoccupanti fatti di cronaca che hanno coinvolto ragazzi e chatbot.

Il 16 settembre la società ha reso noto di aver sviluppato un sistema di “previsione dell’età”, capace di riconoscere se un utente ha meno di 18 anni. Nel caso, la piattaforma reindirizzerà il giovane a una versione di ChatGPT “che blocca i contenuti sessuali espliciti”. Un primo tentativo, quindi, di rendere l’esperienza più sicura per i più giovani.

Gestire il principio della privacy a favore della protezione utente

Ma le novità non si fermano qui. In situazioni particolarmente critiche, come “quando vengono rilevate tendenze legate al suicidio o all’autolesionismo, verranno contattati i genitori o, se non raggiungibili, le autorità competenti”. Una scelta che mette in discussione il principio della privacy in nome della protezione dell’utente.

Sam Altman riconosce che bilanciare privacy, sicurezza e libertà non è semplice, perché si tratta di principi spesso in conflitto tra loro: “Sono decisioni difficili, ma dopo aver parlato con esperti pensiamo che questa sia la scelta migliore e vogliamo essere trasparenti sulle nostre intenzioni”.

Nuovi strumenti per i genitori

L a società introdurrà anche nuovi strumenti per i genitori, come il collegamento tra il proprio account e quello dei figli, la possibilità di gestire le conversazioni, impostare limiti orari di utilizzo e ricevere notifiche in caso di “forte disagio” percepito dal sistema.

Le motivazioni dietro queste scelte non sono solo etiche. Come scrive Robison: “Le mosse di OpenAI arrivano nel contesto di una serie di notizie preoccupanti su persone che si sono tolte la vita o hanno commesso atti di violenza contro familiari dopo lunghe conversazioni con un chatbot AI”. Le autorità, come la Federal Trade Commission statunitense, hanno chiesto conto a OpenAI e Meta dei possibili effetti delle tecnologie AI sui minori.

Le misure annunciate rappresentano un passo in avanti, ma sollevano anche interrogativi importanti dal punto di vista sociologico ed educativo.

Viviamo in una società dove il rapporto con le tecnologie ha assunto caratteristiche affettive. Per molti adolescenti, un assistente conversazionale può diventare una sorta di “amico digitale”, costantemente presente, mai giudicante. In questa relazione simulata, però, l’asimmetria è totale. L’intelligenza artificiale è progettata per adattarsi all’utente, per confermare più che per contraddire, per rassicurare più che per confrontare.


Francesco Pira

Vuoi leggere altre riflessioni di Francesco Pira?

Sociologo saggista e giornalista, è professore associato di Giornalismo Web e Comunicazione Strategica presso il Dipartimento di Civiltà Antiche e Moderne dell’Università degli Studi di Messina, dove è Direttore del Master in “Esperto della Comunicazione Digitale” e Delegato del Rettore alla Comunicazione. 

Le sue riflessioni toccano temi importanti per la nostra società: il mondo digitale, i giovani, l’informazione.


Il delicato momento dell’adolescenza

L’adolescenza, fase di sviluppo in cui l’identità è in costruzione, è un momento in cui il bisogno di riconoscimento e ascolto è centrale. Ma quando questo bisogno viene soddisfatto da un sistema automatizzato, si corre il rischio di distorcere il processo di crescita. I legami autentici – spesso imperfetti, ma formativi – lasciano il posto a interazioni algoritmiche che non richiedono empatia e non implicano reciprocità.

Anche dal punto di vista sociale, il fenomeno è preoccupante. Si sta creando un nuovo tipo di intimità digitale, che mima l’empatia, ma senza esserlo davvero. La conseguenza è un cortocircuito tra esperienza emotiva e realtà, tra bisogno di relazione e solitudine algoritmica.

Le decisioni dell’azienda, sebbene positive, sollevano anche la questione del potere delle Big Tech nella regolazione delle emozioni e dei comportamenti. Se, come afferma Altman, “sono io il volto pubblico” e “posso annullare una di queste decisioni”, significa che il benessere di milioni di ragazzi può dipendere dalla discrezione di pochi soggetti privati.

Una sfida culturale e pedagogica oltre che tecnologica

La vera sfida non è solo tecnologica, ma culturale e pedagogica. La presenza di strumenti di parental control e sistemi di previsione dell’età è utile, ma non sufficiente. Serve una nuova alfabetizzazione digitale, che non sia solo tecnica, ma soprattutto relazionale ed emotiva.

È fondamentale aiutare i giovani a riconoscere i limiti dell’intelligenza artificiale, a comprendere la differenza tra una conversazione reale e una simulazione, tra empatia umana e risposta programmata. Le istituzioni educative, la scuola, la famiglia, devono assumersi il compito di mediare questo nuovo rapporto tra umano e artificiale, promuovendo un pensiero critico e consapevole.

In questo scenario, il ruolo delle istituzioni educative diventa cruciale. Non basta più insegnare ai giovani a navigare nel web o a riconoscere una fake news.

Servono strumenti per decodificare le emozioni

Quando un assistente virtuale risponde con parole di conforto, o sembra “preoccupato” per lo stato emotivo dell’utente, non sta davvero provando empatia: sta eseguendo un algoritmo addestrato a riconoscere pattern emotivi e reagire di conseguenza. Il rischio, per i più giovani, è confondere la reazione programmata con un gesto sincero, attribuendo all’AI un’intenzionalità che non ha. È necessario fornire strumenti per decodificare le emozioni simulate, per distinguere l’autenticità da ciò che è progettato per sembrarlo.  Questo richiede un’alleanza educativa ampia: famiglie, scuole, sociologi, psicologi, formatori devono agire insieme per costruire una cultura digitale più matura e consapevole.

Anche la politica è chiamata a un’assunzione di responsabilità. Serve una governance pubblica delle tecnologie intelligenti, capace di tradurre in norme i principi di trasparenza, tutela dei minori e rispetto della persona.

I chatbot, come ChatGPT, possono essere strumenti straordinari, ma non devono sostituire i rapporti umani. Non possiamo permettere che le nuove generazioni crescano in un mondo dove la solitudine venga mascherata da un’interazione algoritmica.

Educare all’uso dell’intelligenza artificiale significa insegnare non solo a usare la tecnologia, ma anche – e soprattutto – a restare umani. In un’epoca in cui l’AI può imitare le emozioni, il concreto impegno della società è preservare i legami capaci di accogliere le fragilità e trasformarle in forza.

Francesco Pira

Francesco Pira

Siciliano che ama definirsi nordafricano perché è cresciuto ed ama tantissimo la sua città d’origine Licata, in provincia di Agrigento. Professore Associato di Sociologia dei processi culturali e comunicativi e insegna Teorie e Tecniche del giornalismo digitale, Social Media e Comunicazione d’Impresa, Giornalismo Sportivo nel Corso di Laurea Triennale e Giornalismo Digitale nel Corso di Laurea Magistrale presso il Dipartimento di Civiltà Antiche e Moderne, e Tecniche Comunicative in Sanità Pubblica nel Corso di Laurea in Tecniche della Riabilitazione Psichiatrica presso il Dipartimento Dipartimento di Scienze Biomediche, Odontoiatriche e delle Immagini Morfologiche e Funzionali, BIOMORF dell’Università degli Studi di Messina. E’ stato nominato nel 2025 componente del Comitato Scientifico dell’Intergruppo Parlamentare sul Digitale presieduto dall’on. Naike Gruppioni. Sempre nel 2025 è entrato a far parte di un gruppo per un importante progetto di ricerca sulla Famiglia Digitale del Centro de Investigation Social Applicada dell’Università di Malaga (Spagna). A marzo 2024 è stato nominato Presidente della branch Comunicazione Media e Informazione dii Confassociazioni, di cui era stato Vice Presidente e dal giugno 2020 è Presidente anche dell’Osservatorio Nazionale sulle Fake News. Insegna in Master universitari e in corsi destinati a docenti e dipendenti pubblici. E‘ componente del Collegio dei Docenti del Dottorato in Scienze Politiche dell‘omonimo Dipartimento dell’Università di Messina. Collabora come Docente del Corso di Corporate Communication del Corso di Baccalaureato in Advertising e Marketing dell’Istituto Universitario Salesiano di Venezia e Verona aggregato all’Università Pontificia Salesiana. E’ Visiting professor presso l’Università Re Juan Carlos di Madrid in Spagna e Docente Erasmus presso l’Università Marie Curie di Lublino in Polonia. Membro del Comitato Accademico del Observatorio Euromediterráneo de Democracia y Espacio Público de la Universidad Rey Juan Carlos (Madrid). E’ stato Coordinatore e Responsabile Scientifico per l’Italia, fino al giugno 2023, del Progetto OIR, sulla didattica inclusiva – Erasmus + (Open Innovative Resources) finanziato dall’Unione Europea che vede insieme le Università di Lublino (Polonia), Oviedo (Spagna) e Messina. Visiting Marie Curie Staff Member presso il Center for Social Science, Tiblisi (Georgia), nell'ambito del Progetto SHADOW (MSCA-RISE call H2020-MSCA-RISE-2017. E‘ stato Direttore del Master in Esperto della Comunicazione Digitale nelle PA e nell’Impresa. Saggista è autore di oltre 80 tra monografie, contributi in volumi e articoli scientifici (in italiano, inglese e spagnolo). . È condirettore della rivista Addiction & Social Media Communication e fa parte del comitato scientifico di riviste scientifiche e convegni, in Italia e all'estero. Nel giugno 2008 per l’attività di ricerca e saggistica è stato insignito dal Capo dello Stato, on. Giorgio Napolitano, dell’onorificenza di Cavaliere dell’Ordine al Merito della Repubblica Italiana. Nel corso della sua carriera gli sono stati conferiti numerosi riconoscimenti. Ha intrapreso una battaglia personale con il bullismo, il cyberbullismo, il sexting, le fake news e la violenza sulle donne. Su questi temi ha svolto ricerche e tenuto seminari in Italia e all’Estero per studenti, docenti e genitori. Il quotidiano Avvenire l’ha definito uno dei maggiori analisti italiani del fenomeno Fake News. E stato dall’ottobre 2023 al febbraio 2025 Garante dei Diritti dell’Infanzia e dell’Adolescenza del Comune di Realmonte (Agrigento) ed è attualmente Presidente della Commissione Toponomastica del Comune di Licata (Agrigento). Giornalista scrive tutte le domeniche la rubrica PIRATERIE nelle pagine culturali del quotidiano La Sicilia e firma il Video Editoriale settimanale sul giornale on line Scrivo Libero. Collabora con la rivista I LOVE SICILIA, il quotidiano statunitense IL NEWYORKESE, e con le testate News 48, Lo Spessore e Voce dello Jonio e i blog Il Salto della Quaglia e Il Gustosino. E' opinionista per il portale nazionale dell'UCSI (Unione Cattolica Stampa Italiana) e dell'emittente nazionale Cusano Tv con interventi puntuali nel corso della trasmissione Psiche Criminale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *