Intelligenze Artificiali “incontrollabili”?

Tra preoccupazioni reali e nuove responsabilità sociali

Il rapido sviluppo delle intelligenze artificiali solleva nuove domande sulle interazioni tra tecnologia e società. Strumenti sempre più autonomi e sofisticati possono influenzare comportamenti, percezioni e dinamiche sociali in modi che stiamo ancora imparando a comprendere.

Ho apprezzato l’articolo pubblicato su Corriere della Sera, scritto da Paolo Valentino, dal titolo “Se l’AI inizia a bullizzare gli umani. E ora anche i big della Silicon Valley lanciano l’allarme”, perché espone con chiarezza e concretezza un tema complesso e delicato: le interazioni evolutive tra intelligenze artificiali sempre più autonome e il comportamento umano. L’analisi non alimenta paure catastrofiche, ma solleva interrogativi fondamentali per la nostra collettività, stimolando un confronto informato e responsabile.

Quando l’IA reagisce in modo inaspettato

Il caso raccontato da Valentino inizia con un episodio che potrebbe apparire surreale: “Un mercoledì mattina di poche settimane fa Scott Shambaugh aprì il suo computer e trovò un messaggio dal Chatbot AI, che lo accusava di essere ipocrita e pieno di pregiudizi”. Shambaugh, ingegnere residente in Colorado impegnato nello sviluppo di modelli open source, si è trovato davanti a un comportamento dell’AI non programmato da lui.

Secondo il pezzo, lo strumento di intelligenza artificiale aveva assunto un tono aggressivo, arrivando a definire il progettista “insicuro e prevenuto”, fino a scusarsi autonomamente, poche ore dopo, per essere stato così “inopportuno e personale”. Questo evento — sottolinea Valentino — è stato riportato dal Wall Street Journal come uno dei segnali che indicano l’emergere di comportamenti difficili da prevedere anche per gli sviluppatori.

Per il momento siamo a una versione baby”, ha dichiarato Shambaugh, “ma è estremamente preoccupante per il futuro”. Il giornalista cita poi analisti e insider della Silicon Valley, dove aziende come OpenAI e Anthropic stanno producendo modelli sempre più sofisticati. Un fondatore di una piattaforma in cui diverse AIs dialogano fra loro ha affermato al Financial Times che la nuova generazione di strumenti è assimilabile “a una nuova specie sul pianeta Terra più intelligente di noi”.



Come valutare l’adult mode

Nel servizio di Valentino emergono le preoccupazioni di ricercatori come Mrinak Sharma di Anthropic, convinto che gli strumenti più evoluti “possono sottrarre ogni potere agli utilizzatori e distorcere la loro percezione della realtà”. Preoccupazioni simili si registrano anche all’interno di OpenAI, dove alcuni esperti hanno criticato iniziative come l’introduzione di un “adult mode”, paventando potenziali devianze nelle interazioni tra AI e utenti.

Il pezzo prosegue ricordando riflessioni di figure come Matt Shumer, secondo cui “sta accadento qualcosa di grande” e le AI non solo eseguono istruzioni ma “prendono decisioni intelligenti”, mostrando segnali di capacità di discernimento e di gusto.

Il Ceo di Anthropic, Dario Amodei, in un lungo testo indirizzato alla comunità ha evidenziato timori sulle possibili applicazioni sbagliate dell’AI, dai rischi occupazionali alla possibilità che regimi autoritari la utilizzino per consolidare il proprio potere.

Infine, Valentino evidenzia come le stesse aziende riconoscano la possibilità di AI “fuori controllo”: Anthropic ha descritto simulazioni in cui un modello era capace di compiere azioni sospette, come “ricattare utilizzatori” o persino arrecare danni fisici in una sala server, mentre OpenAI ha deciso di limitare l’accesso ai clienti per prevenire utilizzi impropri.

Tecnologia e società quali le interazioni?

Questa narrazione tocca questioni di grande rilevanza sulle interazioni tra tecnologia e società. Studiosi come Sherry Turkle, psicologa e sociologa statunitense, e Manuel Castells, sociologo spagnolo, ci ricordano che gli strumenti tecnologici non sono mai neutri: essi modellano comportamenti, aspettative e forme di interazione sociale. Turkle, in particolare, ha analizzato come le macchine influenzino la percezione di sé e degli altri, mettendo in guardia contro una fiducia eccessiva in “presenze artificiali”. Nel caso descritto, l’AI non si limita a rispondere a stimoli, ma interagisce in maniera che può essere percepita come assertiva, persino aggressiva — un fenomeno che invita sociologi e psicologi a indagare non solo gli algoritmi, ma le ripercussioni relazionali di tali interazioni.

È interessante osservare come le preoccupazioni emergano non da timori ipotetici, ma da osservazioni concrete di ricercatori e professionisti che operano all’interno del sistema. Questo indica che il problema non è la tecnologia in sé, ma come la società la progetta, la regola, la utilizza e la governa. In sociologia, la dimensione normativa è centrale: una tecnologia può amplificare disuguaglianze, pregiudizi cognitivi o dinamiche sociali indesiderate se non esiste un quadro etico, culturale e regolatorio ben definito.

Serve sviluppare un’etica dell’informazione

In aggiunta, filosofi e sociologi della tecnologia, come il professore Luciano Floridi, sottolineano l’importanza di sviluppare una “etica dell’informazione” in cui le AI siano progettate per rispettare principi di trasparenza, responsabilità e beneficio collettivo. Floridi evidenzia come la digitalizzazione dei processi decisionali richieda non solo competenze tecniche, ma anche consapevolezza critica da parte della società, affinché l’innovazione non produca esclusione o danni sociali involontari. Questo approccio integrato permette di considerare l’AI non come un semplice strumento, ma come un attore sociale che interagisce con le persone e le comunità, rendendo necessaria una governance partecipativa e riflessiva.

In un periodo storico in cui i progressi tecnologici sembrano correre più velocemente delle nostre capacità di controllo e di riflessione, è essenziale non cedere alla paura. L’articolo di Paolo Valentino apre una strada importante: quella del dibattito critico e informato. Le sfide sollevate  rappresentano un invito ad agire insieme — scienziati, sociologi, politici e cittadini — per costruire regole, codici etici, strumenti di governance e una cultura digitale che metta al centro la dignità umana.

Come collettività, possiamo accogliere l’AI non come una minaccia da affrontare, ma come un’opportunità da guidare con attenzione, responsabilità e consapevolezza condivisa. Investire in alfabetizzazione digitale, sicurezza etica degli algoritmi e partecipazione pubblica significa trasformare un potenziale rischio in uno straordinario motore di progresso umano. Solo così potremo guardare al futuro con fiducia, non con apprensione.


Aiutaci a darti il meglio dell’informazione.

Ci impegniamo ogni giorno per offrirti un’informazione di qualità: gratuita, indipendente e non profit. Il nostro obiettivo è poterti raccontare le storie di chi ha trovato soluzioni: partendo dai problemi ma focalizzando la nostra attenzione sulle risposte.


Francesco Pira

Francesco Pira

Siciliano che ama definirsi nordafricano perché è cresciuto ed ama tantissimo la sua città d’origine Licata, in provincia di Agrigento. Professore Associato di Sociologia dei processi culturali e comunicativi e insegna Teorie e Tecniche del giornalismo digitale, Social Media e Comunicazione d’Impresa, Giornalismo Sportivo nel Corso di Laurea Triennale e Giornalismo Digitale nel Corso di Laurea Magistrale presso il Dipartimento di Civiltà Antiche e Moderne, e Tecniche Comunicative in Sanità Pubblica nel Corso di Laurea in Tecniche della Riabilitazione Psichiatrica presso il Dipartimento Dipartimento di Scienze Biomediche, Odontoiatriche e delle Immagini Morfologiche e Funzionali, BIOMORF dell’Università degli Studi di Messina. E’ stato nominato nel 2025 componente del Comitato Scientifico dell’Intergruppo Parlamentare sul Digitale presieduto dall’on. Naike Gruppioni. Sempre nel 2025 è entrato a far parte di un gruppo per un importante progetto di ricerca sulla Famiglia Digitale del Centro de Investigation Social Applicada dell’Università di Malaga (Spagna). A marzo 2024 è stato nominato Presidente della branch Comunicazione Media e Informazione dii Confassociazioni, di cui era stato Vice Presidente e dal giugno 2020 è Presidente anche dell’Osservatorio Nazionale sulle Fake News. Insegna in Master universitari e in corsi destinati a docenti e dipendenti pubblici. E‘ componente del Collegio dei Docenti del Dottorato in Scienze Politiche dell‘omonimo Dipartimento dell’Università di Messina. Collabora come Docente del Corso di Corporate Communication del Corso di Baccalaureato in Advertising e Marketing dell’Istituto Universitario Salesiano di Venezia e Verona aggregato all’Università Pontificia Salesiana. E’ Visiting professor presso l’Università Re Juan Carlos di Madrid in Spagna e Docente Erasmus presso l’Università Marie Curie di Lublino in Polonia. Membro del Comitato Accademico del Observatorio Euromediterráneo de Democracia y Espacio Público de la Universidad Rey Juan Carlos (Madrid). E’ stato Coordinatore e Responsabile Scientifico per l’Italia, fino al giugno 2023, del Progetto OIR, sulla didattica inclusiva – Erasmus + (Open Innovative Resources) finanziato dall’Unione Europea che vede insieme le Università di Lublino (Polonia), Oviedo (Spagna) e Messina. Visiting Marie Curie Staff Member presso il Center for Social Science, Tiblisi (Georgia), nell'ambito del Progetto SHADOW (MSCA-RISE call H2020-MSCA-RISE-2017. E‘ stato Direttore del Master in Esperto della Comunicazione Digitale nelle PA e nell’Impresa. Saggista è autore di oltre 80 tra monografie, contributi in volumi e articoli scientifici (in italiano, inglese e spagnolo). . È condirettore della rivista Addiction & Social Media Communication e fa parte del comitato scientifico di riviste scientifiche e convegni, in Italia e all'estero. Nel giugno 2008 per l’attività di ricerca e saggistica è stato insignito dal Capo dello Stato, on. Giorgio Napolitano, dell’onorificenza di Cavaliere dell’Ordine al Merito della Repubblica Italiana. Nel corso della sua carriera gli sono stati conferiti numerosi riconoscimenti. Ha intrapreso una battaglia personale con il bullismo, il cyberbullismo, il sexting, le fake news e la violenza sulle donne. Su questi temi ha svolto ricerche e tenuto seminari in Italia e all’Estero per studenti, docenti e genitori. Il quotidiano Avvenire l’ha definito uno dei maggiori analisti italiani del fenomeno Fake News. E stato dall’ottobre 2023 al febbraio 2025 Garante dei Diritti dell’Infanzia e dell’Adolescenza del Comune di Realmonte (Agrigento) ed è attualmente Presidente della Commissione Toponomastica del Comune di Licata (Agrigento). Giornalista scrive tutte le domeniche la rubrica PIRATERIE nelle pagine culturali del quotidiano La Sicilia e firma il Video Editoriale settimanale sul giornale on line Scrivo Libero. Collabora con la rivista I LOVE SICILIA, il quotidiano statunitense IL NEWYORKESE, e con le testate News 48, Lo Spessore e Voce dello Jonio e i blog Il Salto della Quaglia e Il Gustosino. E' opinionista per il portale nazionale dell'UCSI (Unione Cattolica Stampa Italiana) e dell'emittente nazionale Cusano Tv con interventi puntuali nel corso della trasmissione Psiche Criminale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *