
Torniamo a parlare di intelligenza artificiale, concentrandoci questa volta sulla standardizzazione della scrittura, o meglio sull’omologazione dei media ai modelli linguistici proposti dall’AI.
A livello mondiale si stima che l’uso dell’intelligenza artificiale abbia superato il 50% degli articoli prodotti nel mondo della comunicazione e dei media. In Italia, invece, il numero di giornalisti che la utilizzano settimanalmente (soprattutto per la ricerca, 24%, e per la scrittura di notizie, 6%) sembrerebbe ancora contenuto. La tendenza, però, è in forte crescita ed è facilmente riscontrabile nei contenuti che scorrono sui social e nelle testate online. È probabile che queste stime siano al ribasso per un motivo molto semplice: l’uso (a mio parere smodato) dell’intelligenza artificiale viene spesso tenuto nascosto. Ma si vede. Eccome se si vede.
Qui non cercheremo tanto di spiegare come riconoscere un testo scritto con l’AI, quanto perché risulta evidente che un testo lo sia.
Leggere un testo online è diventato un déjà-vu continuo. LinkedIn, mail, articoli, post: tutto sembra copiato, tutto sembra generato dalla stessa mano. Un pattern riconoscibile, un modo di scrivere ormai piatto e standardizzato.
Ma da cosa deriva il successo dell’AI? È un pericolo o un’opportunità?
Intanto occorre prendere atto che l’intelligenza artificiale è entrata nel quotidiano e che non è possibile sbarazzarsene, esattamente come è accaduto per gli smartphone o per i social network. Qualche irriducibile prova a stare fuori da tutto, non installa software di messaggistica o evita i social, ma sono casi rari. E spesso, volenti o nolenti, vengono comunque raggiunti. A meno di non vivere da eremiti sul Supramonte, dove il segnale non prende.
Ma torniamo al tema centrale. Perché usiamo l’AI?
Per condividere contenuti, diffondere informazioni, postare commenti. In sostanza, ormai la usano tutti: giornalisti, comunicatori, chi scrive mail e persino i commentatori su Facebook. L’AI è ovunque.
Questo dovrebbe allarmarci? No, se siamo in grado di usarla. Contrastare lo sviluppo tecnologico non ha senso: è controproducente e anche un po’ sciocco. Bisogna invece imparare a usarla in modo consapevole e accurato. Altrimenti il risultato è pessimo. Ed è esattamente ciò che sta succedendo ora.
Non è un problema di utilizzo in sé: l’AI può essere utile. E non è nemmeno vero che “ci rende più stupidi”. Serve molta meno retorica catastrofista. È la stessa solfa sentita davanti a ogni innovazione tecnologica, dalla radio alla televisione, fino ai videogiochi. Più stimoli, finora, non hanno prodotto stupidità, ma sviluppo cognitivo. Perché con l’AI dovrebbe accadere il contrario?
È vero, non mancano gli allarmisti che sostengono che chi scrive con l’AI vede calare l’attività del cervello nelle aree della creatività e della memoria. Alcuni esperimenti arrivano a sostenere che otto persone su dieci non ricordino neppure una frase dei testi generati. L’esperimento citato più spesso è stato condotto nel 2025 dal MIT Media Lab di Cambridge, su appena 54 partecipanti: un campione piuttosto basso, per un test prematuro, considerando che lo sviluppo dell’AI è ancora in fase iniziale.
Il problema oggi è un altro: molti usano l’AI e non rileggono neppure il testo. È capitato persino che qualcuno riportasse su carta stampata i commenti dell’AI a margine dell’elaborato richiesto, frasi del tipo: «Se vuoi, posso renderlo più tagliente o più asciutto». Ma questo non è colpa dell’AI. È sciatteria, distrazione, scarsa professionalità. Ed è una responsabilità tutta umana.
Facciamo un esempio pratico: Supponiamo di lavorare in una redazione di un giornale online. Arriva un comunicato stampa. Deleghiamo all’AI il compito di trasformarlo in un articolo. Risparmiamo tempo e, convinti che l’AI abbia fatto un buon lavoro, non rileggiamo il testo. Per pigrizia non controlliamo nemmeno la correttezza delle informazioni, non verifichiamo se il contenuto sia stato alterato (succede spesso, anche con prompt apparentemente corretti). Mandiamo in stampa o pubblichiamo sul sito.
Se va bene, otteniamo un testo standardizzato, identico a quello pubblicato da cento altre testate. E a quel punto tanto valeva pubblicare il comunicato stampa originale. Ma non è che il nostro cervello non funzioni più: è che si vuole massimizzare il tempo. In una società iper-performante e iper-produttiva, l’AI dovrebbe semplificarci la vita, ma in ambito professionale finisce per servire a chi sta sopra, facendogli chiedere sempre di più.
Andiamo ancora più a fondo. In una redazione dove fino a poco tempo fa lavoravano dieci persone, tra crisi della carta stampata e spostamento delle notizie online, l’arrivo dell’AI finisce per far svolgere ad una sola persona il lavoro di dieci. Ma se lo fa affidandosi unicamente all’AI, il risultato è tutt’altro che edificante.
Chi scrive usando l’AI finisce spesso per produrre testi uniformi, rassicuranti e senza mordente. Chi scrive senza AI tende invece a essere imperfetto ma originale, riflettendo contraddizioni, stile personale e pensiero critico.
Wikipedia ha stilato 14 segnali per riconoscere un testo generato dall’AI:
• Tono piatto – nessun sarcasmo o ironia se non richiesto.
• Lunghezza – tende a scrivere di più, con un effetto di osmosi anche sugli umani.
• Omogeneità culturale – perde peculiarità locali, adotta formule neutre occidentali.
• Meno dettagli concreti – pochi aneddoti, poca concretezza.
• Tono enfatico o teatrale – ogni frase diventa epica o “fascinating”.
• Espressioni standard – frasi ricorrenti tipo “in conclusione”, “in sintesi”.
• Abuso di connettori – “inoltre”, “pertanto”, “tuttavia”, ecc.
• Parallelismi negativi – frasi tipo “questo video non è informazione, è rivoluzione”.
• Struttura ordinatissima – introduzione, corpo e conclusione sempre riconoscibili.
• Bold e corsivo – usati spesso, talvolta in modo eccessivo.
• Trattino lungo – per incisi e frasi, non per singole parole.
• Virgolette curve – “curly quotes” invece di quelle dritte.
• Regola dei tre – tre aggettivi consecutivi: “affascinante, dinamico, accogliente”.
• Elenchi numerati – bullet point, numeri, pallini ovunque.
Ma veniamo a uno degli aspetti più controversi e inquietanti: l’uso dell’AI nelle normali conversazioni sui social.
L’AI livella le opinioni? Può succedere. Se chiedi all’AI di esprimere un’idea su un tema e la usi frequentemente, è possibile che abbia già compreso il tuo orientamento e tenda ad assecondarlo. Al limite formula la risposta che ritiene “migliore” sulla base dell’accostamento più frequente delle parole, replicando testi su cui è stata “addestrata”.
Chi interroga l’AI convinto di ottenere una risposta razionale su un qualsiasi tema è nella migliore delle ipotesi un ingenuo. E se questo dirige un giornale o scrive articoli per una testata, è fortemente inadeguato a svolgere quel ruolo.
Il paradosso è che al momento stiamo sempre più spesso replicando ciò che scrivono i chatbot. L’AI si addestra su testi umani, ma se tutti replichiamo testi generati dall’AI e li diffondiamo in email, commenti, blog ecc., l’AI finirà per addestrarsi su testi umani già replicati dall’AI in precedenza. Di fatto, compromettendo l’espressività del linguaggio umano e la sua naturale evoluzione. È un rischio, non una certezza, ma è un rischio reale.
Le contromisure? Regolare l’uso dell’AI. Per esempio: perché non si propone l’obbligo di dichiarare l’uso dell’AI negli articoli di giornale?
Poi insegnare a farne un uso intelligente: rileggere i testi, verificare errori, non chiedere all’AI di scrivere al posto tuo ma, al limite, di correggere un tuo testo, e in ogni caso controllare sempre il risultato. Questo dovrebbe essere il minimo sindacale in una redazione professionale, ma anche una regola generale per chiunque utilizzi l’AI.
Ultima questione: l’AI frena la creatività? No, come la calcolatrice non ha frenato l’uso della mente; ha semplicemente spostato lo sforzo cognitivo su altri compiti.
Non serve essere catastrofisti. Serve usare meglio la tecnologia.
Se vogliamo mantenere un minimo di autenticità, dobbiamo sforzarci di usarla con maggiore consapevolezza. Diversamente continueremo ad alimentare testi piatti e prevedibili, dove tutto appare come verità assoluta e nessuno osa più mettere in discussione il politicamente corretto.
Come sempre, il problema è chi controlla questi sistemi. Così come chi controlla le TV cerca di orientare il nostro pensiero, lo stesso può fare con l’intelligenza artificiale, creando contenuti capaci di orientare opinioni ed emozioni. Ma questo è un discorso che merita un approfondimento a parte.
Restando sulla scrittura: la sfida non è distruggere o arginare l’AI, ma usarla sapendo che non può sostituire creatività e giudizio critico.
Forse in un futuro distopico un software sarà in grado di replicare le emozioni umane. Ma oggi siamo ancora molto lontani da questo.
Per non farci trovare impreparati e non farci soppraffare, iniziamo a imparare a usarla come si deve.
(Giovanni Fara)






