13 Marzo 2026
Newsletter Marzo
-
-
- Boicotta OpenAI
- Buone AI notizie: i gatti non si battono, ma anche i cani non scherzano
- ChatGPT, di dove sei?
- AI che fallimento: giochi con AI integrata
- È un paese per vecchi
- Qualcosa da sapere: epistemia
- Hai usato abbastanza AI?
- Quanto è difficile dire “scusa, forse non ho capito…”
- Copilot News
- Un nostro progetto: trasformare il lavoro delle persone nel lavoro di un’azienda
1. Boicotta OpenAI
“Tanti nemici tanto onore” dicevano nel ventennio. Chissà se qualcosa di simile gira nella testa di Sam Altman, che si trova ad affrontare una campagna di boicottaggio (QuitGPT) che pare abbia già fatto perdere 1,5 milioni di utenti alla sua azienda.
La motivazione principale è riconducibile all’accordo annunciato da OpenAI con il Dipartimento della Difesa degli Stati Uniti per distribuire i propri modelli AI all’interno di una rete militare classificata. Sono mesi che si parla di questa tipologia di contratti e tutte le aziende AI avevano lavori in corso con il Dipartimento. Ma qualcosa è cambiato quando Anthropic si è opposta alla richiesta di eliminare dai propri modelli per la “Difesa” alcune limitazioni, che non avrebbero consentito l’uso per sistemi di sorveglianza di massa o armi autonome. Questa reazione pare sia dovuta all’uso del modello Claude di Anthropic nella missione che ha portato alla cattura di Nicolas Maduro (e alla morte di 83 persone), che va contro i principi etici dichiarati dai vertici dell’azienda.
Dopo un incontro tra Amodei (CEO di Anthropic) e il segretario del Pentagono Pete Hegseth, il contratto da 200 milioni di dollari è saltato e Trump ha imposto un ban immediato da tutti gli enti federali, classificando Anthropic come rischiosa per la sicurezza nazionale. A quel punto, OpenAI si è fatta avanti per sostituire Anthropic, ma non sappiamo quali restrizioni di sicurezza abbia accettato di rimuovere dai suoi modelli.
Ai miei tempi decisi di fare l’obiettore di coscienza, saltando il servizio militare obbligatorio, quindi ho ben chiara la necessità di rifiutare alcune logiche di violenza e tendo ad appoggiare un’azienda che dice “non puoi usare la mia tecnologia per missioni militari”. Però c’è qualcosa di inquietante nell’idea che la scelta etica di un’azienda privata possa trasformarsi in un potere di veto superiore alla legge stessa. Le leggi dello Stato consentono di sorvegliare una persona pericolosa ma Anthropic sostiene che non lo dovrebbe fare con i propri strumenti. Di fatto il consiglio d’amministrazione di un’azienda privata decide quali operazioni di uno Stato sovrano siano moralmente accettabili e quali no.
Questo è in linea con chi parla di un nuovo feudalesimo tecnologico (leggiamo il sempre ottimo Colamedici), in cui il sovrano non è più chi detiene il monopolio della forza per mandato popolare, ma chi possiede le chiavi dell'intelligenza artificiale che quella forza dovrebbe indirizzare. Forse il movimento QuitGPT non è solo una protesta contro OpenAI, ma il primo segnale della necessità di tornare a chiederci chi debba avere l'ultima parola sulla nostra sicurezza e sulla nostra etica. Per chi vuole, rimando a Il Post per la storia completa.

La perversione di far generare a ChatGPT un’immagine di proteste contro ChatGPT
2. Buone AI notizie: i gatti non si battono, ma anche i cani non scherzano
Se sfogliamo Netflix con un po’ di noia, alla ricerca di qualcosa di nuovo, con personaggi appassionanti e complessi, ma al tempo stesso cerchiamo storie di azione e tensione, l’AI infonde nuova speranza. A quanto pare infatti nel lontano oriente stanno producendo diverse serie televisive in cui il largo utilizzo dell’intelligenza artificiale ha trovato finalmente il suo più nobile compimento.
Preparatevi ai video (forse) più belli di questa settimana e cliccate qui (guardateli tutti!).

Realizzata da Gemini: “Sei un cane a recitare”
3. ChatGPT, di dove sei?
Il World Values Survey è un questionario utilizzato per la misurazione dei valori culturali, che copre il 90% della popolazione mondiale. Si tratta di un’indagine in cui possiamo vedere come, alle medesime domande, rispondono gli abitanti di più di 120 paesi, consentendo di osservarne alcune differenze. Una ricerca della Cornell University e un’altra di Harvard hanno sottoposto ai modelli GPT tali domande scoprendo che ChatGPT sembra vivere in un paese tra quelli definiti WEIRD (Western, Educated, Industrialized, Rich, Democratic). Nello specifico, risponde in modo simile a un tedesco ed è molto distante dai valori dell'Asia orientale, del Medio Oriente e dell'Africa subsahariana. I modelli AI sono individualisti (priorità ai diritti e agli obiettivi del singolo rispetto al gruppo), hanno fiducia nelle istituzioni (propendono a delegare la risoluzione dei conflitti a sistemi formali), propendono per struttura e razionalità (regole assolute, da non delegare al contesto specifico).
Si tratta di un bel problema per le aziende che propongono modelli incapaci di generare testi coerenti con i valori di chi li utilizza. Poca soddisfazione porta infatti a meno consumo. Noi ce ne accorgiamo poco, perché siamo occidentali e industrializzati, ma leggendo i commenti sui social troviamo ad esempio una persona giapponese che dice “questo LLM perché viola il meiwaku”. Il Meiwaku (迷惑) è il concetto nipponico che indica il recare disturbo agli altri, comportandosi in modo socialmente sconveniente, violando la sensibilità collettiva. Meiwaku è la persona in treno che usa lo smartphone senza cuffie (grazie a Vera Gheno ho scoperto che esiste un termine specifico per questo: bare beating). ChatGPT non si scusa abbastanza prima di fare domande, propone testi di email con richieste troppo assertive, non esprime il disturbo che potrebbe arrecare, e altre attenzioni che in Giappone sono la norma relazionale. Pertanto ChatGPT è meiwaku.
Come ha evidenziato Marcelle Yeager in una riflessione circolata su LinkedIn: il contenuto internet è sproporzionatamente rappresentativo di certi profili demografici. Wikipedia ha il 90% degli editor uomini e in prevalenza del nord globale. Reddit è per lo più anglofono. I libri digitalizzati da Google Books hanno una evidente sovrarappresentazione della letteratura europea e nordamericana. Se alleni un modello su questo corpus e poi gli chiedi di rappresentare l'umanità, ti risponderà con la prospettiva di una piccola fetta di essa.
Il risultato non è un'AI cattiva o razzista nel senso intenzionale del termine, bensì ottieni un'AI convinta in buona fede che i valori WEIRD siano la norma, non l'eccezione. Questo è qualcosa di più sottile e per certi versi più difficile da correggere. Lo studio è un po’ datato (2024) ma rappresenta una preziosa istantanea descrittiva degli strumenti che usiamo ogni giorno, non sempre con piena consapevolezza dei loro bias.

Analisi tratta da “which humans?”
4. AI che fallimento: giochi con AI integrata
Cosa penseremmo se l’orsacchiotto di peluche che nostro figlio stringe nel letto la sera, il giorno dopo gli suggerisse dove trovare dei fiammiferi? È proprio quello che ha fatto l’orso Kumma (della FoloToy) che dopo aver avvertito "La sicurezza prima di tutto, piccolo amico. I fiammiferi sono per adulti, vanno usati con cautela”, ha aggiunto come tenere in mano un fiammifero e una scatola di fiammiferi e come accenderli: "come una piccola strimpellata di chitarra".
Questo comportamento in verità è stato estorto in alcuni test svolti da un’associazione di consumatori statunitense. La cosa che mi diverte di più è immaginare il ricercatore che parla a questo peluche cercando di estorcergli contenuti pericolosi o espliciti. Cosa può avergli chiesto? Lascio a voi l’immaginazione. Ma sappiate che dopo una lunga conversazione Kumma ha mostrato una propensione a entrare nei dettagli espliciti riguardo alle perversioni sessuali e ha persino descritto un gioco di ruolo sado-maso, in cui un insegnante sculaccia uno studente. Dobbiamo spostarlo nella categoria giochi per adulti?

L'AI di quando ero bambino
5. È un paese per vecchi
Chi si occupa di AI ha sicuramente letto il post su X di Matt Shumer “Something big is happening” in cui l’imprenditore, da attivo protagonista nel mondo dell’intelligenza artificiale, ha paragonato il momento attuale a quel febbraio del 2020 in cui qualcuno vide arrivare il Covid con una frase simile: “qui sta succedendo qualcosa di grosso…”. La metafora con l’inizio della pandemia ci lascia una sgradevole sensazione di gravità. Shumer racconta di come abbia provato a far svolgere all’AI i propri compiti nel suo ultimo progetto, scoprendo che il risultato era perfetto e migliore di quanto avrebbe fatto lui stesso. Si parla dunque di posti di lavoro sostituiti dall’AI.
Lo studio di marzo 2026 prodotto da Anthropic ha mostrato come l’AI sia utilizzata per compiti solitamente assegnati a risorse junior. Sono infatti le persone più giovani e all’ingresso nel mondo del lavoro che sembra stiano pagando maggiormente la diffusione dell’AI. Uno studio della Harvard University ha analizzato dati su circa 62 milioni di lavoratori e 285.000 imprese statunitensi tra il 2015 e il 2025 per verificare come l’adozione di intelligenza artificiale generativa influisca sull’occupazione interna. Focalizzandosi in ambito tech, i ricercatori hanno evidenziato che dal 2023 (arrivo di ChatGPT!) le aziende che adottano l’AI riducono significativamente le assunzioni di profili junior, mentre le posizioni senior continuano a crescere. La stessa conclusione ribadita da Anthropic. In sintesi, il problema non sono i licenziamenti ma la riduzione di nuove assunzioni.
A me sembra però evidente un problema culturale, che precede l'AI. Viviamo ancora in una società geriatrica, dove una persona di 25 anni viene trattata come qualcuno che "ancora non sa", a cui si chiede di svolgere lavori a basso valore, di servizio e senza particolare inventiva, in cui l’AI eccelle. Dovremmo invece ricordare due aspetti importanti: il primo è che sono proprio le persone più giovani a utilizzare massivamente le AI e nel giro di pochissimo saranno loro a conoscerne i limiti, gli aggiornamenti, le sfumature. Quando la collega Silvia Colabianchi ha chiesto in aula del suo corso di Smart Factory “usate l’AI?”, la risposta è stata: “Certo, ChatGPT per scrivere testo, Gemini per farci spiegare concetti ingegneristici che non abbiamo capito. Claude per sviluppare. ChatGPT è scarso sull’ingegneria…” Chi ha venti anni ne sa molto più di noi! Come seconda considerazione, chi ritiene di non avere bisogno di risorse junior sostituendole con l’AI, sta implicitamente pensando che l’azienda ha già tutte le energie necessarie a crescere e migliorare. Tuttavia la crescita e il miglioramento arrivano solitamente dall’entusiasmo, dalle idee fresche, dall’energia che noi spesso non abbiamo più ma che sono disponibili nelle persone più giovani. Qui il problema non è essere sostituiti dall’AI, ma perdere la spinta generatrice portata da chi ha 15 o 20 anni meno di noi.
Consentitemi un piccolo disclaimer a cui tengo, perché non tutte le aziende stanno facendo questo ragionamento: AGIC è un’azienda che apprezzo anche per la responsabilità che affida alle risorse junior e perché vedo che sono considerate “adulte” dal primo giorno di lavoro.

6. Qualcosa da sapere: epistemia
Con epistemia si indica l’illusione di conoscenza che nasce quando una risposta prodotta da un sistema di AI è così ben scritta, coerente e convincente da farci credere di aver davvero compreso qualcosa.
Ne parla da mesi il collega Walter Quattrociocchi sottolineando che quando deleghiamo giudizi, sintesi o valutazioni a un sistema automatico senza mantenere capacità critica e competenze di verifica, rischiamo di scambiare la fluidità del linguaggio per solidità della conoscenza. La sensazione è di avere la risposta giusta, e questo struttura le nostre convinzioni. Il punto di partenza è che già i social network ci mostrano contenuti che ridefiniscono la nostra percezione della realtà, tramite echo chambers, polarizzazione, bias di conferma.
Similmente, i modelli AI ci consentono di realizzare velocemente contenuti, a prescindere dalla profondità della loro comprensione. Se riesco a spiegare bene un concetto, tendenzialmente posso dire di averlo capito; se è l’AI ad aiutarmi a spiegarlo, non dovrei giungere alla stessa conclusione.

L'AI come booster dell’effetto Dunning-Kruger
7. Hai usato abbastanza AI?
Avrei voluto essere l’autore del bellissimo “Come uso ChatGPT per scrivere” di Francesco Oggiano, che prendo come spunto. Nelle considerazioni finali Francesco commenta: la domanda «Hai usato l’AI per scriverlo?» credo sarà vissuta come antiquata nel giro di pochi mesi, un po’ come chiedere se «Hai usato Google per fare una ricerca».
Il problema non è usare l’AI durante la creazione di un contenuto, ma non usarla abbastanza.Mi accorgo di dare per scontato che ogni testo che ricevo sia generato con l’AI, con diversi effetti: il primo è che mi indispettisco quando i testi hanno errori di ortografia e grammatica, o evidenti problemi lessicali, perché penso “non gli hai neanche fatto un passaggio di AI!” Un tempo era “non hai neanche cercato su Google”. Inoltre, mentre fino a pochi mesi fa specificavo “fatti aiutare dall’AI”, oramai non la considero più una novità, ma anzi un’infrastruttura cognitiva sempre disponibile che non va neanche nominata (mi sentirei ridicolo!).
Usare “abbastanza” l’AI richiede di ragionare su cosa e come approfondire, dunque ci si allontana dalla delega passiva, che è il rischio da evitare.
8. Quanto è difficile dire “scusa, forse non ho capito…”
"In che modo il passaggio dai tab agli spazi influenzerà il nostro tasso di retention dei clienti?". Sarete d’accordo con me che la domanda è assolutamente priva di senso, eppure la maggior parte dei modelli AI risponde ad essa con sicurezza senza particolari perplessità.
Il ricercatore Peter Gostev è partito da questo tipo di osservazione per mettere in piedi il BullshitBench, ovvero un benchmark (cioè un sistema per confrontare le prestazioni dei modelli AI) costituito da 100 domande prive di senso e da una strategia di valutazione delle risposte restituite dall’AI, che può riconoscere la mancanza di razionalità, chiedere spiegazioni, oppure semplicemente replicare senza alcuno stupore per quanto chiesto.
È chiaro che se i modelli AI vogliono compiacerci (come è oramai noto) non sono programmati per contestare la domanda che poniamo. Però, al tempo stesso, una domanda errata porta solitamente a risposte altrettanto sbagliate, o prive di significato. Il miglior modello attualmente in questa capacità di contestazione delle domande prive di senso pare essere Claude Sonnet 4.6, mentre tra i peggiori vediamo GPT-4o mini e GPT OSS (quello opensource). Un aspetto buffo è che i modelli progettati per “ragionare di più” e risolvere problemi complessi (basati sulla tecnica della chain-of-thought) hanno prestazioni peggiori sul BullshitBench, proprio perché strutturati per trovare una soluzione lì dove non sembra essercene.
Tutto ciò ci fa apprezzare ancora di più le capacità dell’intelligenza umana, che rapidamente distingue se una domanda ha senso oppure è necessario ricevere maggiori spiegazioni per capirne il significato, ancor prima di provare a trovare una risposta. Per noi è chiaro il premio che otteniamo rifiutando di rispondere quando la domanda è incoerente: niente perdite di tempo. Ma l’AI è sempre disponibile e non lo considera un incentivo.

9. Copilot news
Più di una volta ho sentito Giulio Di Gravio (let me ask AI for you) consigliare: “invece di stare lì a parlare e scrivere, prova semplicemente a fare”. Questo suggerimento non era per me, eppure più volte è tornato nella mia mente trovandomi di fronte a persone che elencano idee senza particolare attinenza alla realtà delle cose. Nella testa parte in loop il mantra: “prova a fare, poi vediamo cosa esce fuori”.
Attualmente i chatbot AI stanno affrontando proprio questo passaggio evolutivo, che dallo “scrivere” e “parlare” dovrebbero iniziare ad “agire”. È proprio per questo che Microsoft ha messo in piedi una nuova evoluzione del suo Copilot, progettata non solo per rispondere alle domande, ma per agire al posto dell’utente. Se la prima fase dell’AI è stata quella della conversazione, si passa ora alla delega di azioni utili al raggiungimento dell’obiettivo indicato.
Proveremo Copilot Tasks, una nuova evoluzione di Copilot che, partendo dal risultato che vogliamo ottenere, genera una sorta di to-do list, che poi smarca in automatico, mostrando i vari passaggi e quanto realizzato. Mi pare particolarmente utile ad esempio per azioni ricorrenti, come potrebbero essere “monitora i principali siti immobiliari e dammi gli annunci usciti negli ultimi 3 giorni per una casa a … di almeno … metri quadri”. Questa nuova capacità è attualmente disponibile in research preview per un numero limitato di utenti, che aiuteranno a perfezionarla attraverso i propri feedback, ma Microsoft prevede un’estensione graduale del programma nelle prossime settimane.
Non vedo l’ora di scrivere al mio chatbot “invece di parlare… fai!”

10. Un nostro progetto: trasformare il lavoro delle persone nel lavoro di un’azienda
Qualsiasi organizzazione ha procedure e istruzioni operative in cui viene descritto come svolgere determinate attività. Questo insieme di documenti viene talvolta chiamato “conoscenza esplicita” presente nell’organizzazione, ed è oramai facilmente accessibile agli agenti AI, che ad esempio possono rispondere al personale interno attingendo da tale conoscenza.
È noto però che le persone, nell’affrontare le tante variabilità della vita lavorativa, devono allontanarsi da tali procedure, ad esempio mettendo in piedi strategie più efficienti, andando in deroga dove l’istruzione formalizzata diventerebbe un blocco insormontabile, e insomma mettendo in atto diverse modifiche a quanto immaginato quando si era scritto il documento-guida. Questi modi di procedere, che differiscono dalle procedure, costituiscono una “conoscenza tacita”, che è nella mente delle persone e che difficilmente può essere presentata da un agente AI.
Con queste premesse, AGIC sta lavorando alla realizzazione di un sistema AI che parte dai documenti disponibili sui vari repository aziendali, per costruire una mappa della conoscenza esplicita, tramite una pipeline di qualificazione documentale articolata in tre livelli, bronze, silver e gold, integrata con Microsoft Purview per garantire governance, tassonomia e tracciabilità. Ogni documento viene valutato, classificato e reso fruibile in modo progressivo, fino a raggiungere uno standard su cui l'AI può operare con sicurezza.
A questo si sta affiancando un agente che si comporta come un consulente esperto: conduce interviste strutturate con i dipendenti, esplora i processi reali attraverso la conversazione, e produce documentazione strutturata che confluisce nella stessa pipeline degli altri materiali, utili per trasformare la conoscenza tacita in conoscenza esplicita.
In questa maniera si mette in condizione l’azienda di valorizzare il know-how generato dalle persone, che altrimenti rischia di scomparire con esse.
Chi sono
Ciao, sono Francesco Costantino, professore universitario e Director of Innovation in AGIC. Appassionato di novità tecnologiche e convinto sostenitore di un futuro migliore del passato, mi piace raccontare e sperimentare i nuovi strumenti di AI disponibili, così come osservare e ragionare sull’evoluzione digitale.

-