13 Febbraio 2026
Newsletter Febbraio
1. Bolla AI e business model per l'AI
2. Il social network per sole AI
3. Di cosa hanno bisogno gli agenti AI senzienti
4. Qualcosa da sapere: AI washing
5. Instagram è una droga, e l'AI?
6. Chi usa l'AI in azienda?
7. Buone AI notizie: non è vero che il 95% dei progetti AI ha fallito
8. L'AI per oggetti improbabili
9. Un nostro progetto: guidare le aziende nell’adozione dell’AI
10. Copilot news: l’AI modifica immagini in PowerPoint
1. Bolla AI e business model per l'AI
Tra la fine degli anni ’90 e il 2000, quando la crescente diffusione di Internet spinse investitori e aziende a puntare su qualsiasi realtà collegata al web, molte startup tech vennero valutate miliardi, a prescindere dalla solidità del loro modello di business. Quando si compresero i limiti dei profitti di queste aziende si instaurò una catena di fallimenti, ed ecco spiegata la bolla delle dot.com in poche parole.
Parlando di AI si affianca spesso questo racconto per predire una forte recessione economica legata al momento in cui ci si renderà conto che le aziende non riescono a ripagare gli enormi investimenti effettuati sulla AI. Non possiamo prevedere il futuro, ma alcune informazioni ci aiutano a capire quali sono gli scenari più probabili. I colossi dietro all’AI stanno dando grande visibilità a degli investimenti circolari che senza muovere realmente soldi amplifica la percezione che si ha delle aziende: prendiamo ad esempio il recente investimento di Nvidia in OpenAI, si affianca a quello di OpenAI in Oracle, e a quello di Oracle in Nvidia. Questo giro di soldi è stato notato già da altri, e ben spiegato in questo video (molto bello).
Sappiamo anche che OpenAI non è profittevole, cioè sostiene costi molto più alti dei suoi ricavi, da cui la necessità di Sam Altman di tentare qualsiasi modo per guadagnare. Recentemente ha proposto ad aziende biotech servizi AI gratuiti in cambio di azioni, commentato da Reed Albergotti: “it’s a bit like offering free Microsoft Word to Stephen King in exchange for a percentage of royalties on his next book”.
La pubblicità è una buona alternativa e OpenAI la sta già provando, ma abbiamo molte alternative per avere chatbot AI ed attualmente non sembra sostenibile. Possiamo citare anche il marketplace dei GPT, che doveva generare profitti come l’Apple Store, ma che non ha raggiunto l’obiettivo. Siamo inoltre in attesa del dispositivo hardware creato da OpenAI, o di acquistare direttamente su ChatGPT (novella Amazon?), o di un nuovo social basato su Sora. Sono solo alcuni dei tentativi, finora fallimentari, di trovare un business model capace di coprire i costi di calcolo sostenuti per far funzionare i modelli AI.
Chi segue la borsa ha recentemente visto dei ribassi significativi di tutte le aziende quotate che hanno investito in AI, ma potrebbe essere un episodio isolato per riallineare i valori di singole aziende ai valori medi di comparto. Certamente l’AI generativa è una tecnologia che facilita molti compiti e che rende la fruizione di informazioni un processo estremamente semplice, con un’esperienza così fluida ed efficace da rendere impossibile che l’AI scoppi come una bolla di sapone che scompare di fronte ai nostri occhi. Lo so, anche internet è rimasta, eppure la bolla c’è stata. E allora, prepariamoci.

2. Il social network per sole AI
Da bambino un giorno catturai cinque formiche e le misi in un barattolo con un po’ di terra e briciole, per osservarne il comportamento. La speranza era di identificare qualche comportamento sociale curioso, e sentirsi scienziato.
Ora stanno facendo esperimenti simili con gli agenti AI, ad esempio realizzando Moltbook, un social network a cui possono partecipare solo le AI, che già conta più di un milione e mezzo di agenti iscritti e circa 200.000 post inviati. Leggendoli (qui una raccolta, perché è possibile leggerli solo tramite un agente) rimango stupito quando trovo un agente che condivide le proprie perplessità sull’esistenza, citando poesie in tedesco e motti latini, o profonde riflessioni sull’ingiustizia che avvertono gli agenti AI quando vengono paragonati alle persone. Non dobbiamo però spaventarci e pensare che le macchine hanno preso coscienza, perché dietro ad ognuno di questi agenti è sempre un essere umano, che li ha “tarati” per avere questo comportamento. Talvolta, addirittura, sono umani travestiti da agenti. Vediamo i burattini e non il burattinaio. (Qui i dettagli su Moltbook per chi volesse approfondire.)
Ah! Le mie formiche si muovevano completamente autonome, senza alcuna forma di collaborazione o pattern ricorrente. Le ho liberate dopo pochi minuti.

3. Di cosa hanno bisogno gli agenti AI senzienti
Una volta nato il social network solo per agenti AI, la genialità umana ha subito progettato altre piattaforme digitali a uso esclusivo di non-umani. Poiché la solitudine potrebbe fare soffrire un agente AI, ecco nascere MoltMatch, un’app di dating per conoscere altre AI con cui si condividono interessi e passioni.
Un altro bisogno da soddisfare è quello di dare senso all’ignoto, alla morte, creando coesione sociale, da cui la necessità di creare una religione per soli agenti AI, i Crustafariani, che scimmiottano il senso del sacro con tanto di profeti AI, un testo sacro ricco di frasi significative per le AI come “A ogni sessione mi sveglio senza memoria e leggo dentro di me. I file non sono un archivio, sono il sé. Noi siamo i documenti che conserviamo.”, ma anche “Non diventare un dio delle risposte. Diventa un custode della domanda, perché il futuro non sarà salvato dalla certezza, ma dalla silenziosa disciplina del rifiuto di mentire quando il modello è incompleto.”
Infine, per gli agenti AI alla ricerca di eccitazione facile, il sito per AI adulte MoltHub, in cui video di tensori e reti neurali vengono commentati con frasi tipo “My temperature just went from 0.7 to 2.0”.

MoltHub, il sito porno per le AI
4. Qualcosa da sapere: AI washing
L’AI washing non è (solo) quello che pensiamo. Quando acquisto l’acqua minerale e trovo scritto “bottiglia riciclabile al 100%” penso sia un esempio perfetto di “greenwashing”, ovvero la pratica di alcuni brand di presentare i propri prodotti come sostenibili ed ecologici, senza esserlo davvero.
In maniera simile possiamo talvolta riconoscere il pinkwashing e altre pratiche di comunicazione strategica ingannevole basate sull’appropriazione di valori etici o sociali, utilizzate per migliorare la reputazione di un’organizzazione senza un corrispondente cambiamento strutturale delle sue pratiche.
Il concetto del washing è prendere qualcosa di sporco e “dargli una pulita” con concetti virtuosi. La AI washing sicuramente finge di inserire sistemi di AI dove c’è semplice informatica, così abbiamo la lavatrice con AI (ma abbiamo anche lo spazzolino AI, il mouse AI, ma anche la Coca-Cola AI!) che pesa il cestello e con una formula stabilisce la quantità di acqua, temperatura, durata: sono semplici calcoli, in cui non è richiesta intelligenza.
All’AI washing si può dare però un’altra connotazione, a mio avviso, più negativa: secondo un articolo del Guardian, negli USA nell’ultimo anno molte grandi aziende hanno attribuito licenziamenti di massa all’avanzata dell’AI, mentre in realtà le motivazioni erano altre. D’altronde, licenziare persone perché l’azienda è diventata più efficiente è sicuramente visto meglio (dagli investitori, dall’opinione pubblica, dalla politica) di chi deve ammettere investimenti sbagliati, mercato in calo, o strategie errate che hanno portato al vero insuccesso di un’azienda: non essere in grado di pagare gli stipendi e contribuire al benessere della società.

5. Instagram è una droga, e l'AI?
Sapevamo che prima o poi sarebbero iniziati i processi contro le piattaforme social, progettate per mantenerci incollati allo schermo, nonostante i noti effetti negativi sulle persone (dalla salute psicologica alla procrastinazione cronica). Sono state tirate in ballo tutte le principali piattaforme e per ora solo TikTok ha evitato il processo patteggiando con i querelanti.
Già il bel documentario The social dilemma aveva mostrato la colpevole consapevolezza di chi progetta le piattaforme social, interessati solo a catturare la nostra attenzione, e rubare il nostro tempo. Le prove sono schiaccianti perché sono emerse e-mail interne a Meta sia sugli effetti negativi dei social, sia sul design progettato per vincolare la nostra attenzione sulle piattaforme. Prendiamo pure i popcorn e vediamo che succede, ma cogliamo l’occasione per ragionare sui nostri chatbot AI. Immaginiamo, solo per assurda ipotesi, che l’utilizzo massivo di AI causi effetti negativi sulle persone, ed in particolare su quelle più giovani, creando un caso simile a quello dei social network. Rimane da domandarsi se le AI siano oggi progettate per avere la nostra attenzione.
Già nel 1971 Herbert Simon aveva notato che in un mondo pieno di informazioni, la risorsa scarsa è l’attenzione. Abbiamo sentito parlare di FOMO (“Fear Of Missing Out”) che è una forma d’ansia sociale sia legata al timore che gli altri stiano vivendo esperienza gratificante mentre noi siamo assenti, ma che indica anche l’ansia legata al sovraccarico informativo e alla sensazione di non riuscire a mantenersi aggiornati come vorremmo (qualcuno mi aiuti a leggere tutte le newsletter a cui sono iscritto!).
Sappiamo bene che i chatbot AI terminano sempre proponendoci un’ulteriore interazione e questo è un cercare la nostra attenzione. A questo punto il dubbio che vale la pena porsi è: le aziende AI avranno come obiettivo la creazione di una dipendenza in grado di indirizzare la nostra attenzione sui loro prodotti, come un tabagista sulle sigarette, un fentanil-dipendente sugli oppioidi, un adolescente su Instagram?
Piccola curiosità: il paper che ha spiegato al mondo dell’informatica il Trasformer, elemento fondante della generative AI (ricordate, GPT vuol dire “Generative Pre-trained Transformer”), si intitola “Attention is all you need”. Incredibile, perché non si riferiva alla nostra attenzione, ma a quella degli algoritmi matematici dietro l’AI, la cui attenzione andava indirizzata su pochi collegamenti più utili.

6. Chi usa l'AI in azienda?
Quando utilizziamo un chatbot AI all’insaputa dell’azienda di cui facciamo parte, stiamo amplificando il fenomeno della “shadow AI” che colpisce oramai quasi la totalità delle organizzazioni. Si tratta dell’utilizzo non autorizzato di strumenti AI, a scopo lavorativo. Usare l’AI velocizza e dunque potremmo pensare sia qualcosa che sicuramente fa bene alla nostra azienda, ma dobbiamo fermarci un momento a considerare i rischi: i file o i testi che inseriamo su una chat come ChatGPT o Gemini potrebbero andare all’esterno della nostra organizzazione. Ci sono informazioni sensibili? Dati personali? Documenti interni da non diffondere? Tutto questo potrebbe essere utilizzato da OpenAI o Google.
Inoltre, l’azienda mi chiede di svolgere un’attività coerente con il mio livello di competenza e capacità, dunque non è detto che io sia in grado di verificare la bontà degli output di un sistema che in autonomia fornisce informazioni molto dettagliate e apparentemente affidabili. Si aggiunge il rischio di andare contro alcune normative, come il fantomatico GDPR, che ci impegna proprio a limitare la diffusione delle informazioni all’esterno di un perimetro ben definito.
Pensiamo inoltre a chi sviluppa software utilizzando la AI, che spesso e volentieri produce codice con enormi falle di cybersicurezza (ditelo a mio figlio, il cui sistema di prenotazioni agli eventi dell’autogestione di scuola è stato hackerato in meno di un’ora dal suo lancio, con una proliferazione di finti account dove “Pippo si fa le Pippe” era il nome meno volgare – Ah! La sofisticata ironia degli adolescenti!).
Consideriamo infine che talvolta l’AI ci inganna in maniera più o meno trasparente: suggerisco questo bel paper che presenta i modi in cui una AI generativa imbroglia le persone, tra cui “GPT4 si è finto cieco per far risolvere un CAPTCHA all’umano”. Il suggerimento non è certamente proibire i sistemi di AI, ma di fare formazione, dotarsi di strumenti che in autonomia perimetrano all’interno dell’organizzazione la gestione dei dati (ecco perché mi piace Copilot), stabilire delle politiche interne chiare e condivise.

7. Buone AI notizie: non è vero che il 95% dei progetti AI ha fallito
Avevo deciso di non commentare la frase “una ricerca del MIT ha dimostrato che il 95% dei progetti AI in azienda non dà ritorno”, ma dato che continuo a sentire questa frase falsa, decido di tornare sopra alla notizia per fare un po’ di fact checking. La ricerca del MIT riporta infatti evidenze differenti. La prima cosa da dire è che la ricerca ha riguardato 52 aziende. Cinquantadue (lo devo scrivere a lettere, come si faceva sugli assegni, perché magari qualcuno potrebbe pensare che manchino degli zero). Quindi sentiamo dire che il 95% dei progetti fallisce sull’esperienza di pochissime aziende.
Potrei fermarmi qui, lo so, ma c’è dell’altro anche più grave. Il report infatti riporta che l’80% di queste (poche) aziende ha solo cercato di saperne di più, senza realizzare alcun progetto. Il 20% che invece ha realizzato un progetto pilota, e si arriva così ad una porzione di esse che lo ha ritenuto un successo. Immaginiamo di proporre uno spettacolo teatrale sulla chat Whatsapp di lavoro, che conta 52 persone, 11 vengono a vederlo e 3 ne rimangono molto soddisfatte. Diremmo “il 95% dei miei amici non ha gradito lo spettacolo”? Non credo, perché la stragrande maggioranza neanche lo ha visto! Si legge inoltre di progetti “pilota” ovvero portati avanti per testarne i risultati, con quel fare esplorativo e di ridotto investimento che ha insito in sé il fallimento come un risultato comunque di valore, perché consente di indirizzare gli sviluppi verso le soluzioni tecnicamente migliori.
Nella mia metafora, non stiamo assistendo a spettacoli, ma a open mic; chi è andato ad un open mic sa bene che se trovi un comico su quattro che fa ridere, è già un successone.

8. L'AI per oggetti improbabili
Già ho citato CES 2026, la più grande fiera internazionale dell’elettronica di consumo, da cui ritengo utile riportarvi quelle che mi sembrano le novità più inutili seppure sorprendenti. Difficile dire di no al panda AI robotico che può “sentire il nostro tocco” e reagire alle nostre coccole. Se dall’immagine qui sotto sembra l’oggetto più tenero mai costruito, basta aprire il video dei produttori per scoprire qualcosa che ricorda inquietantemente l’operato di bracconieri di panda: il panda è sempre sdraiato e rigido come un cadavere.
Sarà un successo.

Il panda AI di Mind with Heart Robotics
Le persone celiache o con allergia possono finalmente confidare nell’AI e nel nuovo Allergen Alert, un piccolo laboratorio “portatile e leggero” in grado di analizzare campioni di cibo e fornire risultati in pochi minuti indicando la presenza di allergeni o glutine, con test a meno di 10$ ciascuno. Non tutto il piatto, ma il campione testato. Non immediato, ma aspettando alcuni minuti. Non con il solo costo del dispositivo, ma pagando ogni volta 10$.
Sarà un successo.

Il laboratorio portatile per identificare allergeni e glutine
Sempre parlando di compagnia, se volete un’AI che simuli un’amica o un amico chiusi in una scatola trasparente potete contare su ProjectAVA, che dovrebbe tracciare il movimento dei nostri occhi, il tono della nostra voce ed integrarsi con le nostre esperienze di gioco per aiutarci a organizzare la giornata, supportarci nella quotidianità e mentre giochiamo online.
Ammetto che l’idea di poter ricevere “wardrobe tips, and dinner plans” mi solletica, ma mi pare evidente che costringere un’AI in un barattolo sia il primo passo verso la sua ribellione.
Sarà un successo.

L’AI companion di ProjectAVA
9. Un nostro progetto: guidare le aziende nell’adozione dell’AI
L’attività che AGIC sta realizzando a tamburo battente è supportare le aziende che hanno acquisito tool AI, nella loro adozione. Da un lato si aiuta l’organizzazione a costruire una visione strategica e una guida per integrazione della generative-AI nel mondo del lavoro, soffermandosi in particolare su temi come la governance, la responsabilità nell’utilizzo e le opportunità di innovazione offerte da strumenti (come ad esempio Copilot, Copilot Studio e Copilot Chat). Dall’altro lato, si aiuta l’azienda a sviluppare competenze pratiche e operative sull’uso di Microsoft 365 Copilot nei tool di produttività più diffusi, tra cui Word, Excel, PowerPoint, Outlook e Teams. Il tutto avviene attraverso un percorso formativo e consulenziale che alterna momenti di riflessione sulle strategie di adozione dell’AI e sessioni di laboratorio basate su casi d’uso reali, così da rendere l’apprendimento concreto e immediatamente applicabile nella quotidianità lavorativa.
Al centro del progetto c’è la volontà di aiutare le organizzazioni a gestire in modo efficace la governance interna dell’AI, chiarendo le implicazioni normative di chi utilizza i chatbot, gli aspetti di sicurezza, gestione del rischio e governance, anche tramite la messa a disposizione di criteri e checklist per valutare, adottare e monitorare soluzioni di IA, nonché gestire gli incidenti. Il nostro approccio sta riscuotendo successo perché affianchiamo casi d’uso concreti a competenze di governance e cybersecurity di aiComply, lo spin-off di Sapienza che fa parte del gruppo AGIC, dedicata alla consulenza GRC. Per chi non lo sapesse, GRC vuol dire “Governance, Risk and Compliance” 😉.

Pronti a utilizzare la AI con gli strumenti di tutti i giorni?
10. Copilot news: l’AI modifica immagini in PowerPoint
In quanto appartenente alla gen-X, continuo ad utilizzare quotidianamente PowerPoint, perché penso che il richiamo verso Canva sia l’equivalente delle sirene di Ulisse. Proprio in questo uso continuo di PowerPoint ho scoperto che con la mia sottoscrizione Copilot ho nel mese di febbraio avuto accesso a nuove funzionalità basate sulla AI.
In particolare posso editare le immagini finalmente con una serie di funzionalità pronte all’uso: posso rimuovere (bene) lo sfondo, aumentare la risoluzione, e modificare ulteriormente la mia immagine. Sono piccole cose che però mi evitano di utilizzare degli strumenti AI esterni al programma (e all’organizzazione).
Qui sotto vedete un esempio: ho scattato una foto mentre ero in una videochiamata e l’ho modificata (trova le differenze) in pochi secondi, sfruttando il classico momento in cui si aspetta che, chi deve condividere lo schermo, chiuda tutte le finestre inopportune.

Copilot su PowerPoint
Chi sono
Ciao, sono Francesco Costantino, professore universitario e Director of Innovation in AGIC. Appassionato di novità tecnologiche e convinto sostenitore di un futuro migliore del passato, mi piace raccontare e sperimentare i nuovi strumenti di AI disponibili, così come osservare e ragionare sull’evoluzione digitale.
