11 Dicembre 2025
Newsletter Dicembre
In questo numero
- La resa dei conti si avvicina
- Babbo Natale esiste
- Raffreddare è un altro problema da risolvere
- Qualcosa da sapere: il paradosso della scatola nera
- Parliamo come merita l’AI
- Guarda quanto è potente la mia AI
- Uno strumento AI da provare
- Un nostro progetto per portare l’AI nel marketing
- Copilot news! Arriva la control room degli agenti AI
- Controlli nei progetti AI: in pole position
1. La resa dei conti si avvicina
Conosciamo la storia di Amazon, che per anni è andata in perdita, per poi diventare una macchina da soldi. Quindi scoprire che OpenAI non genera alcun profitto ci lascia pensare che lo farà in futuro. Ma esattamente come?
Oggi ChatGPT è onnipresente (anche Boris Johnson ama Chat Chippy Tea!), tuttavia OpenAI spende in potenza di calcolo ed energia molto di più di quel che guadagna, anche perché la maggioranza delle chat proviene da utenti gratuiti. Per dare qualche numero, si stimano costi attuali attorno ai 20 miliardi di dollari l’anno e investimenti annuali stimati in 175 miliardi, a fronte degli attuali (presunti) 13 miliardi di fatturato annuo.
La speranza iniziale era di costringere gli utenti a diventare paganti, ma l’arrivo repentino di modelli AI alternativi, non ha consentito questa strategia. Anche perché la sfida è rivolta ad un’azienda come Google che, contrariamente a OpenAI, dispone del proprio cloud, dei propri processori, dei modelli (Gemini, ora più performante), nonché di altre fonti di guadagno. OpenAI sta cercando modelli di business alternativi, ma al tempo stesso Sam Altman ha voluto dichiarare pubblicamente di aver attivato in azienda il “codice rosso”, per focalizzare le risorse sul miglioramento di ChatGPT e mantenere la leadership sul numero di utenti. Tre anni fa era Google a dichiarare “A New Chat Bot Is a ‘Code Red’ for Google’s Search Business”, ma i tempi sembrano essere cambiati. Anche perché le barriere a passare da ChatGPT a Gemini o a un altro sistema AI sono davvero poche. Anzi, saremmo tutti contenti di abbandonare un nome infelice come “chat gippitì”!
Per la cronaca: per anni Amazon non ha generato profitto perché spendeva tantissimo in investimenti, ma il business quotidiano era sano e generava margine. Per OpenAI invece è ogni singola risposta di ChatGPT genera una perdita. Previsione personale: il “red code” è l’ennesima trovata di marketing e tra un mese OpenAI dirà “ci siamo rimboccati le maniche, ecco il nuovo ChatGPT che è fantastico!”.

2. Babbo Natale esiste
Stamattina mi sono svegliato con l’urgenza di chiedere a Copilot se Babbo Natale esiste (vedi screenshot sotto). La risposta (per fortuna!) è stata affermativa. Il chatbot conosce anche le mie precedenti conversazioni ed essendo io un utente Pro, immagino che conosca anche la mia età. Eppure, se si parla di Babbo Natale, è pronto a dichiararne l’esistenza.
Sicuramente mi ha fatto piacere pensare al bambino che sul tablet del papà interroga ChatGPT e ottiene risposte rassicuranti sull’efficacia della propria letterina di dicembre, ma al tempo stesso ci fa riflettere su come l’AI possa essere “modellata” a non dire la verità.
Come segnalato dal (sempre ottimo) Post, diversi studi stanno analizzando l’impatto che i chatbot potrebbero avere sulle prossime tornate elettorali, considerando la sempre maggiore attitudine delle persone a confrontarsi con essi sui temi più disparati. Le ricerche per ora concordano nel dire che le AI vengono percepite come “sincere” e che sono capaci di modificare l’opinione e l’intenzione di voto di chi le utilizza. Un tempo si diceva “è vero, infatti l’ho letto sul giornale”, “l’ho sentito in tv”, “l’ho visto su Facebook”, e ora – forse – “me lo ha detto l’AI”.
Il problema di verificare le fonti rimane lo stesso, ma non nascondo che l’AI mi pare più subdola nel non dichiarare apertamente se ha una posizione schierata o meno, su temi controversi. O meglio, le risposte dei chatbot su argomenti discussi, solitamente non prendono posizioni nette, dichiarando proprio la mancanza di consenso universale, tuttavia se sono riusciti a far dire che Babbo Natale esiste, quando sarà mai complicato addestrarlo a confermare la bontà della politica di Trump?

3. Raffreddare è un altro problema da risolvere
L’AI richiede energia per svolgere grandi quantità di calcoli, ma anche per raffreddare i computer che realizzano questa attività. Anche gli esperimenti sui nuovi computer quantici evidenziano la necessità di abbassare la loro temperatura. Ecco perché si guarda con grande interesse anche alle innovazioni tecnologiche che promettono nuovi modi per “raffreddare”.
Una possibilità studiata (da Microsoft, Google, la cinese Highlander, e altri soggetti) è stata portare i datacenter sotto l’acqua del mare, in un ambiente naturalmente molto freddo e tutto sommato non troppo distante dalla popolazione. I risultati sono incoraggianti e le ricerche mostrano che già a 40 metri sotto il livello del mare fa risparmiare più del 30% dell’energia.
Partendo da questa idea si stanno prendendo in considerazione altri ambienti ostili per gli esseri umani ma ben raffreddati, come, ad esempio, la Luna. È proprio il nostro piccolo satellite ad essere preso d’assalto, ad esempio dalla startup americana Interlune, che si prefigge di raccogliere sulla Luna grandi quantità di elio (molto raro sulla Terra e utilizzato nei sistemi refrigeranti), o da Cina e Russia per la costruzione di un impianto nucleare.
Non abbiamo ancora finito di depredare il nostro pianeta che già ci organizziamo per il prossimo? Per fortuna la crème de la crème della scienza italiana sta studiando come realizzare fabbriche nello spazio, in maniera responsabile e sostenibile.

4. Qualcosa da sapere: il paradosso della scatola nera
Una scatola nera è l’immagine che solitamente si dà a un sistema che riceve degli input e restituisce degli output, ma in cui è impossibile guardare all’interno per comprenderne il funzionamento.
Nel campo della AI il paradosso è che da un lato vorremmo conoscere i meccanismi con cui lavorano i modelli di intelligenza artificiale; dall’altro, questa trasparenza è possibile solo quando i calcolatori svolgono compiti semplici (come ha segnalato ad esempio il prof. Rawashdeh dell’Università del Michigan). Il meccanismo con cui un software distingue se un cibo è o non è un hot-dog risulta facile da spiegare. Al contrario, un’app che riconosce qualsiasi cibo e ne restituisce l’apporto calorico funziona grazie ad un sistema complesso che è ancora difficile spiegare. Se l’app si sbaglia, non è facile capirne il motivo.
Trasferiamo questo ragionamento in contesti in cui la scelta diventa molto importante, come ad esempio scegliere una terapia, riconoscere un pedone, o valutare la solvibilità per concedere prestiti o mutui; in questi casi si richiede alle AI di essere “explainable”, cioè di mostrare i passaggi e i motivi dietro alla risposta fornita. Sono però proprio questi i casi complessi in cui la trasparenza diventa difficile da raggiungere: dunque dobbiamo scegliere tra un'AI potente di cui non possiamo fidarci e un'AI affidabile che però non è potente.
Esistono tecniche emergenti per visualizzare come un modello prende le decisioni, che talvolta rischiano di diventare “spiegazioni per gli umani”, non necessariamente vere. C’è quindi il pericolo di costruire dashboard, grafici e heatmap che danno una sensazione di controllo, ma che in realtà sono solo narrazioni a posteriori, semplificazioni comode per manager, regolatori e opinione pubblica.

5. Parliamo come merita l’AI
A cinque anni mio figlio si ruppe una gamba andando sugli sci. Dopo un mese a casa, la scuola dell’infanzia si oppose a farlo tornare in classe, perché si muoveva ancora con le stampelle. Andai nella segreteria scolastica e mi misi a urlare, come un matto. Non urlo mai, ma in quel caso decisi di adottare questa modalità comunicativa come strategia per ottenere quello che ritenevo un diritto. In generale, adattiamo il modo di parlare a seconda della situazione in cui ci troviamo.
Questo sembra accadere anche nelle conversazioni con i chatbot AI di assistenza e gestione reclami, a cui le persone si rivolgono sempre più arrabbiate perché sanno ormai che il modello AI riconoscerà un senso di urgenza maggiore e velocizzerà la gestione della pratica. Già con Alexa era stato dimostrato che seppure il sistema sia nato per capire il nostro linguaggio, noi gli parliamo con frasi cortissime, ad alto volume, molto semplificate. Le ricerche ci dicono anche che quando un sistema AI finge di essere una persona, siamo maggiormente irascibili e suscettibili.

6. Guarda quanto è potente la mia AI
Anthropic ha appena reso noto di aver bloccato una campagna di cyber-spionaggio, avvenuta a settembre 2025, probabilmente sponsorizzata dalla Cina (che ha smentito). L’elemento interessante è che gli attacchi sono stati realizzati con più dell’80% delle attività svolte dal Claude Code, un modello AI di Anthropic. Dobbiamo considerare che alcuni dei bersagli, una trentina di organizzazioni tra big tech, finanza, chimica e agenzie governative statunitensi, sembrano essere andati a segno.
Scopriamo dunque che così come si stanno automatizzando molte delle attività nelle aziende più “mature”, altrettanto si sta facendo nel lato oscuro della forza. Anche i “cattivi” stanno utilizzando l’AI, ad esempio per svolgere quel lavoro che un tempo sarebbe stato realizzato da un hacker umano. Il che non sorprende.
Alcuni ricercatori indipendenti hanno invece sollevato molti dubbi sulla reale capacità autonoma del sistema AI di realizzare le attività presentate nel report di Anthropic, che in pratica è stata accusata di aver ingigantito il caso, come prova della potenza di Claude Code e di farsi così pubblicità. Per chi guida un’organizzazione, la vera domanda non è se credere o meno al racconto di Anthropic, distinguendo ciò che è già tecnicamente possibile da ciò che è soprattutto storytelling, ma piuttosto capire come aggiornare il proprio modello di difesa sia contro sistemi AI esterni che provano ad attaccarci, sia per controllare il comportamento degli agenti AI interni, che agiscono con permessi che noi stessi gli abbiamo fornito.

7. Uno strumento AI da provare
Sappiamo che i “prompt” sono le richieste che inviamo alle chat AI come ChatGPT, Gemini, Copilot, ecc. Per chi si occupa di grafica, un buon prompt fa davvero la differenza e ottenere belle immagini con l’AI è tutta questione di prompt: bisogna conoscere gli stili, immaginare quello che si vuole ottenere e descriverlo puntualmente. Un’attività non semplice, che richiede professionalità. Proprio per questo un’azienda si propone come mercato di prompt.
Promptbase è un vero marketplace in cui possiamo vedere il risultato finale ottenuto con un certo prompt e quindi comprarlo per pochi dollari, così da poterlo poi utilizzare per ricreare le immagini che ci interessano, ma con lo stile prodotto grazie ad uno specifico prompt. Se c’è chi ha un bisogno e persone che possono soddisfare tale bisogno, trovo geniale chi si pone in mezzo a questi due soggetti creando un marketplace da cui può guadagnare con piccole commissioni sullo scambio commerciale.
Il contro che vedo è che esistono già tanti siti che forniscono gratuitamente dei prompt incredibili, oppure che offrono una sorta di “reverse engineering”, grazie a cui partendo da una immagine si ottiene il prompt utile a ricrearla. A titolo di esempio, ho preso l’immagine (molto elegante) qui sotto e l’ho caricata su uno di questi siti. Ho ottenuto così un prompt, che ho poi modificato per usare lo stile dell’originale e rappresentare un affascinante professore universitario di quasi 50 anni. Direi che l’esperimento è riuscito, seppure non mi somigli.

8. Un nostro progetto per portare l’AI nel marketing
Una grande organizzazione internazionale del settore food aveva un’esigenza chiara: velocizzare la produzione di contenuti multilingue garantendo coerenza, qualità e riuso delle informazioni già disponibili. La creazione manuale di articoli, post social, materiali stampa e documenti informativi richiedeva tempo, coordinamento e continui passaggi tra team interni ed esterni. Per rispondere a questa sfida, AGIC ha realizzato una piattaforma integrata che unisce collaborazione, automazione e intelligenza artificiale generativa.
Al centro del progetto c’è Azure OpenAI, che permette di generare testi su richiesta: l’utente seleziona il tipo di documento e la lingua, allega eventuali materiali di riferimento, e lo strumento produce l’articolo richiesto - o lo traduce - mantenendo stile e coerenza con i contenuti forniti. Dallo stesso input è possibile ottenere formati diversi, come post Facebook, storie Instagram o press kit, ottimizzando la comunicazione su più canali.
A supporto, SharePoint Online garantisce una gestione documentale strutturata e condivisa, Power Pages offre interfacce intuitive per la presentazione e revisione dei contenuti da parte di utenti interni ed esterni, mentre Power Automate orchestra i processi di richiesta, traduzione e approvazione, riducendo i tempi e minimizzando gli interventi manuali. Il risultato è uno strumento intelligente e scalabile, che consente al cliente di accelerare la produzione di contenuti globali e migliorare l’efficienza dell’intero ciclo editoriale.

Quando abbiamo un progetto bellissimo, ma non posso dirvi il nome del cliente, mi sento così.
9.Copilot news! Arriva la control room degli agenti AI
Nell’ultimo mese, in AGIC abbiamo incontrato due aziende con la stessa richiesta: “ormai abbiamo varie soluzioni AI al nostro interno, necessitiamo di una sala di controllo che le monitori e le controlli”. Detto fatto. Tre settimane fa Microsoft ha lanciato Agent 365, che potremmo considerare una Control Room, dedicata alla flotta aziendale di agenti AI. Grazie a un cruscotto centralizzato con telemetria, dashboard e alert, i responsabili IT possono monitorare in tempo reale le attività degli agenti, misurarne le performance, verificare come interagiscono con utenti e dati, valutare il ritorno sugli investimenti e essere pronti a intervenire in caso di comportamenti sospetti.
Agent 365 permette inoltre di integrare gli agenti con le applicazioni di produttività, dati e flussi di lavoro già in uso (Word, Excel, Teams, SharePoint, Dynamics 365 e altri). Sul fronte della sicurezza, la piattaforma estende alle AI agent le stesse protezioni che un’azienda applica agli utenti umani: con strumenti come Microsoft Defender e Purview, è possibile rilevare e bloccare minacce, monitorare rischi di esposizione dei dati, applicare controlli e conservare log dettagliati per garantire conformità e auditabilità. Qui si possono trovare dei video notevoli in cui si vede Agent 365 all’opera.

10. Controlli nei progetti AI: in pole position
Molte aziende stanno investendo sull’intelligenza artificiale, ma secondo uno studio di Bain, spesso i progetti si arenano quando entrano in gioco le funzioni di controllo: legal, risk, compliance, procurement, finanza, HR. A quanto pare, il problema non è la presenza di controlli in sé, ma il fatto che vengano coinvolti troppo tardi, solo per dare un via libera finale. In queste condizioni, con poca trasparenza sui casi d’uso e nessun criterio condiviso per valutare rischi e benefici, la risposta tende a essere difensiva, con rallentamenti, richieste di approfondimenti infiniti, oppure un semplice “no”.
Mi viene in mente il caso del Gran Premio d'Italia di F1 del 2022 a Monza, quando la Safety Car è intervenuta a pochi giri dalla fine e non c'è stato il tempo di far ripartire la gara, con le vetture che hanno tagliato il traguardo dietro di essa. Tutto in ordine, ma zero spettacolo. Similmente, il sistema di controllo aziendale frena i progetti AI e da essi si ottiene solo qualcosa di molto banale. Lo studio di Bain sostiene che le organizzazioni capaci di introdurre con successo l’AI nei propri processi trasformano le funzioni di controllo da “guardiani” a stakeholder di progetto coinvolti sin dalle fasi di ideazione dei casi d’uso, per definire soglie di rischio accettabile e criteri minimi comuni, nonché sfruttare i framework di risk assessment già esistenti.
Chi sono
Ciao, sono Francesco Costantino, professore universitario e Director of Innovation in AGIC. Appassionato di novità tecnologiche e convinto sostenitore di un futuro migliore del passato, mi piace raccontare e sperimentare i nuovi strumenti di AI disponibili, così come osservare e ragionare sull’evoluzione digitale.
