16 Aprile 2026
Newsletter Aprile
1. Chi non è sposato, prova partner diversi
2. Sviluppatori, tira una brutta aria
3. Avere accesso alle informazioni, elaborarle… e poi?
4. Perché l’acqua è un tema legato all’AI
5. Preferiamo Will a Lena
6. Il bollino “scritto da persone umane”
7. Where is my mind, Mythos?
8. Qualcosa da vedere
9. Un nostro progetto: LeadOps
10. Copilot news: critiche e consigli
1. Chi non è sposato, prova partner diversi
Qualcuno di noi è “sposato” a un chatbot specifico, solitamente perché pagato dall’azienda dove lavora. Ma per tutte le altre persone è un momento di grandi tentazioni. “Sono bigamo” ha detto lunedì un mio amico, ammettendo di utilizzare sia ChatGPT che Gemini. Pochi giorni prima, una collega mi aveva mostrato un simulatore aziendale creato con Claude, adottato dopo mesi di utilizzo dei modelli OpenAI, per spiegare agli studenti di ingegneria gli effetti di alcune scelte.
Questa tendenza ad abbandonare ChatGPT o ad affiancargli l’uso di altri modelli non è evidente solo nella mia esperienza, bensì è confermata dalle recenti analisi di mercato (una, due, tre). Quindi è necessario capire se i servizi di AI generativa vadano trattati come forniture tradizionali, tipo elettricità o telefonia, per cui basta scegliere il miglior operatore del momento, oppure come i servizi di streaming, per i quali nel tempo abbiamo accumulato più abbonamenti. È interessante che la perdita di quote di mercato di OpenAI non ne abbia minimamente fermato la crescita: continua ad avere i modelli AI più utilizzati al mondo e ha appena concluso un round di finanziamento di (ulteriori) 122 miliardi di dollari.
La mia esperienza personale è che oggi userei quasi esclusivamente Claude, ma l’offerta che propone non è flat e ogni due giorni mi chiede di ricaricare il credito. Questa offerta a consumo rende complicato l’accesso condiviso a queste risorse, come oggi molte persone fanno.

2. Sviluppatori, tira una brutta aria
L'agricoltura, che all’inizio del secolo scorso rappresentava il fulcro dell’occupazione, ha subito una contrazione numerica drastica non perché avessimo smesso di mangiare, ma perché siamo diventati incredibilmente efficienti nel produrre cibo con una frazione della forza lavoro iniziale. In verità oggi produciamo molto più cibo di quanto facessimo il secolo scorso. L’immagine qui sotto racconta come l'automazione e la meccanizzazione abbiano trasformato un settore ad alta intensità di manodopera in uno super produttivo con ridotto utilizzo di persone.

Posti di lavoro negli USA, per settore
Oggi, osservando l’evoluzione dei modelli e degli assistenti alla programmazione, è difficile non intravedere un destino speculare per il settore dello sviluppo software. Il recente rapporto AI Index 2026 della Stanford University conferma che la perturbazione della forza lavoro causata dall'intelligenza artificiale non è più una previsione ma una realtà tangibile che sta colpendo prioritariamente le nuove leve del mercato. Siamo entrati nell'era in cui il codice è diventato una commodity e i compiti che fino a poco tempo fa richiedevano ore di lavoro manuale da parte di figure IT junior sono oggi gestiti con efficienza superiore da agenti autonomi.
Questa transizione è supportata da analisi macroeconomiche molto fresche. Un report di BCG pubblicato proprio in questo aprile 2026 stima che oltre il 50% dei ruoli professionali verrà rimodellato dall’AI entro i prossimi due anni. Nel software, questo si traduce nel collasso delle posizioni entry-level, che in alcune regioni hanno visto un calo delle assunzioni superiore al 45%. La logica economica è cambiata: non è più conveniente pagare una risorsa umana per scrivere unit test o boilerplate quando un senior engineer potenziato da strumenti agentici può produrre il volume di lavoro che nel 2020 avrebbe richiesto un intero team di sviluppatori junior.
La cosa che mi fa sorridere è che sono stati degli sviluppatori a creare l’AI che sta annientando il lavoro degli sviluppatori.
3. Avere accesso alle informazioni, elaborarle… e poi?
Qualche giorno fa mi sono imbattuto in questo post, che ho trovato molto divertente:

Il post originale qui
Ironia a parte, il post ci fa riflettere su cosa richiede tempo ai programmi che utilizziamo. Oggi non vediamo più “loading” perché le connessioni sono diventate talmente veloci ed i siti così ottimizzati, che difficilmente dobbiamo attendere che le informazioni siano “caricate”. La generazione di contenuto invece richiede tempo e quindi ci troviamo di fronte al messaggio “sto pensando…”. L’output non è più deterministico e certo (il contenuto di un sito, ad esempio) ma probabilistico, non completamente controllabile da chi ha sviluppato il programma che “pensa”.
Quello che sappiamo con certezza è che la velocità dell’AI crescerà e dunque ha senso domandarsi per cosa sarà richiesto tempo. Forse un domani le AI dovranno trovare le fonti energetiche più disponibili (ci diranno “charging…”), oppure si confronteranno per tutelarci dalle allucinazioni (“cross-checking…”), o magari si collegheranno a sensori sparsi in ogni dove per recuperare dati aggiornati in tempo reale (“sensing…”). Mi piacerebbe che un giorno il messaggio fosse "go for a walk, I'll handle this…", cioè un’AI che non prova a trattenerci, progettata per farci guardare altrove.
4. Perché l’acqua è un tema legato all’AI
Mi proponevo da tempo di spiegare meglio perché l’uso dell’acqua per l’AI sia un problema. Sappiamo infatti che l’acqua viene utilizzata per raffreddare i processori necessari a far girare i modelli AI, ma non è facile immaginare che questa acqua resa calda poi scompaia e non possa essere utilizzata per altro. Con un approccio un po’ naïve possiamo pensare: “prendi l’acqua a temperatura ambiente, la usi per raffreddare un computer, poi la metti in una grande vasca e appena torna a temperatura ambiente la rimetti in natura. Oppure la utilizzi di nuovo per raffreddare.” Ma non funziona proprio così.
Il primo aspetto da chiarire è che l’acqua di cui stiamo parlando è davvero tantissima. Recenti stime previsionali indicano una evaporazione di acqua causata dall’AI per il 2027 pari a 5 volte l’intero fabbisogno della Danimarca. Infatti, per smaltire l’acqua riscaldata dai processori (che vengono raffreddati) si utilizzano delle torri di raffreddamento, dove è proprio l’evaporazione il principio fondamentale di smaltimento del calore. Sistemi alternativi a circuito chiuso (simili al radiatore di un'auto) si chiamano Dry Cooling ma sono inefficaci quando la temperatura esterna è elevata, e richiedono spazi eccessivi data la quantità di acqua in gioco.
La buona notizia è che tutte le big tech si sono poste il problema: Google ha centinaia di progetti globali di compensazione idrica (principio discutibile, lo so, ma già è qualcosa), questi sistemi alternativi faticano a raffreddare i server quanto farebbe l'acqua che evapora; Microsoft ha confermato che a partire dal 2026 i nuovi data center (come quelli pilota in Arizona e Wisconsin) utilizzeranno un design a evaporazione zero, risparmiando circa 125 milioni di litri d'acqua all'anno per singola struttura; Meta prevede di restituire il 200% dell'acqua consumata nelle regioni dove le risorse idriche sono scarse. Infine, da una necessità si crea un mercato e le analisi recenti presentano il settore del raffreddamento liquido per data center in grande crescita, con innovazioni e nuove soluzioni.
Anche a livello normativo e legislativo qualcosa si è mosso. L’Europa ha introdotto nel 2026 nuove linee guida per il recupero del calore di scarto e l'efficienza idrica nelle infrastrutture digitali all'interno dell'UE. Inoltre, è oramai ampiamente riconosciuto lo standard internazionale proposto dall’Alliance for Water Stewardship (AWS, ma non sono gli Amazon Web Services!) che è diventato il riferimento per certificare che il consumo idrico dei data center sia responsabile e trasparente rispetto alle comunità locali.
Non possiamo scrivere che stiamo “affogando in un bicchiere d’acqua”, perché il problema c’è ed è importante, ma al tempo stesso una situazione in continuo miglioramento ci fa ben sperare.

Lo schema di una torre di raffreddamento
5. Preferiamo Will a Lena
Nel 1973 presso l’University of Southern California, alcuni ricercatori cercavano un’immagine per testare un algoritmo di computer vision. Avendo sottomano il paginone centrale di Playboy (poi ci stupiamo che le ragazze non scelgano le materie STEM!) scelsero tale foto di Lena Söderberg come perfetta varietà di texture, aree sfumate, dettagli geometrici, su cui effettuare le prove. Da quel giorno, dopo una prima minaccia di azioni legali da parte di Playboy, l’immagine si diffuse nel mondo accademico e di ricerca, comparendo in più di 250.000 articoli scientifici. Tuttora la foto è utilizzata su molti tutorial online, sebbene appaia oggi evidente la sua natura sessista.
Io stesso ho utilizzato Lena.jpg più volte per i miei esperimenti, prima di conoscerne la storia (qui un bel documentario che la racconta). La ricerca di uno standard su cui testare algoritmi è molto utile per confrontarne i risultati e il mondo dell’AI ha evidentemente identificato in Will Smith che mangia gli spaghetti la propria Lena. Per l’AI generare il video di una persona che mangia cibo è complesso, e tanto più se il cibo è composto da tante piccole particelle, tra di loro collegate, ognuna con il proprio movimento coerente con gli altri. Insomma, gli spaghetti sono un bel problema da creare. Il miglioramento dei generatori di video AI è evidente (qui la differenza tra 2023 e 2026), così come l’autoironia di Will Smith che ha infilato suoi video veri in mezzo a quelli AI (lo puoi vedere qui).

Copilot per “create an image of Will Smith shaking hands with Lena Söderberg”
La Society of Authors (SoA), che è la principale associazione di categoria e sindacato nel Regno Unito per scrittori, illustratori e traduttori letterari, ha pensato sia utile realizzare un bollino che certifichi se un’opera è stata creata senza l’utilizzo dell’AI. Se un tempo era l’AI a fingersi umana, ora l’onere della prova si rovescia e bisogna dimostrare che i prodotti culturali non sono stati generati dall’AI. È la prova che il test di Turing è completamente superato e non saremmo in grado di distinguere chi ha generato un contenuto; così, proprio come un prodotto Bio di cui non possiamo sperimentare personalmente la filiera di provenienza, abbiamo bisogno di una certificazione “Human Authored”.
Personalmente trovo disturbante pensare ci sia del valore nel mancato utilizzo dell’AI. Se scrivo un libro con l’AI e faccio commuovere una persona, quell’emozione è meno reale? Forse il bollino può dimostrare che dietro al testo che compriamo c’è un’anima, e questa caratteristica che dovrebbe testimoniare una potenziale “connessione” con chi ha prodotto l’opera, ma quanti libri del passato abbiamo letto trovandoli vuoti e inutili? L’assunzione che la persona reale sia per definizione migliore dell’AI è ipocrita, almeno quanto pensare che “naturale” sia sinonimo di “fa bene”, o che la rappresentazione pittorica di un soggetto sia sempre più di valore di una sua fotografia. Credo dipenda da chi usa il pennello o la macchina fotografica.
Questo approccio ricorda il bias della provenienza, per cui un prodotto Made in Germany è affidabile e uno Made in Italy è bello, o la fallacia genetica per cui si accetta o rifiuta un'affermazione basandosi esclusivamente sulla sua origine o storia, ignorandone il merito intrinseco.

Gemini per “libro con bollini di filiera e certificato no AI”
7. Where is my mind, Mythos?
Anthropic ha annunciato un modello AI (chiamato Mythos) in grado di scoprire falle di cybersicurezza mai scovate in decenni di tentativi. Il sistema è così potente da chiamare a raccolta aziende come Amazon, Apple, Google, Microsoft, NVIDIA, JPMorgan Chase, CrowdStrike e altre per il Progetto Glasswing, in cui potranno testare segretamente il loro Mythos, mettendo al sicuro il mondo intero da cyberattacchi.
Mi pare evidente si tratti di una super-arma che se cadesse in cattive mani, farebbe danni enormi all’umanità. Sembra la trama di un film apocalittico, in cui quello che doveva rimanere chiuso in un laboratorio sfugge dalle mani di chi fa ricerca e solo gli USA possono salvarci dalla distruzione mondiale. Il progetto Glasswing ha il compito di dare un vantaggio a chi ha sviluppato software, consentendo di scoprire problemi prima che questo potere di analisi arrivi a persone ostili. Questa volta non mi sento molto tranquillo, e sento già i Pixies di sottofondo ai palazzi che crollano.

8. Qualcosa da vedere
Se vi è piaciuto Black Mirror e avete 40 secondi liberi, vi consiglio di guardare cosa succederà quando i robot avranno rimpiazzato le persone nell’80% dei lavori. Ce lo raccontano nel 2036 Elon Musk, Jeff Bezos e Sam Altman, mostrando come avere la pancia possa tornare a essere una prova di potere, come lo fu negli anni ‘50. Ecco il video!

9. Un nostro progetto: LeadOps
Nel mondo della consulenza e dello sviluppo software il passaggio dai requisiti del cliente alla messa a terra operativa è spesso lento, frammentato e soggetto a colli di bottiglia. I team leader o project manager passano ore a scrivere analisi tecniche e smistare task sulle piattaforme di gestione progetti, cercando di bilanciare carichi di lavoro e scadenze.
In AGIC abbiamo deciso di risolvere questo problema alla radice con l’agente AGIC LeadOps, una soluzione basata su AI, che riceve le e-mail con i requisiti di un cliente e in automatico analizza il testo, elabora l'analisi funzionale e tecnica, genera istantaneamente le User Story direttamente nel sistema Azure DevOps. Inoltre, AGIC LeadOps agisce come un copilota strategico per chi guida il team, suggerendo le assegnazioni ideali incrociando le competenze necessarie con le disponibilità reali.

L’agente AI AGIC LeadOps
10. Copilot news: critiche e consigli
Con l’evoluzione di Researcher dentro Copilot, l’idea non è più quella di un singolo sistema che risponde, ma di una pluralità di modelli che collaborano, si correggono e si mettono in discussione a vicenda. Microsoft ha infatti reso disponibile la modalità “Critique” con cui Copilot utilizza un modello per dare una risposta, e un secondo modello per verificarla. Questo approccio ha l’evidente vantaggio di introdurre il confronto come principio alla base della correttezza delle proprie risposte. La seconda modalità introdotta è chiamata “Council”: come suggerisce il termine, qui Copilot usa in parallelo un modello di Anthropic e uno di OpenAI per poi metterne insieme le risposte sottolineando dove c’è stato accordo e dove no, in un rapporto sintetico ma molto affidabile.
Stiamo delegando all’AI una parte del pensiero, dandogli autonomia e al tempo stesso accettando un processo opaco, di cui conosciamo solo parzialmente (o per nulla!) il meccanismo. Di fatto, questo rende il risultato difficile da governare; pertanto, è estremamente utile questo sistema di Copilot che “ascolta” più modelli per verificare la bontà di quanto generato.

Chi sono
Ciao, sono Francesco Costantino, professore universitario e Director of Innovation in AGIC. Appassionato di novità tecnologiche e convinto sostenitore di un futuro migliore del passato, mi piace raccontare e sperimentare i nuovi strumenti di AI disponibili, così come osservare e ragionare sull’evoluzione digitale.
