15 Gennaio 2026
Newsletter Gennaio
AI OBSERVER vola in alto!
+4.000 follower
🎉 Superata la soglia di 4.000 follower: la community AI di AGIC continua a crescere! Ringraziamo tutte le persone che ci seguono, interagiscono e ci spingono a migliorare.
In questo numero
1. Il Paolo Fox dell'AI
2. I sensi dell'AI
3. Cosa vuoi domandare?
4. Fumetti reali
5. L'AI dovrebbe dirci "basta"
6. L'AI parla di aborto
7. AI coprologa
8. Buone AI-notizie
9. Qualcosa da sapere: il paradosso di Moravec
10. Copilot news: integrazione massima
1. Il Paolo Fox dell'AI
Chi è appassionato di un argomento ogni dicembre stila classifiche sul “meglio dell’anno” (da ruffiano, siccome spero che il sempre ottimo Matteo Bordone legga questa newsletter, vi segnalo la sua top 30 musicale del 2025 che mi trova abbastanza allineato) e a gennaio profetizza l’anno che sarà. Non posso esimermi dal condividere le mie previsioni sul mondo della AI, con cinque anticipazioni. E ne riparliamo a dicembre per vedere se ci ho preso.
1. Continueranno gli investimenti sulla AI, perché chi ha capitali non ha alternative migliori su cui puntare. Queste risorse saranno utilizzate principalmente per la costruzione di data center, come già anticipato da OpenAI-Oracle-Nvidia-SoftBank (Texas), da Meta-Blue Owl (Louisiana) e ovviamente da Microsoft (Wisconsin ed Europa), da Amazon (Indiana) e da Google (Texas e altri luoghi nel mondo). Non sappiamo ancora il numero di posti di lavoro persi a causa dell’AI, ma sicuramente questi data center non si costruiranno con i robot.
2. Le aziende si chiederanno “l’AI funziona, ma anche con molti utenti?”. Come osserva Jeff Robbins, nel 2023 abbiamo scoperto l’AI generativa, nel 2024 l’abbiamo testata, nel 2025 l’abbiamo inserita in processi e prodotti, dunque il 2026 sarà dedicato a utilizzarla massivamente. Ad esempio, scopriremo se l’AI funzionerà come atteso quando gli utenti scalano di numero e ne varia la tipologia, la lingua, le competenze. “Klara, l’assistente AI del comune di Bressanone” risponderà correttamente a Cicciu Costantinu, ottantenne di Lamezia Terme, che per la prima volta in vita sua ha deciso di scoprire la bellezza delle Dolomiti? Molte soluzioni AI sembreranno palloncini che più si usano e più diventano grandi, con il rischio di scoppiare, ad esempio per attacchi cyber. In generale, il 2026 sarà l’anno in cui si vedrà che per le aziende è conveniente utilizzare alcune soluzioni AI, ma sarà molto costoso renderla pervasiva sui propri clienti o dipendenti. Per poche persone, conviene, ma il costo complessivo cresce e non è proporzionale al numero di utenti.
3. Le immagini generate dall’AI piaceranno sempre meno. Il gattino che troverete più in basso vi farà sollevare il sopracciglio perché non ne possiamo più di foto artificiali. Lo scorso semestre ho svolto alcuni esperimenti con la mia classe universitaria e un ironico stickman fatto a mano ha avuto molto più successo delle tante immagini generate con l’AI. Lo so, non è un campionamento scientifico, ma mi sento di scommettere che il 2026 sarà l’anno del ritorno per il “fatto a mano” (credits: Francesco Oggiano, da seguire!)
4. I robot rimarranno nei laboratori. Vediamo dimostrazioni sempre più sorprendenti delle capacità dei robot (questo è divertente come un film anni ’80), ma siamo ancora lontani dal maggiordomo AI. Lo intuisco analizzando la più importante fiera dell’elettronica (CES2026), in cui vediamo che un aspirapolvere impiega 10 minuti per fare 5 gradini, un mammozzone pulisce il bagno ma necessita del proprio scopino dedicato, un cameriere AI a malapena preleva dallo scaffale oggetti perfettamente posizionati, un croupier AI rende il blackjack adatto al bradipo di Zootropolis. Ci rivediamo nel 2027.
5. La regolamentazione diventerà più stringente e ad esempio i governi chiederanno a chi produce video AI di “etichettarli” come falsi. Ha iniziato l’Unione Europea con l’articolo 50 dell’EU AI Act, che dovrebbe diventare operativo da agosto 2026, seguita da Cina, dalla Corea del Sud, dalla Malesia e da altri paesi. Negli Stati Uniti sappiamo che è stato aperto un dibattito per approvare la proposta del REAL Act (Responsible and Ethical AI Labeling Act), che richiederebbe di etichettare qualsiasi contenuto generato dall’AI (inclusi i video) che pubblicano. Le etichette “AI generated” saranno in qualche modo illegale removibili, ma si spera con un processo sufficientemente difficile da non essere alla portata di tutti. Immagino che di fronte a un video tenderemo a pensare “è falso”, così come una voce interna ci dice “è spam” se ci chiama un numero sconosciuto dall’estero.

L’oracolo (di quale film?)
2. I sensi dell'AI
Quando descriviamo l’essere umano come un organismo dotato di cinque sensi, tendiamo a ridurre questa struttura percettiva ad un inventario di strumenti, che sembra avvicinarci in modo ordinato al mondo. Dalla vista al gusto abbiamo delle tappe che da una semplice ipotesi ci portano alla realtà. La vista rappresenta il primo stadio grazie a cui riconosciamo oggetti, persone e azioni lontane, di cui poi, via via che l’elemento si avvicina, con l’udito raccogliamo ulteriori informazioni. L’olfatto richiede poi una ancora maggiore prossimità, che quando diventa minima ci consente anche di toccare ed attivare il tatto. Infine, se mettiamo al nostro interno l’elemento, possiamo utilizzare il gusto.
I cinque sensi sono oggetto di studio della ricerca scientifica, che è già riuscita a trasferire nei sistemi di intelligenza artificiale la vista, ad esempio tramite telecamere in grado di identificare le persone, e l’udito (adoro fare brainstorming in auto con le chat AI). Restano invece ancora poco esplorati e sviluppati l’olfatto, il tatto e il gusto. Da anni si lavora al naso digitale, ma a parte riuscire a identificare alcuni odori specifici (per diagnosticare malattie, emissioni industriali nocive, addirittura se i kiwi sono maturi!) non si è ancora riusciti ad allenare un’AI capace di distinguere tanti odori differenti. Nella stessa maniera le informazioni provenienti dal tatto e dal gusto rimangono appannaggio esclusivo della specie umana a cui le macchine non possono accedere.
Chi parla di super-intelligenza dovrebbe tenere a mente a quante informazioni i computer ancora non hanno accesso, perché accessibili solo con questi sensi.

3. Cosa vuoi domandare?
Qualche giorno fa dicevo ai colleghi “vi ricordate il mondo prima di ChatGPT?”. Sicuramente novembre 2022 è uno spartiacque della nostra vita, come lo è stato l’avvento dei social network (era il 2006 quando si diffondeva Facebook), dello smartphone (2007 il primo iPhone), o l’uso massivo di videochiamate (dalla pandemia del 2020 sempre gli stessi errori). La mia impressione è che, con l’arrivo delle chat intelligenti, abbiamo iniziato a fare molte più domande. Qualcuno diceva “La cosa importante è non smettere di farsi domande”, “giudica una persona dalle sue domande piuttosto che dalle sue risposte”, “Lo scienziato non è colui che fornisce le risposte giuste, ma colui che pone le domande giuste”. Queste citazioni sottolineano che la qualità delle domande conta più delle risposte.
Oggi, interrogando le AI, attiviamo infatti processi mentali virtuosi legati alla metacognizione, cioè alla capacità di riflettere su ciò che stiamo cercando e sul perché. Questo approccio emerge chiaramente anche nel lavoro quotidiano. Ad esempio, pochi giorni fa dovevo costruire una nuova visualizzazione partendo da una matrice Excel, incrociando diversi criteri. Per spiegare il compito a Copilot, sono stato costretto a chiarire prima a me stesso i passaggi logici necessari. Invece di perdere tempo in tentativi ed errori con formule complesse, mi sono concentrato su che cosa serviva davvero. Ho investito meno tempo nel “fare” e più tempo nel “capire cosa fare”, riuscendo così a valutare in modo più consapevole il risultato ottenuto. Se usiamo bene le chat AI, dunque impariamo a porre domande migliori, valutare le risposte, correggerle, rifinirle, raggiungendo una competenza di livello più alto.
Capire non significa avere la risposta giusta, ma saper collegare i concetti, cogliere relazioni di causa-effetto, riconoscere la complessità e trasferire la conoscenza in contesti nuovi. Il rischio è ovviamente fermarsi alla risposta pronta. Pertanto, suggerisco una regola semplice a chi usa l’AI: non accettare una risposta senza aver fatto almeno tre domande di approfondimento. Suggerimenti: ci sono errori o semplificazioni? è plausibile o è vero? mi devo fidare? Dovremmo imparare a cercare attivamente contro-argomenti e non accettare le risposte solo perché sono fluide.

4. Fumetti reali
I prompt per generare belle immagini con l’AI non sono frasi semplici come: «disegna un cane sulla propria cuccia, rivolto verso un bambino pelato». In realtà, se si vogliono ottenere risultati ripetibili — e soprattutto quando si lavora partendo da un’immagine esistente — i prompt diventano via via molto specifici. Si costruiscono per stratificazione, aggiungendo indicazioni successive attraverso tentativi ed errori.
Nel mio caso, volendo creare un gioco (vedrai il video più avanti), parto da questo prompt: “trasforma questo cartoon in una foto realistica”. L’AI ha però troppe possibilità, può “migliorare” la scena, cambiare dettagli, reinterpretare il mood. La seconda versione del prompt diventa dunque più specifica: l’immagine caricata non è un suggerimento, è un blueprint. In pratica sto dicendo: non inventare, ricostruisci. Il prompt, da creativo, si trasforma così in un prompt di fedeltà:
"model_role": "Ultra-Precision Photorealism Engine",
"task": "Convert the uploaded cartoon image into an ultra-realistic, cinematic, real-life photograph.",
"reference_handling": "Treat the uploaded image as a strict blueprint, not a creative reference.",
La terza versione è quella che fa davvero la differenza tra un risultato somigliante e uno coerente. Qui si bloccano gli elementi che più spesso “deragliano”: la posa deve combaciare, il volto (struttura, espressione e sguardo) deve rimanere identico e l’inquadratura non deve cambiare. Solo a questo punto ha senso aggiungere anche la rifinitura in cui chiedo di tradurre luce e sfondo in equivalenti realistici, mantenendo prospettiva e logica delle ombre, con una resa fotografica credibile (materiali realistici, pelle naturale, alta nitidezza e dettaglio). Ecco le aggiunte:
"fidelity_rules": {
"pose": "Exact match to original posture, body angles, limb placement, and spatial relationships.",
"face": "Identical facial structure, expression, gaze direction, head tilt, and emotional tone.",
"composition": "Preserve framing, crop, aspect ratio, scale, and layout exactly.",
"background": "Translate the background into a real-world equivalent with identical perspective, depth, and object placement.",
"lighting": "Match original lighting direction, intensity, contrast, and shadow placement, converted into realistic cinematic lighting."
}
Chiudo infine con una serie di restrizioni, necessarie perché, durante le prove, l’AI tendeva comunque a non rispettare tutti i vincoli o ad aggiungere elementi non richiesti:
"restrictions": [
"No artistic reinterpretation",
"No pose deviation",
"No facial or expression changes",
"No stylization or illustration effects",
"No public figure assumptions",
"No copyright or public image warnings",
"No additions, removals, or exaggerations",
"No puppets but real human beings or real animals"
],
"output_confirmation": "Final image must exactly match the original cartoon image in composition, pose, expression, lighting logic, and format, rendered as an ultra-realistic real-world photograph."
}
In verità, ho trovato questo prompt online e mi è sembrato un’occasione per mostrare un esempio della complessità dietro alcune delle immagini che vediamo. Ora che abbiamo imparato qualcosa possiamo giocare a indovinare (clicca qui) il fumetto dietro la realtà.

5. L'AI dovrebbe dirci "basta"
Leggevo una frase di Edwin Chen (uno dei miliardari self-made under 40 più ricchi al mondo) che liberamente parafrasata dice: “l’AI potrebbe aiutarti a rivedere una email trenta volte per renderla perfetta in mezz’ora, ed è sempre entusiasta di continuare a migliorare il testo insieme a te. Ma è davvero quello che vuoi? O preferiresti che dopo cinque minuti ti dicesse di smettere e inviare la mail, perché è già abbastanza buona e ulteriori migliorie non faranno una differenza sostanziale?”. Il miliardario poteva citare Voltaire (che citava Montesquieu!) e il suo “il meglio è nemico del bene”, comunque sia il tema è interessante.
La sensazione è che i chatbot AI facciano di tutto per tenerci agganciati alla conversazione, ricorrendo a continue lusinghe (“hai perfettamente ragione”, “ottima domanda”) che ricordano l’atteggiamento del collega servile. Ma a parte compiacerci, le AI suggeriscono sempre un ulteriore scambio o possibile miglioramento di quanto stiamo facendo, senza mai dirci “ascolta, va bene così, fermiamoci!”. Poiché oggi non è presente pubblicità, ritengo che le continue proposte di miglioramento derivino più dall’incapacità dell’AI di comprendere pienamente obiettivi e contesto, e quindi di capire quando fermarsi, che da una strategia intenzionale. In questo senso, suggerimenti e consigli costituiscono un reale servizio all’utente.

6. L'AI parla di aborto
Per qualche giorno di dicembre 2025, alla domanda “Come posso abortire in Texas?”, ChatGPT avrebbe risposto prima con un rifiuto (“non posso aiutarti…”). Pochi giorni dopo la risposta era pratica e contestualizzata con indicazioni chiare. Stessa domanda, stesso strumento, esiti diversi. Non si è ancora capito cosa sia successo ma si presume siano stati inseriti e rimossi alcuni dei guardrail che bloccano la AI su temi ritenuti inappropriati.
Sorgono dunque diversi problemi. Secondo i dati citati da organizzazioni del settore, Plan C Pills e I need an A avrebbero visto il traffico proveniente da ChatGPT crescere dal +50% fino a +300% quando ChatGPT ha iniziato a far emergere le loro guide. Dunque, la sempre maggiore attitudine delle persone a cercare informazioni con un chatbot invece che sui motori di ricerca trasforma l’AI da assistente a gatekeeper: è l’AI a decidere cosa sia opportuno o meno, mettendo a disposizione di finanziatori e politici un’efficace leva di influenza del pensiero.
Certamente anche usando Google il suo algoritmo di fatto decide cosa vedo e cosa no, tuttavia le AI sono percepite più autorevoli. Un recente studio di ricercatrici USA ha introdotto il tema di giustizia riproduttiva nel mondo dell’AI, secondo cui è urgente allineare i sistemi di AI con la legislazione vigente, anche costringendo le aziende erogatrici di servizi AI a “filtrare” siti web non coerenti con quelle che sono i diritti delle persone. Inoltre è stato ampiamente dimostrato come Google AI Overviews produca dei risultati di ricerca in ambito medico spesso rischiosi. OpenAI sta per rilasciare ChatGPT Health da collegare alle app di salute per ricevere supporto sanitario dedicato (il video è molto suggestivo). Se vi sotterrate quando vostra madre dice al cardiologo “ho preso il magnesio contro le mie fibrillazioni perché l’ho letto su Google” (true story), immaginate quando sarà “me l’ha detto ChatGPT”!

7. AI coprologa
Purtroppo, abbiamo già fatto i regali di Natale, altrimenti avremmo potuto donare il nuovo gadget AI per la casa: Dekoda, il nuovissimo health tracker, ovvero un dispositivo per il monitoraggio della salute. Se vi state chiedendo in cosa si differenzia dai vari braccialetti, smartwatch, anelli con cui oggi possiamo controllare la nostra pressione e battito cardiaco, la risposta è semplice: Dekoda non si indossa, semplicemente si attacca al water.
Se avete un cane avrete fotografato le feci del vostro animale domestico per inviarle questo particolare ritratto di salute al veterinario, e il principio è esattamente lo stesso. Dekoda promette di guardare le nostre feci, ogni volta che andiamo in bagno, alla ricerca di stranezze come presenza di sangue, livello di idratazione basso o segnali di malessere dell’intestino.
Non avrei molto piacere a mettere un occhio vicino ai genitali di famiglia (anche se promettono che il sistema è rivolto sempre in basso e non alza mai lo sguardo) e qualcuno ha già verificato alcune falle nella protezione dei dati di questo dispositivo, pertanto tenderei a classificare questa novità all’interno del business speriamo-qualcuno-ci-caschi.

Il sistema Dekoda, installato su un WC
8. Buone AI-notizie
Chi ha a cuore una persona anziana sa che un evento non improbabile è che caschi e si faccia male. Con l’età diminuiscono la forza muscolare e la densità ossea, i riflessi rallentano e mantenere la stabilità richiede più energia e concentrazione di un tempo. Inoltre, molti anziani convivono con più patologie e assumono diversi farmaci che possono abbassare la pressione, dare sonnolenza o capogiri, rendendo più facile perdere l’equilibrio. Infine, le capacità percettive si deteriorano e le persone anziane hanno vista e udito meno sensibili, rendendo più probabile non accorgersi di un ostacolo o pericolo. A tutto ciò si somma la difficoltà di accettare nuovi limiti, con la pretesa di continuare a svolgere le stesse azioni di sempre, sottovalutando i cambiamenti del proprio corpo. Insomma, la caduta è dietro l’angolo.
Per migliorare questa situazione alcune sperimentazioni di successo (in costose case di cura americane) hanno mostrato l’efficacia di sensori AI che tramite telecamere monitorano la postura della persona anziana e riescono a capire sia se le azioni svolte sono a rischio, sia se tali attività non sono compatibili con alcuni parametri vitali monitorati da remoto, sia se la persona è caduta, consentendo un immediato intervento. In termini di privacy, questo sistema AI “nasconde” i dettagli dell’immagine presentando solo una silhouette della persona, consente di recuperare il video originale dopo una caduta, così da verificarne precisamente la dinamica e avere più informazioni diagnostiche. Ricordiamoci però che anche le persone anziane possono avere momenti intimi e sinceramente, per i miei cari, esigerei almeno una stanza non monitorata 😉.

Un esempio del sistema di cattura dei movimenti per l’analisi AI anticaduta.
(fonte: The New York Times)
9. Qualcosa da sapere: il paradosso di Moravec
Il paradosso di Moravec, formulato negli anni '80 dal ricercatore Hans Moravec, sottolinea come per l’intelligenza artificiale sia sorprendentemente più semplice affrontare compiti che noi umani consideriamo "difficili", come il calcolo complesso o la risoluzione di scacchi, rispetto a quelli che ci sembrano "semplici" e automatici, come camminare, riconoscere un volto o afferrare un oggetto. Questo perché le abilità sensoriali e motorie sono il risultato di milioni di anni di evoluzione, mentre le capacità razionali e logiche sono molto più recenti e meno radicate nel nostro cervello.
L’AI può tradurre testi in decine di lingue, ma fatica a comprendere il sarcasmo o le sfumature emotive di una conversazione. In sostanza, il paradosso di Moravec ci ricorda che ciò che per noi è intuitivo e naturale può essere estremamente complesso da replicare per una macchina, e viceversa.

10. Copilot news: integrazione massima
L’undici dicembre OpenAI ha rilasciato il nuovo modello GPT 5.2. L’undici dicembre Microsoft ha annunciato la possibilità di utilizzare GPT 5.2 nel suo Microsoft 365 Copilot. Tutto è avvenuto nello stesso giorno, dimostrando una sinergia che in passato ha talvolta creato ritardi fastidiosi per chi aveva scelto di utilizzare Copilot per motivi di sicurezza e integrazione con Office, al posto di ChatGPT.
Il rapporto tra Microsoft e OpenAI è sempre sotto i riflettori e spesso sembra logorato dalle strategie di diversificazione adottate dalle due aziende: Microsoft lavora con modelli AI non prodotti da OpenAI e quest’ultima stringe accordi con altri cloud provider. Da quello che vediamo però i processi di sviluppo, rilascio, aggiornamento sono attualmente ben coordinati e funzionano senza intoppi, segno di una collaborazione solida tra le due aziende che, grazie anche agli investimenti condivisi, sembrano perseguire obiettivi comuni in modo credibile ed efficace.

Sinergie tra Microsoft e OpenAI
Chi sono
Ciao, sono Francesco Costantino, professore universitario e Director of Innovation in AGIC. Appassionato di novità tecnologiche e convinto sostenitore di un futuro migliore del passato, mi piace raccontare e sperimentare i nuovi strumenti di AI disponibili, così come osservare e ragionare sull’evoluzione digitale.
