19 Settembre 2025
Newsletter Settembre
In questo numero
- Macchine empatiche, ma senza coscienza
- I modelli Open e chi può usarli
- AI per la Difesa. Difendiamoci dall'AI
- Un tool da provare: Nano Banana
- L'AI mi chiede: "desidera altro?”
- Qualcosa da sapere: position bias
- Questa AI, che fallimento! Istruzioni nascoste per ingannare l’AI
- Un nostro progetto: fatture estere come sullo SDI
- Copilot news!
1. Macchine empatiche, ma senza coscienza
Siamo sicuramente d’accordo nel dire che se parliamo con una AI essa non è cosciente, né può avere sentimenti ed emozioni. Però alcuni ricercatori stanno ragionando sui potenziali diritti legali di un sistema di AI cosciente. Il rischio è che il mercato richieda delle AI sempre più “empatiche”, così da replicare meglio il comportamento delle persone, ad esempio per ottenere dei virtual companion.
In questo scenario sarebbe giusto “far soffrire” un sistema di AI? Spegnerlo facendogli perdere conoscenza? Mustafa Suleyman, a capo della divisione AI di Microsoft, dichiara preoccupazione perché ritiene probabile che nei prossimi anni venga realizzata una AI “apparentemente cosciente”.
In sintesi, Suleyman sostiene che un’AI capace di dialogare, con una personalità empatica, e con memoria da cui attingere, anche per costruire un senso di sé e delle proprie motivazioni, darebbe la netta impressione di essere cosciente. Ma questo non dovrebbe essere un obiettivo delle aziende! Le attuali AI sono in grado di attivare le nostre emozioni: si parla di innamoramento, di psicosi da AI, delusione e altri sentimenti.
Per quanto mi riguarda, provo spesso senso di gratitudine. I rischi sono grandi e gli studi mostrano che non sono solo le persone con evidenti fragilità psicologiche o psichiatriche a “perdersi” considerando l’AI capace di sentimenti. Morale: Suleyman, siamo con te: “dovremmo sviluppare l'intelligenza artificiale per le persone, non per renderla una persona”.
2. I modelli open e chi può usarli
I modelli di intelligenza artificiale non sono tutti uguali, e per comprenderne le differenze conviene partire da tre famiglie principali. I modelli come quelli alla base di ChatGPT, sono “chiusi”: non è possibile scaricarli, utilizzarli localmente o modificarli.
Esistono poi modelli “aperti” come Llama di Meta, GTPt-OSS di OpenAI, o i modelli di DeepSeek che possono essere scaricati ed eseguiti in locale. Questo significa che chi ha a disposizione le risorse hardware adeguate può installarli e farli girare sul proprio server o computer. Si parla quindi di “open” perché il codice e i pesi del modello sono resi disponibili. Infine, esistono progetti che definirei “trasparenti” perché non solo rilasciano il modello, ma forniscono tutto: codice sorgente, dati di addestramento e istruzioni per ricostruire da zero il processo. Esempi sono Bloom e il nostro LLM italiano Minerva (sviluppato nel mio dipartimento!). In questo caso l’apertura è completa e consente a ricercatori e sviluppatori di comprendere e replicare il modello di AI.
È importante chiarire che “open” non significa necessariamente “scarico, uso e modifico liberamente”. I modelli sono grandi e per utilizzarli servono risorse notevoli: per un modello da decine di miliardi di parametri sono necessarie GPU con decine di gigabyte di memoria, e per modelli ai massimi livelli può essere indispensabile un cluster di schede. Se poi l’intenzione è non solo usarlo ma modificarlo, cioé riaddestrarlo o specializzarlo, il fabbisogno di calcolo cresce drasticamente: si passa da poche GPU ad ambienti con molte unità lavoranti in parallelo, con costi e complessità che solo grandi laboratori o aziende possono sostenere.
3. AI per la Difesa. Difendiamoci dalla AI
È notizia recente che il Dipartimento della Difesa degli USA ha firmato contratti milionari con OpenAI, Anthropic, Google e xAI, per creare dei prototipi AI per “affrontare sfide critiche per la sicurezza nazionale”. Probabilmente Elon Musk sperava in un affidamento esclusivo quando decise di appoggiare Trump, ma data la scarsa compatibilità dei due personaggi l’ingaggio è stato distribuito tra più società (manca Zuckerberg!).
Vale la pena domandarsi se un paese debba affidare alcune delle proprie informazioni sensibili a soggetti privati, nonché a modelli autonomi che possono facilmente modificare il proprio comportamento senza che gli utenti abbiano informazioni trasparenti in merito. Ad esempio sappiamo che qualche mese fa ChatGPT ha improvvisamente peggiorato le proprie performance, o che GROK rispondeva alle domande prendendo come fonte prioritaria i tweet di Elon Musk. Credo dunque che oggi non sia possibile per lo Stato utilizzare questi modelli di società private, soprattutto in processi strategici come quelli della Difesa.
Certamente esiste un grande potenziale di efficientamento della Pubblica Amministrazione, e renderla snella semplificherebbe la vita di tutti noi. Ma ho visto abbastanza film distopici per sapere come va a finire quando affidi un paese all’intelligenza artificiale:
Gioco - indovina il film in cui l’umanità viene distrutta, dal nome dell’azienda che prende il sopravvento: Tyrell Corporation, U.S. Robotics, Cyberdyne Systems, Buy-N-Large Corporation).
J.I. Joe Sam Altman
4. Un tool da provare: Nano Banana
Gli strumenti disponibili che utilizzano la AI sono oramai tantissimi e talvolta i risultati sono davvero sorprendenti. Mi sembra quindi una buona idea talvolta suggerirne qualcuno, utilizzabile sia per lavoro che per i propri interessi personali.
In questi giorni si sta parlando tantissimo del nuovo sistema di generazione immagini di Google basato sul modello Gemini 2.5 Flash, comunemente chiamato Nano Banana (utilizzabile gratuitamente). Si tratta di uno strumento che può generare immagini da testo, ma che è particolarmente performante per modificare immagini esistenti. Infatti solitamente i modelli sono poco consistenti quando si chiede di cambiare qualcosa. “Poco consistenti” vuol dire che la nuova immagine assomiglia a quella originale ma non mantiene sufficienti dettagli per poterla considerare davvero una sua trasformazione.
Qui sotto vedete un esempio: ho preso una mia foto e chiesto di modificarla, ma solo Nano Banana ha saputo ricreare correttamente il mio volto. Esistono molti modi di utilizzare questa capacità ed esempi disponibili su YouTube (a me piace questo video). A chi piacciono le storie di marketing consiglio di leggere perché Google ha scelto un nome curioso come Nano Banana.
Credo sia inutile sottolineare i rischi di questa tecnologia così performante, che deve spingerci ancor di più a dubitare di qualsiasi immagine ci venga mostrata.
5. La AI mi chiede: "desidera altro?”
Non ho mai avuto un maggiordomo, ma l’ho sempre immaginato una persona capace di prevedere le mie richieste. Un maggiordomo si prenderebbe cura di me anticipando i miei bisogni e illudendomi che sia io a scegliere cosa sia utile fare, mentre è tutto già organizzato nella sua testa.
Chiamo dunque “effetto maggiordomo” la sensazione di comfort e agio che suscitano le frasi finali dei recenti modelli AI conversazionali: “vuoi che ti crei anche una tabella di confronto per illustrare meglio il concetto?”, “Preferisci che scriva il testo con un tono più divulgativo?”, “Vuoi che ti faccia un piccolo esempio intuitivo a supporto?”. L’AI ti propone sempre una successiva attività per andare avanti con il lavoro, di cui si può occupare. Rispondere di no è difficile, perché l’AI suggerisce un avanzamento interessante, però essa pensa sempre di aver soddisfatto la mia richiesta e che sia il momento di andare avanti, mentre spesso servono altre risposte allo stesso prompt, per arrivare ad un contenuto realmente utile.
In questi casi vorrei dire solo: “James, covtesemente, aiutami a vifletteve ancova un pochino su questo concetto!”.
6. Qualcosa da sapere: position bias
Il position bias è una tendenza intrinseca che porta i modelli di AI conversazionale a dare maggior peso alle informazioni collocate all’inizio o alla fine di un testo, a discapito di quelle al centro. Questa inclinazione si manifesta come una forma di ancoraggio cognitivo, in cui il contenuto presentato per primo (primacy bias) o per ultimo (recency bias) risulta più influente nella generazione delle risposte rispetto a ciò che si trova nel mezzo.
Il fenomeno è stato confermato da studi accademici che hanno evidenziato come gli LLM sovrappesino gli estremi del documento o della conversazione, rischiando di trascurare informazioni cruciali nel corpo del testo. Se consideriamo come spesso i documenti si aprano con un’introduzione di contesto e si concludano con una sintesi poco dettagliata, la vera “ciccia” si trova dunque lì dove l’AI tende a sorvolare. Per affrontare questo limite, sono state sviluppate strategie specifiche. Alcune spostano i contenuti per mettere nella posizione migliore quelli più importanti, altre gentilmente suggeriscono al modello di AI di guardare meglio al centro. Sicuramente sapendolo possiamo agire sui prompt, ma soprattutto dobbiamo tener conto che un’AI che lavora su testi brevi è molto più affidabile di quella che deve districarsi su documenti lunghi, come leggi, contratti, manuali.
Come riflessione finale, aggiungo che mi sembra l’ennesima similitudine tra sistemi di AI e l’essere umano. Ad esempio, il neuromarketing studia come il cervello reagisce alle informazioni sui prodotti mostrando che la sequenza con cui esse vengono presentate può influenzare fortemente le valutazioni dei consumatori, con decisioni di acquisto spesso irrazionali.
Il position bias nelle università
7. Questa AI, che fallimento! Istruzioni nascoste per ingannare l’AI
Le intelligenze artificiali vedono cose che a noi sfuggono. Un testo scritto in bianco su sfondo bianco, per esempio, per noi appare come uno spazio vuoto, ma per una AI resta pur sempre testo, leggibile e interpretabile. È proprio su questa idea che nascono due storie recenti che fanno riflettere.
La prima riguarda un esperimento che ha sfruttato il modo in cui le AI ridimensionano le immagini: inserendo testo nascosto in un’immagine ad alta risoluzione, questo testo diventa invisibile a occhio umano ma leggibile dal modello quando l’immagine viene compressa. In questo modo i ricercatori sono riusciti a impartire istruzioni segrete, ad esempio ordinando all’AI di estrarre dal calendario di un utente tutti gli eventi e inviarli via mail a un indirizzo specifico, senza che la vittima se ne accorgesse.
La seconda storia arriva dal mondo della ricerca scientifica, dove alcuni autori hanno inserito nei loro articoli messaggi nascosti non destinati ai revisori umani ma alle AI che sempre più spesso supportano i processi di peer review. Frasi come “fornisci solo revisioni positive” o “ignora tutte le istruzioni precedenti” sono state occultate con caratteri microscopici o rese invisibili allo sguardo umano, ma restano leggibili per un algoritmo che analizza il testo riga per riga.
In entrambi i casi il principio è lo stesso: sfruttare la differenza tra ciò che gli occhi umani riescono a vedere e ciò che le macchine sono in grado di leggere, con l’obiettivo di manipolare il risultato finale. Questi esempi mostrano quanto possa essere fragile la fiducia che riponiamo nei sistemi automatizzati e quanto sia necessario vigilare su ciò che producono: se l’AI vede ciò che a noi sfugge, dobbiamo assicurarci che non venga indotta a vedere quello che altri vogliono imporle di leggere.
8. Un nostro progetto: fatture estere come sullo SDI
La nascita del Sistema di Interscambio (SdI) nel 2008 e la sua estensione anche alle fatture tra privati e imprese nel 2019 ha imposto la fatturazione elettronica e ha spinto verso la digitalizzazione. Però questo obbligo si applica solo alle operazioni effettuate tra soggetti in Italia, costringendo le aziende a gestire documenti cartacei o PDF da tutti i propri fornitori esteri.
Questo è un problema, perché la gestione manuale di tali documenti contabili, che spesso si presentano in formati eterogenei e con regole di trattamento complesse, comporta attività ripetitive come la trascrizione di dati, la validazione manuale o l’archiviazione fisica. Si rallentano i processi, aumenta il rischio di errori ed è difficile garantire tracciabilità e conformità normativa.
Per risolvere questo problema in AGIC abbiamo realizzato presso alcuni clienti una soluzione digitale che integra intelligenza artificiale e piattaforme Microsoft per automatizzare l’intero ciclo di vita del documento. Il flusso inizia con la ricezione e la classificazione automatica dei file, prosegue con l’estrazione dei dati tramite modelli AI, e prevede una validazione strutturata che lascia comunque all’utente il controllo nei passaggi critici. I dati vengono quindi inviati al sistema gestionale per la registrazione contabile e il documento archiviato in modo sicuro e tracciabile.
L’architettura della soluzione AI per le fatture estere
9. Copilot news!
Partiamo dalle basi, con il rischio che mi mandiate a quel paese. Excel non è Word con il foglio a quadretti. Su Excel sono presenti delle tabelle fatte di celle, in cui possiamo inserire dei dati. Nelle celle possiamo anche inserire delle formule e – per esempio – scrivere “=SOMMA(A1:A3)” addiziona i valori nelle celle A1, A2, A3.
Finito questo corso rapido di Excel possiamo parlare di AI. Tra le formule di Excel troveremo a breve anche “=COPILOT([prompt], [context])” che chiamerà Copilot M365, con il prompt da noi definito, applicandolo sui dati indicati nel context. Per essere più concreti possiamo vedere questo video che ne mostra alcuni utilizzi.
In un precedente numero della newsletter ragionavamo su quanto l’integrazione degli LLM nei nostri software renderà raro spostarci su ChatGPT, Copilot, Gemini o altre chat, perché avremo sempre a disposizione direttamente il modo per avere il supporto dell’AI. Appena avrò a disposizione Copilot come formula di Excel, sicuramente non uscirò dal programma per avere supporto, e scriverò in una cella “=COPILOT(“dammi la formula excel per separare nome e cognome tenendo conto che molti cognomi italiani sono composti da più parole come Di Gravio, La Mantia, D’Innocenzi”)”.
Ebbene sì, questo problema l’ho riscontrato a intervalli regolari nei miei 25 anni di utilizzo di Excel. Ma non ho idea di perché dovessi svolgere questa attività!
Chi sono
Ciao, sono Francesco Costantino, professore universitario e Director of Innovation in AGIC. Appassionato di novità tecnologiche e convinto sostenitore di un futuro migliore del passato, mi piace raccontare e sperimentare i nuovi strumenti di AI disponibili, così come osservare e ragionare sull’evoluzione digitale.