Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un
difetto risolvibile. I tentativi di controllo qualità sui dati richiedono
risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali
addestrati su dati limitati
I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile –
dell’industria dell’intelligenza artificiale. Tra promesse di precisione e
realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto
pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo.
L‘insistenza criminale sui sistemi predittivi fallimentari
C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti
i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed
è la criminale, idiota insistenza a volersene dotare.
Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo
di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori
di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo
un discorso più generale.
leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
Tag - AI
L'industria nucleare sta vivendo una rinascita, spinta da un'enorme crescita
della domanda di energia, mentre le grandi aziende tecnologiche cercano fonti di
energia pulita per alimentare i loro data center.
Google ha annunciato di aver raggiunto accordo con il gruppo americano NextEra
Energy che prevede la rimessa in funzione all'inizio del 2029 della centrale
nucleare Duane Arnold, nell'Iowa, per lo sviluppo delle infrastrutture di
intelligenza artificiale (IA) del gigante californiano.
Si tratta del terzo progetto di riapertura di una centrale nucleare annunciato
di recente, dopo quelli relativi ai siti di Palisades (Michigan) nel 2023 e
Three Mile Island (Pennsylvania) nel 2024, segno della ripresa dell'industria
nucleare dopo decenni senza investimenti significativi negli Stati Uniti.
Link articolo qui
L’IA entra in finanza e moltiplica i rischi di bolle e instabilità. Algoritmi
simili, pochi attori dominanti e un mercato sempre più irrazionale
«Ehi, ChatGPT, che azioni mi compro?» Potrebbe sembrare una domanda fatta per
gioco, tanto per vedere che risposte si ottengono. Invece, secondo un articolo
che riprende una ricerca svolta in 13 Paesi su 10mila investitori, uno su dieci
si rivolge a una qualche intelligenza artificiale. Molti tra questi
prenderebbero in considerazione l’idea di lasciare direttamente nelle mani
dell’IA la scelta su quali transazioni finanziarie eseguire. Dalla ricerca,
sembra che le risposte dei chatbot siano ragionevoli e prudenti, insistendo sul
fatto che è impossibile predire l’andamento dei mercati, in ragione della
complessità e della quantità di fattori che possono influenzarli.
[...]
Riassumendo: un oligopolio di imprese tecnologiche fornisce algoritmi che
guidano gli investimenti sui mercati, mercati dominati da un oligopolio di
investitori istituzionali, che sono i loro maggiori azionisti. Cosa potrebbe mai
andare storto?
Leggi l'articolo
Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari,
diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo
BASTA!
Nella trasmissione di Radio Onda Rossa, l'Ora di Buco, si riparla di
Intelligenza artificiale a scuola: un docente di informatica spiega tutto quello
che non va nelle fumose linee guida ministeriali. Inoltre presenta l'appello
alla comunità educante per rifiutare l'introduzione dell'Intelligenza
Artificiale delle multinazionali e proporre invece delle tecnologie realmente
utili a studenti, insegnanti e personale non docente della scuola.
Qui alcune riflessioni critiche e preoccupate, con l'appello da diffondere e
firmare.
Ascolta l'audio dell'intervento
Vai alla puntata dell'Ora di Buco
Le aziende tecnologiche americane stanno installando motori jet dismessi da
Boeing e Airbus come generatori d'emergenza per alimentare i data center AI, a
causa di tempi d'attesa superiori ai cinque anni per nuovi allacciamenti alla
rete elettrica.
Il progetto Stargate di OpenAI in Texas utilizza quasi 30 turbine aeroderivative
che generano complessivamente oltre 1000 megawatt, creando di fatto una centrale
elettrica temporanea in attesa del potenziamento delle infrastrutture
tradizionali.
Questa soluzione costosa e inquinante rivela un paradosso critico: le stesse
aziende che promuovono la sostenibilità sono costrette ad adottare tecnologie a
gas per non perdere la corsa competitiva nell'intelligenza artificiale.
Va precisato che l'uso di turbine derivate dall'aviazione non rappresenta una
novità assoluta nel panorama industriale. Per decenni, queste soluzioni sono
state impiegate in ambito militare e nelle piattaforme di trivellazione
offshore, dove la necessità di energia portatile e affidabile è sempre stata
prioritaria. Tuttavia, la loro comparsa massiccia nei data center segna un
momento storico e rivela quanto sia diventata critica la carenza di energia
negli Stati Uniti. Si tratta di un segnale inequivocabile: quando giganti
tecnologici con bilanci da decine di miliardi di dollari ricorrono a soluzioni
definite "di transizione", significa che il problema è strutturale.
Amazon dal canto suo punta sul nucleare, con il progetto Cascade Advanced Energy
Facility nello stato di Washington, un campus nucleare basato su reattori
modulari SMR per alimentare i propri data center con energia carbon-free. Il
progetto utilizza la tecnologia Xe-100 e punta ad avviare la produzione
elettrica negli anni '30, rappresentando il primo impegno concreto di una Big
Tech nella costruzione di nuova capacità nucleare.
Articoli completi qui e qui
Riceviamo e volentieri pubblichiamo.
Colleghe, colleghi, madri, padri, alle nostre allieve e allievi di ogni colore,
genere, orientamento, provenienza.
Noi siamo il prodotto di 35 anni di lotte, dalla riforma Berlinguer al taglio di
un anno di istruzione tecnica e professionale, in via di realizzazione da parte
del Ministro Valditara. Alcune abbandonate, alcune perse, alcune - per fortuna -
vinte.
Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari,
diviene una minaccia esistenziale alla scuola.
Oggi, contro questa I.A., diciamo BASTA!
Leggi l'appello e firma.
Apriamo con una lunga analisi delle Linee guida per l'Introduzione
dell'Intelligenza Artificiale nella scuola. Proseguiamo con un commento sulle
dichiarazioni di Durov; le nuove regole per pubblicare applicazioni su Android.
Infine la rubrica notiziole.
Di Linee guida per l'Introduzione dell'Intelligenza Artificiale nella scuola se
ne è già parlato all'ora di buco, ma ci torniamo sopra per parlare anche degli
aspetti più prettamente tecnologici.
Per la rubrica notiziole
* Israele cede le aziende di malware agli Usa;
* l'ICE, Agenzia che si occupa della deportazione di migranti irregolari negli
Usa fa shopping di prodotti di sorveglianza;
* infine, oggi le comiche, ma al massimo per 2 ore.
Le dita nella presa salterà le prossime due puntate, torniamo Domenica 2
Novembre con una puntata speciale!
Ascolta sul sito di Radio Onda Rossa
Il Garante della privacy ha emesso un provvedimento per bloccare il trattamento
dei dati personali degli utenti italiani da parte della società titolare
dell’app Clothoff: permetteva a chiunque di creare nudi deepfake, anche a
contenuto pornografico, a partire da foto di persone reali.
La decisione del Garante
Con il provvedimento del primo ottobre 2025 il Garante "ha disposto, in via
d’urgenza e con effetto immediato, la limitazione provvisoria del trattamento
dei dati personali degli utenti italiani nei confronti di una società, con sede
nelle Isole Vergini Britanniche, che gestisce l’app Clothoff".
La limitazione provvisoria al trattamento dei dati degli utenti italiani – si
legge nel provvedimento – durerà il tempo necessario al Garante per lo
svolgimento dell'istruttoria avviata nei confronti della società titolare di
Clothoff.
Leggi l'articolo
Presentato durante il DIG Festival di Modena, racconta l'inquietante dietro le
quinte di chi sostiene interi sistemi tecnologici. Ne abbiamo parlato con il
regista, Henri Poulain
L’intelligenza artificiale occupa uno spazio sempre maggiore nel dibattito
contemporaneo. Soprattutto al cinema dove è diventato il prisma attraverso cui
si riflettono le nostre paure, le nostre speranze e le domande più radicali
sull’identità umana, sul controllo della tecnologia e sul futuro della società.
L’AI è diventata un vero campo di battaglia politico e sociale, dove si
incontrano, e si scontrano, questioni economiche, ambientali e legate ai diritti
dei lavoratori. Ancora una volta è il cinema a investigare questo rapporto
complesso, mostrando cosa si nasconde dietro dati, cloud e reti digitali, grazie
al prezioso documentario In the Belly of AI, diretto da Henri Poulain,
presentato durante il DIG Festival di Modena.
Un’opera che smonta l’illusione di un’intelligenza artificiale immateriale e
trascendente, rivelando invece quale prezzo paghiamo quotidianamente per
sostenere interi sistemi tecnologici, infrastrutture che consumano e dilapidano
energia, risorse naturali e vite umane. In the Belly of AI parte proprio da
questo per raccontare la vita lavorativa dei data worker che, secondo un
rapporto della World Bank pubblicato lo scorso anno, si stima che nel mondo
siano tra i 150 e i 430 milioni, e che il loro numero sia cresciuto in modo
esponenziale nell’ultimo decennio.
Leggi l'articolo
Seconda parte del bignamino di Quatrociocchi sugli LLM spiegati senza
supercazzole.
Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi
quantità di testo per modellare le regolarità del linguaggio, senza accesso
diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e
riproducibile: nessuna magia, nessun “spirito” emergente.
Riporto di seguito i concetti. L'originale si può leggere su Linkedin
EMBEDDING
I computer non capiscono parole, elaborano numeri. Per questo ogni parola viene
trasformata in un elenco di numeri chiamato vettore. Se due parole compaiono
spesso nello stesso contesto (“gatto” e “cane”), i loro vettori saranno vicini;
se non compaiono mai insieme (“gatto” e “trattore”), saranno lontani. È una
mappa statistica, non un dizionario di significati. Nessun concetto, solo
distanze in uno spazio di numeri.
TOKENIZZAZIONE
Il modello non legge il testo come facciamo noi. Spezza le frasi in piccoli
pezzi chiamati token. A volte una parola è un token intero, altre volte viene
spezzata: “incredibile” può diventare “in”, “credi”, “bile”. Il modello lavora
solo con questi pezzi, non con concetti o frasi intere. Non c’è un “pensiero”
sotto: solo pezzi da ricomporre.
POSITIONAL ENCODING –
Perché l’ordine delle parole non si perda, a ogni token viene aggiunta
un’informazione sulla sua posizione nella frase. È così che il modello distingue
tra “l’uomo morde il cane” e “il cane morde l’uomo”. Non è grammatica: è solo un
trucco matematico per non confondere l’ordine. Coordinate, non regole
sintattiche.
FINE-TUNING E RLHF
Dopo l’addestramento di base, il modello viene “educato” con dati più mirati o
con istruzioni di esseri umani (RLHF = Reinforcement Learning with Human
Feedback). Qui gli umani dicono: “questa risposta va bene, questa no”. È così
che il modello impara a rispondere in modo più chiaro e cortese, ma resta
statistica, non personalità. Premi e punizioni, non comprensione.
Prosegue...
CONTEXT WINDOW
Un modello non ricorda all’infinito. Ha una “finestra di contesto” che
stabilisce quante parole può considerare alla volta. Se è troppo piccola,
dimentica l’inizio della conversazione. Oggi i modelli più avanzati hanno
finestre molto ampie e possono “tenere a mente” testi enormi in un’unica volta.
Ma sempre con memoria a breve termine: finita la finestra, sparisce tutto.
PROMPT ENGINEERING
Dare istruzioni chiare migliora le risposte. Non perché il modello “capisca”, ma
perché guidi meglio la scelta delle parole. Domanda confusa = risposta confusa.
Niente magia: solo input più mirati.
DECODING
Dopo aver calcolato la probabilità di ogni parola possibile, il modello deve
sceglierne una.
* Greedy decoding: Prende sempre quella più probabile → testo corretto ma
noioso.
* Sampling: pesca a caso seguendo le probabilità → più varietà, ma rischia di
dire sciocchezze.
* Beam search: valuta più frasi in parallelo e sceglie la migliore → più lento
ma di qualità. Non c’è ispirazione: solo diverse strategie di scelta.
TEMPERATURE E TOP-K
Sono le “manopole dello stile”.
* Temperature regola la creatività: bassa = frasi prevedibili, alta = frasi
fantasiose (a volte troppo).
* Top-k dice al modello: “considera solo le k parole più probabili”.
Tutto qui: numeri, probabilità, un po’ di informatica. Tantissimi dati e tanta
potenza di calcolo. Niente magia. Niente filosofia dei termosifoni.