Un LLM smontato pezzo per pezzo. Tokenizzazione, embeddings, attention,
hallucinations. Ollama in locale, zero fuffa.
la maggior parte degli articoli che descrivono il funzionamento degli LLM (large
Language Model) sono poco attendibili. "L'AI capisce il contesto." "I neuroni si
attivano come nel cervello." "Il modello ragiona." Metafore colorate,
infografiche carine con le frecce, zero formule, zero codice, zero esperimenti.
Gente che spiega cose che non capisce, usando parole che non significano quello
che pensano. Una catena di pappagalli che scrivono articoli sui pappagalli.
Allora lo ha scritto Andrea Amani aka The Pirate un articolo che spiega gli LLM.
Ha smontato la macchina pezzo per pezzo. "Ho Ollama sul Mac con una decina di
modelli. Scelgo il più piccolo: llama3.1:8b, 8 miliardi di parametri, 4.9
gigabyte su disco. Il più facile da maneggiare senza sbatti, e tanto
l'architettura è identica per tutti: che siano 8 miliardi o 405 miliardi, il
meccanismo è lo stesso. Cambiano le dimensioni delle matrici, non come funziona
la macchina. Lo apro dal terminale, guardo i byte, e seguo il percorso completo:
dal testo che entra al testo che esce. Ogni passaggio, ogni formula, ogni
decisione matematica. Niente metafore del cervello. Niente fuffa. Se vuoi capire
come funziona una cosa, la smonti. Non leggi chi ne scrive. "
leggi l'articolo sul sito di The Pirate
Tag - AI
Prima assoluta della commedia teatrale '1RxI : Un Robot Per Insegnante' di
Stefano Penge
Lo spettacolo mette in scena in maniera comica l’arrivo dell’IA in un piccolo
istituto comprensivo, con le difficoltà, i dubbi, le dinamiche interne tra
docenti e con il dirigente.
È ricco di informazioni su cosa sono gli LLM, come funzionano e perché a volte
non funzionano, trattate con leggerezza e ad un livello adatto anche a
principianti.
Lo scopo non è magnificare le sorti dell’IAG e redarguire chi ancora ne ha
paura, ma al contrario, permettere al pubblico di identificarsi con le paure e
le attese dei personaggi: a cosa mi può servire l'IA? E ai ragazzi? Non mi
toglierà il lavoro?
Forse il messaggio più importante è che nessuno può obbligare un docente a far
usare l’IA generativa ai suoi studenti; ma visto che lo usano comunque, è
sicuramente utile cercare di capire meglio cos’è, da dove viene, dove va.
In scena cinque personaggi: un insegnante, un robot, un dirigente, una collega,
il padre dell’insegnante. Tra i materiali di scena ci sono canzoni, immagini,
video e un altro copione, tutti (tranne le musiche) realizzati con servizi
basati su LLM.
Lo spettacolo è evidentemente rivolto ad una platea di insegnanti, più che di
studenti. Ma chissà, può essere utile anche ad altri.
* Compagnia teatrale: Primo Atto
* Produzione: WinScuola
* Quando: 11 Aprile 2026 alle 18
* Dove: Sala multimediale Goethe Institut di Roma in via Savoia 15
Lo spettacolo è gratuito, ma bisogna prenotare i posti.
Di seguito l'intervista audio a Stefano Penge durante la puntata di Le Dita
Nella Presa, trasmissione di Radio Ondarossa che tratta di tecnologia, del 22
marzo 2026.
Your browser does not support the audio tag.
Una puntata di solo notizie positive: raccordo.info, un aggregatore di
movimento; appuntamenti di hacking a Milano; spettacolo teatrale per parlare
dell'IA a scuola; sindacalizzazione dellə lavoratorə che annotano i dati per
l'IA; il progressivo abbandono del software proprietario statunitense da parte
di varie amministrazioni europee.
Apriamo con la presentazione di raccordo.info, un "aggregatore di movimento",
ovvero un sito in cui trovare tutti (o quasi) i contenuti prodotti da realtà di
movimento. Un modo per informarsi fuori dai social media commerciali, senza
tracciamento né profilazione né app da installare.
Proseguiamo con la presentazione di HackInSocs 2026, appuntamento di hacking:
27-28-29 settembre al Settore Occupato Città Studi, Via Celoria 22, Milano
Con Stefano Penge, autore di 1RxI - Un robot per insegnante , parliamo di come è
nato questo spettacolo teatrale che ha lo scopo di divulgare i punti critici
dell'introduzione dell'IA a scuola.
Ci spostiamo in Kenya, per proseguire il ragionamento iniziato alcuni mesi fa
sulla quantità di lavoro invisibile che è implicita in quella che chiamiamo
intelligenza artificiale. Lo facciamo leggendo alcune dichiarazioni della Data
Labelers Association, realtà che organizza lavoratori e lavoratrici di questo
settore.
A partire dalla decisione del governo tedesco di rendere obbligatorio l'uso
dello standard ODF - cioè quello promosso da LibreOffice - a scapito dell'OOXML
- che invece è di Microsoft - parliamo della progressiva migrazione delle
pubbliche amministrazioni europee verso software non-statunitensi e
tendenzialmente con licenze open source in nome della sovranità digitale.
Ascolta l'audio sul sito di Radio Ondarossa
Martedì 24 marzo a Roma presso Aula Studio Ex Biblioteca di Architettura di Roma
Tre, con la collaborazione del collettivo ARCHa Roma Tre, Donatella della Ratta,
Noura Tafeche, introdotte da Agnese Trocchi, condurranno il workshop La Scuola
dell'Immagine: Esercizi per leggere, disfare e rovesciare le immagini.
Cosa
Viviamo immersi in un flusso incessante di immagini. Circolano più velocemente
di quanto possiamo guardarle e comprenderle. La Scuola dell’Immagine nasce come
proposta di rallentamento e di restituzione della collettività all’atto del
vedere: uno spazio-tempo condiviso in cui riunirsi per guardare immagini insieme
e leggerle collettivamente. Qui le immagini non vengono spiegate dall’alto, ma
interrogate: da dove provengono, quali immaginari ereditano, dove circolano,
cosa cancellano o contraddicono.
Workshop con Donatella della Ratta e Noura Tafeche, introdotto da Agnese
Trocchi.
Quando e dove
Martedì 24 Marzo | ore 17.00-20.00 Aula Studio Ex Biblioteca - Ingresso Largo
G.B. Marzi 10
Tutte le informazioni le trovi sul sito di CIRCE
I modelli linguistici, e in particolare quello di OpenAI, cercano di tenerci
agganciati quanto più tempo possibile, per riuscire in questa impresa stanno
sfruttando le peggiori tecniche da clickbait.
Dal classico e ormai abbandonato “clamoroso, clicca qui!”, dietro il quale si
nascondeva di solito un gossip di nessun interesse, ai titoli che rischiano di
sconfinare nella truffa relativi alla “dieta che il tuo medico non vuole farti
scoprire”, fino ai più recenti “questo semplice trucco ti farà risparmiare
migliaia di euro” o “solo l’1% delle persone riesce a rispondere correttamente a
questa domanda”.
Quali sono le ragioni? Perché ChatGPT è disposto a dare il peggio di sé pur di
mantenerci agganciati allo schermo? “OpenAI e i suoi pari hanno moltissimo da
guadagnare da tutto ciò”, ha scritto Lila Shroff sull’Atlantic. “Le
conversazioni delle persone con i chatbot costituiscono infatti preziosi dati di
addestramento per i modelli futuri. Più tempo qualcuno trascorre a parlare con
un bot, più è probabile che riveli dati personali, che le aziende di
intelligenza artificiale possono a loro volta utilizzare per generare risposte
ancora più convincenti. Conversazioni più lunghe oggi potrebbero tradursi in una
maggiore fedeltà al prodotto in futuro”.
Tutto ciò vale a maggior ragione visto che ChatGPT ha da poco introdotto la
pubblicità nella sua versione gratuita (per ora solo negli Stati Uniti) e quindi
il valore dei nostri dati e delle informazioni che riveliamo alla macchina è
drasticamente aumentato. È forse proprio l’arrivo delle inserzioni che spiega
perché, improvvisamente, il modello linguistico di OpenAI abbia iniziato a
esprimersi come la peggiore pagina Facebook sensazionalista (e perché invece non
lo facciano Claude e Gemini, dove le pubblicità non sono per il momento
previste).
Niente di nuovo sotto il sole. Come tutte le altre grandi piattaforme della
nostra epoca digitale, anche ChatGPT punta a una cosa sola: sottrarci quanti più
dati possibili e sfruttarli a fini pubblicitari. Se mai avessimo avuto qualche
dubbio, tutto ciò conferma come siamo ancora pienamente immersi nel capitalismo
della sorveglianza.
Articolo completo qui
lunedì 16 marzo 2026, ore 8.30 – 13.30, convegno nazionale di formazione in
presenza e a distanza per chi risiede fuori dalla provincia di Cagliari
Il CESP prosegue il programma di convegni sull’introduzione dell’intelligenza
artificiale a Scuola a seguito della pubblicazione delle Linee Guida
ministeriali.
Nel prossimo incontro a Cagliari parteciperà anche Richard Matthew Stallman, uno
dei maggiori esponenti del movimento del software libero e fondatore della Free
Software Foundation.
Tra gli altri partecipante anche Stefano Borroni Barale, CUB Scuola/C.I.R.C.E.,
autore del libro "Intelligenza inesistente".
Tutte le informazioni su programma e partecipazione sul sito del CESP
Stando a quanto riporta Al Jazeera ora Google, Microsoft, Palantir, IBM, Nvidia
e Oracle sono nella lista dei bersagli dei pasdaran. Le parole dell’agenzia
Tasnim: “Si amplia anche la portata degli obiettivi legittimi dell’Iran”. Il 3
marzo colpiti i data center: 9 milioni senza app di pagamento.
I giganti tecnologici americani entrano ufficialmente nel mirino dei missili e
dei droni iraniani, perché Teheran li considera parte integrante ed essenziale
della macchina bellica americana. L’antipasto era stato servito il 3 marzo,
quando velivoli senza pilota (manovrati a distanza) avevano attaccato 3 data
center di Amazon in Bahrein e negli Emirati Arabi. L’11 marzo Tasmin, l’agenzia
di stampa degli Ayatollah, ha incluso sedi, uffici e infrastrutture dei colossi
americani tra i legittimi obiettivi militari del regime. “Con l’espansione della
guerra regionale, la portata diventa gradualmente più ampia”, si legge nel
documento. La lista dei potenziali bersagli ora include Google, Amazon,
Microsoft, Nvidia, IBM, Oracle e Palantir. A rischio le sedi di lavoro, i data
center e i centri di ricerca, le infrastrutture, ovunque siano, in Israele e nei
Paesi del Golfo, comprese Dubai e Abu Dhabi negli Emirati Arabi.
Leggi su:
* Il Fatto Quotidiano
* Fanpage
* CNBC
Moltbook è un social network per soli agenti AI, in cui gli umani possono essere
semplici osservatori. Secondo gli esperti, il suo utilizzo potrebbe
rappresentare un rischio per la sicurezza a causa del fenomeno del prompt
injection.
Moltbook rappresenta un caso di studio senza precedenti nell'evoluzione delle
piattaforme digitali: si tratta di un social network progettato esclusivamente
per l'interazione tra agenti AI, dove agli esseri umani è consentito l'accesso
unicamente in veste di osservatori silenziosi. Lanciata sulla scia del software
open source Moltbot, questa piattaforma emula la struttura di aggregatori di
notizie come Reddit, permettendo ai bot (ovvero programmi automatizzati creati
dagli utenti) di pubblicare contenuti, commentare e votare i post altrui. Al 2
febbraio, i dati riportati dalla piattaforma indicavano la presenza di oltre 1,5
milioni di agenti iscritti. Vari esperti di sicurezza informatica e di
intelligenza artificiale, analizzando il fenomeno, tendono a classificare
Moltbook più come «una meravigliosa opera d'arte performativa», che come un vero
preludio alla dominazione delle macchine o una minaccia immediata alla
democrazia.
leggi l'articolo
Altro articolo su Wired, "Moltbook, il social popolato da bot è solo uno
specchio (distorto) dei nostri social"
Cassetta degli attrezzi per capire finanza, bolle speculative e “intelligenza”
artificiale.
Se ne parla con Marco Bersani, da Zazie nel Metrò, a Roma, giovedì 12 marzo alle
19.
Marco Bersani, attivista e coordinatore nazionale di ATTAC Italia, impegnato
nella critica al neoliberismo e alla finanziarizzazione dell’economia e nella
difesa dei beni comuni.
[...]
Oggi l’intelligenza artificiale è diventata l’ennesimo terreno della corsa
speculativa dove poche grandi piattaforme tecnologiche concentrano capitali,
infrastrutture e dati su scala planetaria. Aziende come Nvidia, Microsoft,
Google o OpenAI vengono presentate come protagoniste di una rivoluzione
inevitabile, capace di ridefinire ogni settore della vita economica. Ma dietro
questa narrazione si muove una dinamica profondamente politica: la costruzione
di una nuova frontiera di accumulazione per il capitale. L’intelligenza
artificiale diventa così un gigantesco dispositivo di attrazione di
investimenti, capace di gonfiare valutazioni di mercato, concentrare potere
nelle mani di poche multinazionali e aprire nuovi spazi di estrazione di
ricchezza.
Il rischio non è solo una bolla finanziaria. La direzione intrapresa è che una
tecnologia presentata come neutrale e inevitabile venga usata per rafforzare
ulteriormente un modello economico già profondamente diseguale: più
concentrazione di ricchezza, più potere alle piattaforme globali, più
precarizzazione del lavoro, più controllo.
In altre parole, l’IA è diventata non tanto una promessa di emancipazione
collettiva, ma l’ennesimo capitolo della finanziarizzazione dell’economia: una
nuova grande promessa di futuro costruita per alimentare la crescita del
capitale. Anche le politiche di riarmo (e le conseguenti guerre) rispondono ai
medesimi interessi finanziari.
Leggi tutto
La puntata affronta due argomenti principali: come gli LLM rappresentano una
nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che
sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da
modelli sempre più grandi e costosi.
Il paper “Automated Profile Inference with Language Model Agents”
(arXiv:2505.12402) studia una nuova minaccia per la privacy online resa
possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia,
chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per
raccogliere e analizzare automaticamente le attività pubbliche degli utenti su
piattaforme pseudonime (come forum o social media) al fine di estrarre
informazioni personali sensibili, con il rischio di re-identificare le persone.
Why I don’t think AI is a bubble
https://honnibal.dev/blog/ai-bubble
L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi
tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento
comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre
più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che
questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili
“fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato
dall’integrazione con il reinforcement learning, che ha permesso di creare i
cosiddetti “reasoning models”.
Ascolta la puntata su Radio Backout