Tag - AI

Modelli linguistici: oracoli da bar con manie di grandezza
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo. L‘insistenza criminale sui sistemi predittivi fallimentari C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare. Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale. leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
November 5, 2025 / Pillole di Graffio
Google riapre centrale nucleare per alimentare IA
L'industria nucleare sta vivendo una rinascita, spinta da un'enorme crescita della domanda di energia, mentre le grandi aziende tecnologiche cercano fonti di energia pulita per alimentare i loro data center. Google ha annunciato di aver raggiunto accordo con il gruppo americano NextEra Energy che prevede la rimessa in funzione all'inizio del 2029 della centrale nucleare Duane Arnold, nell'Iowa, per lo sviluppo delle infrastrutture di intelligenza artificiale (IA) del gigante californiano. Si tratta del terzo progetto di riapertura di una centrale nucleare annunciato di recente, dopo quelli relativi ai siti di Palisades (Michigan) nel 2023 e Three Mile Island (Pennsylvania) nel 2024, segno della ripresa dell'industria nucleare dopo decenni senza investimenti significativi negli Stati Uniti. Link articolo qui
November 3, 2025 / Pillole di Graffio
L’intelligenza irrazionale. Come l’IA alimenta le bolle finanziarie
L’IA entra in finanza e moltiplica i rischi di bolle e instabilità. Algoritmi simili, pochi attori dominanti e un mercato sempre più irrazionale «Ehi, ChatGPT, che azioni mi compro?» Potrebbe sembrare una domanda fatta per gioco, tanto per vedere che risposte si ottengono. Invece, secondo un articolo che riprende una ricerca svolta in 13 Paesi su 10mila investitori, uno su dieci si rivolge a una qualche intelligenza artificiale. Molti tra questi prenderebbero in considerazione l’idea di lasciare direttamente nelle mani dell’IA la scelta su quali transazioni finanziarie eseguire. Dalla ricerca, sembra che le risposte dei chatbot siano ragionevoli e prudenti, insistendo sul fatto che è impossibile predire l’andamento dei mercati, in ragione della complessità e della quantità di fattori che possono influenzarli. [...] Riassumendo: un oligopolio di imprese tecnologiche fornisce algoritmi che guidano gli investimenti sui mercati, mercati dominati da un oligopolio di investitori istituzionali, che sono i loro maggiori azionisti. Cosa potrebbe mai andare storto? Leggi l'articolo
October 31, 2025 / Pillole di Graffio
I.A. Basta! a l'Ora di Buco si parla dell'appello alla scuola
Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari, diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo BASTA! Nella trasmissione di Radio Onda Rossa, l'Ora di Buco, si riparla di Intelligenza artificiale a scuola: un docente di informatica spiega tutto quello che non va nelle fumose linee guida ministeriali. Inoltre presenta l'appello alla comunità educante per rifiutare l'introduzione dell'Intelligenza Artificiale delle multinazionali e proporre invece delle tecnologie realmente utili a studenti, insegnanti e personale non docente della scuola. Qui alcune riflessioni critiche e preoccupate, con l'appello da diffondere e firmare. Ascolta l'audio dell'intervento Vai alla puntata dell'Ora di Buco
October 30, 2025 / Pillole di Graffio
IA, turbine a gas, centrali atomiche
Le aziende tecnologiche americane stanno installando motori jet dismessi da Boeing e Airbus come generatori d'emergenza per alimentare i data center AI, a causa di tempi d'attesa superiori ai cinque anni per nuovi allacciamenti alla rete elettrica. Il progetto Stargate di OpenAI in Texas utilizza quasi 30 turbine aeroderivative che generano complessivamente oltre 1000 megawatt, creando di fatto una centrale elettrica temporanea in attesa del potenziamento delle infrastrutture tradizionali. Questa soluzione costosa e inquinante rivela un paradosso critico: le stesse aziende che promuovono la sostenibilità sono costrette ad adottare tecnologie a gas per non perdere la corsa competitiva nell'intelligenza artificiale. Va precisato che l'uso di turbine derivate dall'aviazione non rappresenta una novità assoluta nel panorama industriale. Per decenni, queste soluzioni sono state impiegate in ambito militare e nelle piattaforme di trivellazione offshore, dove la necessità di energia portatile e affidabile è sempre stata prioritaria. Tuttavia, la loro comparsa massiccia nei data center segna un momento storico e rivela quanto sia diventata critica la carenza di energia negli Stati Uniti. Si tratta di un segnale inequivocabile: quando giganti tecnologici con bilanci da decine di miliardi di dollari ricorrono a soluzioni definite "di transizione", significa che il problema è strutturale. Amazon dal canto suo punta sul nucleare, con il progetto Cascade Advanced Energy Facility nello stato di Washington, un campus nucleare basato su reattori modulari SMR per alimentare i propri data center con energia carbon-free. Il progetto utilizza la tecnologia Xe-100 e punta ad avviare la produzione elettrica negli anni '30, rappresentando il primo impegno concreto di una Big Tech nella costruzione di nuova capacità nucleare. Articoli completi qui e qui
October 27, 2025 / Pillole di Graffio
Primo appello alle comunità educanti d'Italia
Riceviamo e volentieri pubblichiamo. Colleghe, colleghi, madri, padri, alle nostre allieve e allievi di ogni colore, genere, orientamento, provenienza. Noi siamo il prodotto di 35 anni di lotte, dalla riforma Berlinguer al taglio di un anno di istruzione tecnica e professionale, in via di realizzazione da parte del Ministro Valditara. Alcune abbandonate, alcune perse, alcune - per fortuna - vinte. Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari, diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo BASTA! Leggi l'appello e firma.
October 20, 2025 / Pillole di Graffio
Le Dita Nella Presa - Scuola guida per l'IA
Apriamo con una lunga analisi delle Linee guida per l'Introduzione dell'Intelligenza Artificiale nella scuola. Proseguiamo con un commento sulle dichiarazioni di Durov; le nuove regole per pubblicare applicazioni su Android. Infine la rubrica notiziole. Di Linee guida per l'Introduzione dell'Intelligenza Artificiale nella scuola se ne è già parlato all'ora di buco, ma ci torniamo sopra per parlare anche degli aspetti più prettamente tecnologici. Per la rubrica notiziole * Israele cede le aziende di malware agli Usa; * l'ICE, Agenzia che si occupa della deportazione di migranti irregolari negli Usa fa shopping di prodotti di sorveglianza; * infine, oggi le comiche, ma al massimo per 2 ore. Le dita nella presa salterà le prossime due puntate, torniamo Domenica 2 Novembre con una puntata speciale! Ascolta sul sito di Radio Onda Rossa
October 16, 2025 / Pillole di Graffio
Il Garante blocca l’app Clothoff: permetteva di spogliare le foto di persone reali con l’IA
Il Garante della privacy ha emesso un provvedimento per bloccare il trattamento dei dati personali degli utenti italiani da parte della società titolare dell’app Clothoff: permetteva a chiunque di creare nudi deepfake, anche a contenuto pornografico, a partire da foto di persone reali. La decisione del Garante Con il provvedimento del primo ottobre 2025 il Garante "ha disposto, in via d’urgenza e con effetto immediato, la limitazione provvisoria del trattamento dei dati personali degli utenti italiani nei confronti di una società, con sede nelle Isole Vergini Britanniche, che gestisce l’app Clothoff". La limitazione provvisoria al trattamento dei dati degli utenti italiani – si legge nel provvedimento – durerà il tempo necessario al Garante per lo svolgimento dell'istruttoria avviata nei confronti della società titolare di Clothoff. Leggi l'articolo
October 6, 2025 / Pillole di Graffio
In the Belly of AI, il documentario che racconta come milioni di data worker pagano il prezzo nascosto dell’intelligenza artificiale
Presentato durante il DIG Festival di Modena, racconta l'inquietante dietro le quinte di chi sostiene interi sistemi tecnologici. Ne abbiamo parlato con il regista, Henri Poulain L’intelligenza artificiale occupa uno spazio sempre maggiore nel dibattito contemporaneo. Soprattutto al cinema dove è diventato il prisma attraverso cui si riflettono le nostre paure, le nostre speranze e le domande più radicali sull’identità umana, sul controllo della tecnologia e sul futuro della società. L’AI è diventata un vero campo di battaglia politico e sociale, dove si incontrano, e si scontrano, questioni economiche, ambientali e legate ai diritti dei lavoratori. Ancora una volta è il cinema a investigare questo rapporto complesso, mostrando cosa si nasconde dietro dati, cloud e reti digitali, grazie al prezioso documentario In the Belly of AI, diretto da Henri Poulain, presentato durante il DIG Festival di Modena. Un’opera che smonta l’illusione di un’intelligenza artificiale immateriale e trascendente, rivelando invece quale prezzo paghiamo quotidianamente per sostenere interi sistemi tecnologici, infrastrutture che consumano e dilapidano energia, risorse naturali e vite umane. In the Belly of AI parte proprio da questo per raccontare la vita lavorativa dei data worker che, secondo un rapporto della World Bank pubblicato lo scorso anno, si stima che nel mondo siano tra i 150 e i 430 milioni, e che il loro numero sia cresciuto in modo esponenziale nell’ultimo decennio. Leggi l'articolo
October 1, 2025 / Pillole di Graffio
Bignami, concetti base degli LLM (parte seconda)
Seconda parte del bignamino di Quatrociocchi sugli LLM spiegati senza supercazzole. Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente. Riporto di seguito i concetti. L'originale si può leggere su Linkedin EMBEDDING I computer non capiscono parole, elaborano numeri. Per questo ogni parola viene trasformata in un elenco di numeri chiamato vettore. Se due parole compaiono spesso nello stesso contesto (“gatto” e “cane”), i loro vettori saranno vicini; se non compaiono mai insieme (“gatto” e “trattore”), saranno lontani. È una mappa statistica, non un dizionario di significati. Nessun concetto, solo distanze in uno spazio di numeri. TOKENIZZAZIONE Il modello non legge il testo come facciamo noi. Spezza le frasi in piccoli pezzi chiamati token. A volte una parola è un token intero, altre volte viene spezzata: “incredibile” può diventare “in”, “credi”, “bile”. Il modello lavora solo con questi pezzi, non con concetti o frasi intere. Non c’è un “pensiero” sotto: solo pezzi da ricomporre. POSITIONAL ENCODING – Perché l’ordine delle parole non si perda, a ogni token viene aggiunta un’informazione sulla sua posizione nella frase. È così che il modello distingue tra “l’uomo morde il cane” e “il cane morde l’uomo”. Non è grammatica: è solo un trucco matematico per non confondere l’ordine. Coordinate, non regole sintattiche. FINE-TUNING E RLHF Dopo l’addestramento di base, il modello viene “educato” con dati più mirati o con istruzioni di esseri umani (RLHF = Reinforcement Learning with Human Feedback). Qui gli umani dicono: “questa risposta va bene, questa no”. È così che il modello impara a rispondere in modo più chiaro e cortese, ma resta statistica, non personalità. Premi e punizioni, non comprensione. Prosegue... CONTEXT WINDOW Un modello non ricorda all’infinito. Ha una “finestra di contesto” che stabilisce quante parole può considerare alla volta. Se è troppo piccola, dimentica l’inizio della conversazione. Oggi i modelli più avanzati hanno finestre molto ampie e possono “tenere a mente” testi enormi in un’unica volta. Ma sempre con memoria a breve termine: finita la finestra, sparisce tutto. PROMPT ENGINEERING Dare istruzioni chiare migliora le risposte. Non perché il modello “capisca”, ma perché guidi meglio la scelta delle parole. Domanda confusa = risposta confusa. Niente magia: solo input più mirati. DECODING Dopo aver calcolato la probabilità di ogni parola possibile, il modello deve sceglierne una. * Greedy decoding: Prende sempre quella più probabile → testo corretto ma noioso. * Sampling: pesca a caso seguendo le probabilità → più varietà, ma rischia di dire sciocchezze. * Beam search: valuta più frasi in parallelo e sceglie la migliore → più lento ma di qualità. Non c’è ispirazione: solo diverse strategie di scelta. TEMPERATURE E TOP-K Sono le “manopole dello stile”. * Temperature regola la creatività: bassa = frasi prevedibili, alta = frasi fantasiose (a volte troppo). * Top-k dice al modello: “considera solo le k parole più probabili”. Tutto qui: numeri, probabilità, un po’ di informatica. Tantissimi dati e tanta potenza di calcolo. Niente magia. Niente filosofia dei termosifoni.
September 23, 2025 / Pillole di Graffio