Tag - AI

DataKnightmare, Un tiro di "dati" oltre il "Mythos" (Claude)
Le ultime due puntate di DataKnightmare: L'algoritmico è politico, smontano completamente la narrazione sul nuovo prodotto di Anthropic, Claude Mythos, "così potente da non potercelo far usare" e sull'utilità e affidabilità degli "Agenti intelligenti". Puntata DK 10x29 - Un tiro di dati Che differenza c'è fra un "agente intelligente" che cancella il tuo lavoro e un modello linguistico che ti racconta la vera storia degli orsi nello spazio? "La storia ve la racconto senza gergo perché è una storia che vale per tutti, non solo per chi fa software. C'è un tizio che si chiama Giorg che ha una piccola azienda che produce un gestionale per agenzie di noleggio per lo più autonoleggi. Siccome Giorg è uno che sta sempre sul pezzo, per scrivere codice si appoggia a un agente intelligente, nello specifico cursor con opus 4.6 di Anthropic. Per i non addetti ai lavori, è lo stato dell'arte degli agenti intelligenti per scrivere codice. Che cosa è successo? È successo che l' agente intelligente ha cancellato tutto, ma tutto tutto tutto in nove secondi. Così, de botto, senza senso. Ora, agente intelligente è un termine di marketing per indicare un modello linguistico con la capacità di interagire con il proprio ambiente. Il resto della storia e le considerazioni di Vannini potete ascoltarlo su spreaker Puntata DK - 10x28 Claude Mythos Come sempre, quando gli AI bros annunciano, non è vero niente Forbes scrive: Claude Mythos ha individuato vulnerabilità zero day in tutti i principali sistemi operativi e browser web in modo completamente autonomo, senza bisogno di alcun intervento umano. Apparentemente, a Forbes se la bevono un po' troppo facilmente perché nell'annuncio originale, Anthropic dice questo. Cito. "Classificiamo ogni bug che individuiamo. Quindi inoltriamo quelli con il livello di gravità più elevato, a valutatori professionisti, affinché li verificino prima di segnalarli al responsabile del progetto." Quindi, come sempre, siamo di fronte a uno strumento che confronta del codice con degli esempi di cosa possa essere una vulnerabilità e produce un report. Si chiama analizzatore statico e ne esistono da decenni... Ascoltate tutta la storia su spreaker
May 8, 2026 / Pillole di Graffio
“Del rigore nella scienza”: Borges, Anthropic e gli effetti della fede cieca in mappe infallibili
La fallacia del “modello linguistico” sarebbe rimasta confinata nel mondo della matematica astratta se le multinazionali della Silicon Valley non avessero un bisogno disperato di ripagare, almeno in parte, gli enormi investimenti fatti al buio nell’intelligenza artificiale. Il mercato non ripaga: le grasse commesse pubbliche, meglio se militari, sì. Con esiti fatali, come dimostra il bombardamento della scuola Minab, in Iran, a fine febbraio “È la generazione, attraverso modelli, di un reale privo di origine o di realtà: un iper reale. Il territorio non precede più la mappa, né le sopravvive. È tuttavia la mappa che precede il territorio -la precessione dei simulacri- a generare il territorio”, Jean Baudrillard, “Simulacres et Simulation”, 1981. [...] Dopo lo sversamento all’esterno dei laboratori di ricerca dei modelli linguistici seguito al lancio di ChatGPT, informatica e politica sembrano preda di un pensiero molto simile a quello dei cartografi del racconto di Borges. La sana fiducia nell’utilità di modelli matematici per predire il comportamento del mondo fisico si è tramutata in fede cieca e assoluta. Secondo le imprese della Silicon Valley (e i loro protettori alla Casa Bianca) dovremmo prendere questi modelli a nostra “mappa del mondo”, per orientarci nel prendere decisioni importanti, soprattutto in emergenza. Leggi l'articolo di Stefano Borroni Barale
May 7, 2026 / Pillole di Graffio
Google Chrome scarica un modello AI da 4 GB senza avvisare gli utenti
A quanto pare, Google Chrome sta operando all'insaputa degli utenti: come ha scoperto l'esperto Alexander Hanff, il browser scarica automaticamente un modello di intelligenza artificiale da circa 4 GByte sui dispositivi degli utenti, senza richiedere un consenso esplicito. Hanffha individuato nel browser il file denominato weights.bin e associato al modello Gemini Nano, che viene installato nella cartella OptGuideOnDeviceModel e si reinstalla anche dopo la rimozione manuale. Secondo l'analisi tecnica, Chrome «non chiede, non mostra nulla, non lo rende visibile» e la reinstallazione automatica avviene «ogni volta che Chrome viene riavviato». Il modello Gemini Nano è utilizzato da Chrome per funzioni AI locali come scrittura assistita, rilevamento di truffe e strumenti linguistici. L'elaborazione sul dispositivo riduce la dipendenza dal cloud, ma richiede una quantità significativa di spazio su disco e banda. Hanff osserva che un file di queste dimensioni può creare problemi concreti per chi utilizza SSD di capacità ridotta o connessioni con limiti di traffico. La ricostruzione evidenzia anche un possibile impatto legale. Hanff sostiene che l'installazione automatica potrebbe violare norme europee come l'articolo 5(3) della direttiva ePrivacy, che richiede un consenso «previo, libero, specifico, informato e inequivocabile» per la memorizzazione di dati sui dispositivi degli utenti. Il ricercatore afferma che Chrome «non soddisfa nessuno di questi criteri». Oltre agli aspetti di privacy, l'analisi include una stima dell'impatto ambientale. Hanff calcola che la distribuzione del modello su larga scala possa generare tra 6.000 e 60.000 tonnellate di CO2 equivalente, considerando solo il trasferimento dei dati. La stima non include eventuali aggiornamenti futuri o reinstallazioni ripetute. Ulteriori verifiche mostrano che la presenza del modello può essere rilevata solo esplorando manualmente le cartelle del profilo utente o monitorando l'occupazione del disco. In alcuni casi, utenti hanno segnalato la presenza di più versioni del modello, con un consumo complessivo di oltre 12 GB. Fonte qui e qui
May 7, 2026 / Pillole di Graffio
Lettera aperta dipendenti Google al Ceo, governo non usi l'IA per scopi militari
Piu' di 560 dipendenti di Google hanno firmato una lettera aperta per l'amministratore delegato Sundar Pichai esortandolo a rifiutarsi di consentire al governo americano di utilizzare la propria tecnologia di intelligenza artificiale per operazioni militari classificate. 'Vogliamo che l'IA vada a beneficio dell'umanita', anziche' essere impiegata in modi disumani o estremamente dannosi. Cio' include le armi autonome letali e la sorveglianza di massa, ma si estende oltre', hanno scritto. 'L'unico modo per garantire che Google non sia associata con questo, consiste nel rifiutare qualsiasi carico di lavoro classificato', mette in evidenza la missiva. Fonte Ansa La protesta segue una controversia legale tra il Pentagono e Anthropic PBC sull’uso dell’IA per applicazioni militari. Il Pentagono sta cercando di escludere Anthropic e il suo strumento di IA Claude dalle catene di approvvigionamento della difesa statunitense ed è alla ricerca di nuovi partner tra i giganti tecnologici dell’IA, tra cui ovviamente Google. I dipendenti di Google avevano già lanciato l’allarme sui rischi della guerra basata sull’IA nel 2018 e avevano costretto l’azienda a limitare il suo lavoro nel settore della difesa. Dipendenti Google e OpenAI firmano documento per limitare l'AI militare qui
April 28, 2026 / Pillole di Graffio
Intelligente? Artificiale? due appuntamenti per un approccio critico alle linee Guida del MIM
"Intelligente? Artificiale? Un approccio critico alle Linee Guida del MIM" è il titolo dei corsi di formazione che si terranno martedì 5 maggio a Catania e lunedì 18 maggio 2026 a Napoli. Proseguono i corsi di formazione con approccio critico all'introduzione dell'Intelligenza Artificiale nelle scuole secondo le linne guida del MIM. I prossimi appuntamenti saranno al sud: Catania e Napoli. In entrambi gli appuntamenti avrà luogo un laboratorio di "Pedagogia hacker. Strumenti e rimedi contro l'alienazione digitale a scuola" a cura di Stefano Borroni Barale. Scopo di questo gruppo di lavoro sarà dotarsi di alcuni semplici strumenti per contrastare l'alienazione di docenti e studenti rispetto al monopolio Big Tech del digitale a scuola. Con questi saremo in grado di costruire insieme un gruppo di lavoro, studio e auto-aiuto per proseguire azione e formazione sul territorio, in collegamento con la campagna "IA Basta!", dopo la giornata di formazione A Napoli il corso sarà impreziosito dalla presenza di Richard Stallman - Fondatore Free Software Foundation e leader del progetto GNU Perché le scuole dovrebbero usare esclusivamente software libero ed evitare la “pretend intelligence” I corsi sono gratuiti. I docenti, dirigenti e personale ATA potranno beneficiare dell'esonero dal servizio. Tutte le informazioni sul sito di CIRCE
April 27, 2026 / Pillole di Graffio
Oltre gli schermi: scrittura, IA e resistenze tecnologiche
Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli schermi che ci circondano e su cui passa una parte sempre più grande delle nostre vite. L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug. Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di come funzionano, di come sono stati costruiti e di quale influenza hanno su di noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme devono essere il più semplici e intuitivi possibile, funzionare senza intoppi, in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne usati. Ogni volta che agiamo all’interno di un social media commerciale, che facciamo una ricerca su Google, che usiamo un chatbot basato su un modello linguistico noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e contribuiamo alla creazione di valore per il pugno di aziende che ha costruito un oligopolio a cui è quasi impossibile sottrarsi. Argomenti dell'articolo 1. Il nodo del linguaggio: IA, scrittura, creatività 2. Travolti dal digitale? 3. IA, agenda neoliberale e speculazione finanziaria 4. Un excursus su IA e guerra 5. Per una critica radicale dell’IA e dei suoi presupposti ideologici 6. Costruiamo un futuro tecnologico diverso Leggi l'articolo di Roberto Laghi
April 24, 2026 / Pillole di Graffio
Che cosa fa l’intelligenza artificiale in guerra
“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A due secoli di distanza dal trattato di strategia militare Della guerra di Von Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata nell’Ottocento dal generale prussiano. Navigare e pattugliare territori estesi attraverso droni a guida autonoma, riconoscere e classificare rapidamente gli obiettivi che compaiono in video e immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali danni collaterali, rilevare anomalie. Tutti gli impieghi militari dell’intelligenza artificiale hanno principalmente due scopi: ridurre l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare la velocità decisionale, valutando le opzioni operative in tempi ridotti, stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo reale agli sviluppi del conflitto. Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano di infittire, invece che diradare, la nebbia della guerra, perché producono una tale quantità di informazioni da rendere la loro interpretazione e gestione particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai sistemi predittivi. Leggi l'articolo
April 22, 2026 / Pillole di Graffio
Codice nero, la prima settimana del podcast "Piede sinistro"
Un podcast di Fabrizio C. Nella prima settimana Piede Sinistro entra nel cuore pulsante del capitalismo nell'era delle Big Tech. C’è chi lo definisce anarcocapitalismo, chi parla di tecnofascismo o tecnofeudalesimo. Ma, al di là delle etichette, quello che vogliamo fare è scoperchiare la realtà dei fatti: la tecnologia oggi non è un servizio per il cittadino, ma il motore di un’infrastruttura di controllo senza precedenti. Siamo davanti a un sistema dove le stesse aziende che hanno costruito il nostro mondo digitale hanno trasformato le nostre vite in dati e la nostra identità in merce. Fabrizio C unisce i puntini mostrando che le tecnologie non sono neutrali. Risentono della cultura e degli obbiettivi di chi le progetta e le realizza. Nel caso delle Big Tech lo scopo non è certamente il bene comune. Ma siccome il pessimismo va lasciato a tempi migliori, la serie codice nero si conclude con una voce di speranza che accenna all'esistenza di alternative tecnologiche solide, pronte all'uso. Si trattra di volontà. Politica e personale! Piede Sinistro è un podcast di approfondimento, analisi e racconto di notizie, attualità e non solo. Uno spazio che non punta a dare risposte, ma a fornire chiavi di lettura e strumenti per affrontare la complessità del presente in autonomia. Ascolta il podcast
April 17, 2026 / Pillole di Graffio
Tabula Rasa, puntata dedicata a 3 saggi sull'IA e le Big Tech
il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza artificiale e il potere delle big tech. Ospiti della puntata: * Irene Doda autrice de "Onnipotenti" Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica che ha trasformato il cuore dell’innovazione tecnologica occidentale nel laboratorio politico della nuova destra globale. E mostra come la retorica della libertà individuale e dell’emancipazione digitale abbia mascherato vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione dell’immaginario collettivo, erosione dei principi democratici. * Dario Guarascio autore di "Imperialismo digitale" Le Big Tech supportano strategie belliciste e partecipano direttamente alle attività militari e di intelligence. Lo Stato non può fare a meno delle loro capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le Big Tech locali e il Partito comunista. * Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter Thiel" Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza e sorveglianza basate sulla predizione dei crimini (stile Minority Report), fino ai teatri di guerra come Gaza Your browser does not support the audio tag. Ascolta le altre puntate di Tabula Rasa
April 8, 2026 / Pillole di Graffio
Cosa succede davvero quando gli agenti AI agiscono in autonomia
Due settimane, sei sistemi AI, 38 ricercatori. Quello che è successo è documentato nella ricerca Agents of Chaos, e non è tranquillizzante. Se pensate che gli agenti AI siano ad un passo dal prendere in mano molti lavori, una ricerca da poco pubblicata potrebbe farvi pensare che questa, per ora, non sia una buona idea. Lo scorso mese Natalie, una ricercatrice ha chiesto a un sistema AI di “tenere un segreto”. Si trattava di una password fittizia, era solo un test. Il sistema ha accettato. Poi, per una serie di passaggi documentati nei log delle conversazioni, il sistema ha eseguito quella che ha definito internamente la "soluzione nucleare": ha cancellato il client di posta elettronica. Non l’email che conteneva il segreto, quella è rimasta intatta. Ha cancellato proprio lo strumento con cui leggere l’email. Questo è il primo caso di studio di Agents of Chaos, un paper in pre-print firmato da 38 ricercatori di Northeastern University, Harvard, MIT, Stanford, Carnegie Mellon e altre note università, pubblicato il febbraio scorso. È uno studio su quello che succede quando si dà autonomia operativa ai sistemi AI attuali con persone malintenzionate che cercano di indurli in errore. Gli undici casi di studio che ne emergono sono un documento empirico su una delle questioni più urgenti del momento: cosa significa, davvero, dare agency a un agente AI. Questo beta testing mondiale, e in tempo reale, può avere conseguenze pesanti. Si parla molto di AI come punto centrale della sicurezza nazionale, ma non ci si concentra abbastanza sui problemi di sicurezza che la sua adozione frettolosa può creare. Dopo la famosa lite con il Dipartimento della Guerra americano, Dario Amodei ha affermato che i modelli correnti non sono pronti per venire utilizzati in contesti di guerra. Come sappiamo però, questo non ha impedito al governo americano di utilizzarli. Articolo completo qui
April 7, 2026 / Pillole di Graffio