Le ultime due puntate di DataKnightmare: L'algoritmico è politico, smontano
completamente la narrazione sul nuovo prodotto di Anthropic, Claude Mythos,
"così potente da non potercelo far usare" e sull'utilità e affidabilità degli
"Agenti intelligenti".
Puntata DK 10x29 - Un tiro di dati
Che differenza c'è fra un "agente intelligente" che cancella il tuo lavoro e un
modello linguistico che ti racconta la vera storia degli orsi nello spazio?
"La storia ve la racconto senza gergo perché è una storia che vale per tutti,
non solo per chi fa software.
C'è un tizio che si chiama Giorg che ha una piccola azienda che produce un
gestionale per agenzie di noleggio per lo più autonoleggi.
Siccome Giorg è uno che sta sempre sul pezzo, per scrivere codice si appoggia a
un agente intelligente, nello specifico cursor con opus 4.6 di Anthropic. Per i
non addetti ai lavori, è lo stato dell'arte degli agenti intelligenti per
scrivere codice.
Che cosa è successo?
È successo che l' agente intelligente ha cancellato tutto, ma tutto tutto tutto
in nove secondi. Così, de botto, senza senso.
Ora, agente intelligente è un termine di marketing per indicare un modello
linguistico con la capacità di interagire con il proprio ambiente.
Il resto della storia e le considerazioni di Vannini potete ascoltarlo su
spreaker
Puntata DK - 10x28 Claude Mythos
Come sempre, quando gli AI bros annunciano, non è vero niente
Forbes scrive: Claude Mythos ha individuato vulnerabilità zero day in tutti i
principali sistemi operativi e browser web in modo completamente autonomo, senza
bisogno di alcun intervento umano. Apparentemente, a Forbes se la bevono un po'
troppo facilmente perché nell'annuncio originale, Anthropic dice questo.
Cito. "Classificiamo ogni bug che individuiamo. Quindi inoltriamo quelli con il
livello di gravità più elevato, a valutatori professionisti, affinché li
verificino prima di segnalarli al responsabile del progetto."
Quindi, come sempre, siamo di fronte a uno strumento che confronta del codice
con degli esempi di cosa possa essere una vulnerabilità e produce un report.
Si chiama analizzatore statico e ne esistono da decenni...
Ascoltate tutta la storia su spreaker
Tag - AI
La fallacia del “modello linguistico” sarebbe rimasta confinata nel mondo della
matematica astratta se le multinazionali della Silicon Valley non avessero un
bisogno disperato di ripagare, almeno in parte, gli enormi investimenti fatti al
buio nell’intelligenza artificiale. Il mercato non ripaga: le grasse commesse
pubbliche, meglio se militari, sì. Con esiti fatali, come dimostra il
bombardamento della scuola Minab, in Iran, a fine febbraio
“È la generazione, attraverso modelli, di un reale privo di origine o di realtà:
un iper reale. Il territorio non precede più la mappa, né le sopravvive. È
tuttavia la mappa che precede il territorio -la precessione dei simulacri- a
generare il territorio”, Jean Baudrillard, “Simulacres et Simulation”, 1981.
[...]
Dopo lo sversamento all’esterno dei laboratori di ricerca dei modelli
linguistici seguito al lancio di ChatGPT, informatica e politica sembrano preda
di un pensiero molto simile a quello dei cartografi del racconto di Borges. La
sana fiducia nell’utilità di modelli matematici per predire il comportamento del
mondo fisico si è tramutata in fede cieca e assoluta. Secondo le imprese della
Silicon Valley (e i loro protettori alla Casa Bianca) dovremmo prendere questi
modelli a nostra “mappa del mondo”, per orientarci nel prendere decisioni
importanti, soprattutto in emergenza.
Leggi l'articolo di Stefano Borroni Barale
A quanto pare, Google Chrome sta operando all'insaputa degli utenti: come ha
scoperto l'esperto Alexander Hanff, il browser scarica automaticamente un
modello di intelligenza artificiale da circa 4 GByte sui dispositivi degli
utenti, senza richiedere un consenso esplicito. Hanffha individuato nel browser
il file denominato weights.bin e associato al modello Gemini Nano, che viene
installato nella cartella OptGuideOnDeviceModel e si reinstalla anche dopo la
rimozione manuale. Secondo l'analisi tecnica, Chrome «non chiede, non mostra
nulla, non lo rende visibile» e la reinstallazione automatica avviene «ogni
volta che Chrome viene riavviato».
Il modello Gemini Nano è utilizzato da Chrome per funzioni AI locali come
scrittura assistita, rilevamento di truffe e strumenti linguistici.
L'elaborazione sul dispositivo riduce la dipendenza dal cloud, ma richiede una
quantità significativa di spazio su disco e banda. Hanff osserva che un file di
queste dimensioni può creare problemi concreti per chi utilizza SSD di capacità
ridotta o connessioni con limiti di traffico. La ricostruzione evidenzia anche
un possibile impatto legale. Hanff sostiene che l'installazione automatica
potrebbe violare norme europee come l'articolo 5(3) della direttiva ePrivacy,
che richiede un consenso «previo, libero, specifico, informato e inequivocabile»
per la memorizzazione di dati sui dispositivi degli utenti. Il ricercatore
afferma che Chrome «non soddisfa nessuno di questi criteri».
Oltre agli aspetti di privacy, l'analisi include una stima dell'impatto
ambientale. Hanff calcola che la distribuzione del modello su larga scala possa
generare tra 6.000 e 60.000 tonnellate di CO2 equivalente, considerando solo il
trasferimento dei dati. La stima non include eventuali aggiornamenti futuri o
reinstallazioni ripetute. Ulteriori verifiche mostrano che la presenza del
modello può essere rilevata solo esplorando manualmente le cartelle del profilo
utente o monitorando l'occupazione del disco. In alcuni casi, utenti hanno
segnalato la presenza di più versioni del modello, con un consumo complessivo di
oltre 12 GB.
Fonte qui e qui
Piu' di 560 dipendenti di Google hanno firmato una lettera aperta per
l'amministratore delegato Sundar Pichai esortandolo a rifiutarsi di consentire
al governo americano di utilizzare la propria tecnologia di intelligenza
artificiale per operazioni militari classificate.
'Vogliamo che l'IA vada a beneficio dell'umanita', anziche' essere impiegata in
modi disumani o estremamente dannosi. Cio' include le armi autonome letali e la
sorveglianza di massa, ma si estende oltre', hanno scritto. 'L'unico modo per
garantire che Google non sia associata con questo, consiste nel rifiutare
qualsiasi carico di lavoro classificato', mette in evidenza la missiva.
Fonte Ansa
La protesta segue una controversia legale tra il Pentagono e Anthropic PBC
sull’uso dell’IA per applicazioni militari. Il Pentagono sta cercando di
escludere Anthropic e il suo strumento di IA Claude dalle catene di
approvvigionamento della difesa statunitense ed è alla ricerca di nuovi partner
tra i giganti tecnologici dell’IA, tra cui ovviamente Google.
I dipendenti di Google avevano già lanciato l’allarme sui rischi della guerra
basata sull’IA nel 2018 e avevano costretto l’azienda a limitare il suo lavoro
nel settore della difesa.
Dipendenti Google e OpenAI firmano documento per limitare l'AI militare qui
"Intelligente? Artificiale? Un approccio critico alle Linee Guida del MIM" è il
titolo dei corsi di formazione che si terranno martedì 5 maggio a Catania e
lunedì 18 maggio 2026 a Napoli.
Proseguono i corsi di formazione con approccio critico all'introduzione
dell'Intelligenza Artificiale nelle scuole secondo le linne guida del MIM. I
prossimi appuntamenti saranno al sud: Catania e Napoli.
In entrambi gli appuntamenti avrà luogo un laboratorio di "Pedagogia hacker.
Strumenti e rimedi contro l'alienazione digitale a scuola" a cura di Stefano
Borroni Barale.
Scopo di questo gruppo di lavoro sarà dotarsi di alcuni semplici strumenti per
contrastare l'alienazione di docenti e studenti rispetto al monopolio Big Tech
del digitale a scuola. Con questi saremo in grado di costruire insieme un gruppo
di lavoro, studio e auto-aiuto per proseguire azione e formazione sul
territorio, in collegamento con la campagna "IA Basta!", dopo la giornata di
formazione
A Napoli il corso sarà impreziosito dalla presenza di Richard Stallman -
Fondatore Free Software Foundation e leader del progetto GNU Perché le scuole
dovrebbero usare esclusivamente software libero ed evitare la “pretend
intelligence”
I corsi sono gratuiti. I docenti, dirigenti e personale ATA potranno beneficiare
dell'esonero dal servizio.
Tutte le informazioni sul sito di CIRCE
Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i
video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di
scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di
questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli
schermi che ci circondano e su cui passa una parte sempre più grande delle
nostre vite.
L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug.
Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e
nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di
come funzionano, di come sono stati costruiti e di quale influenza hanno su di
noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme
devono essere il più semplici e intuitivi possibile, funzionare senza intoppi,
in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne
usati.
Ogni volta che agiamo all’interno di un social media commerciale, che facciamo
una ricerca su Google, che usiamo un chatbot basato su un modello linguistico
noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e
contribuiamo alla creazione di valore per il pugno di aziende che ha costruito
un oligopolio a cui è quasi impossibile sottrarsi.
Argomenti dell'articolo
1. Il nodo del linguaggio: IA, scrittura, creatività
2. Travolti dal digitale?
3. IA, agenda neoliberale e speculazione finanziaria
4. Un excursus su IA e guerra
5. Per una critica radicale dell’IA e dei suoi presupposti ideologici
6. Costruiamo un futuro tecnologico diverso
Leggi l'articolo di Roberto Laghi
“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa
l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A
due secoli di distanza dal trattato di strategia militare Della guerra di Von
Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego
dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di
dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata
nell’Ottocento dal generale prussiano.
Navigare e pattugliare territori estesi attraverso droni a guida autonoma,
riconoscere e classificare rapidamente gli obiettivi che compaiono in video e
immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali
danni collaterali, rilevare anomalie. Tutti gli impieghi militari
dell’intelligenza artificiale hanno principalmente due scopi: ridurre
l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati
provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare
la velocità decisionale, valutando le opzioni operative in tempi ridotti,
stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo
reale agli sviluppi del conflitto.
Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati
di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano
di infittire, invece che diradare, la nebbia della guerra, perché producono una
tale quantità di informazioni da rendere la loro interpretazione e gestione
particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici
di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a
dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai
sistemi predittivi.
Leggi l'articolo
Un podcast di Fabrizio C.
Nella prima settimana Piede Sinistro entra nel cuore pulsante del capitalismo
nell'era delle Big Tech. C’è chi lo definisce anarcocapitalismo, chi parla di
tecnofascismo o tecnofeudalesimo. Ma, al di là delle etichette, quello che
vogliamo fare è scoperchiare la realtà dei fatti: la tecnologia oggi non è un
servizio per il cittadino, ma il motore di un’infrastruttura di controllo senza
precedenti. Siamo davanti a un sistema dove le stesse aziende che hanno
costruito il nostro mondo digitale hanno trasformato le nostre vite in dati e la
nostra identità in merce.
Fabrizio C unisce i puntini mostrando che le tecnologie non sono neutrali.
Risentono della cultura e degli obbiettivi di chi le progetta e le realizza. Nel
caso delle Big Tech lo scopo non è certamente il bene comune. Ma siccome il
pessimismo va lasciato a tempi migliori, la serie codice nero si conclude con
una voce di speranza che accenna all'esistenza di alternative tecnologiche
solide, pronte all'uso. Si trattra di volontà. Politica e personale!
Piede Sinistro è un podcast di approfondimento, analisi e racconto di notizie,
attualità e non solo. Uno spazio che non punta a dare risposte, ma a fornire
chiavi di lettura e strumenti per affrontare la complessità del presente in
autonomia.
Ascolta il podcast
il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza
artificiale e il potere delle big tech. Ospiti della puntata:
* Irene Doda autrice de "Onnipotenti"
Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica
che ha trasformato il cuore dell’innovazione tecnologica occidentale nel
laboratorio politico della nuova destra globale. E mostra come la retorica
della libertà individuale e dell’emancipazione digitale abbia mascherato
vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione
dell’immaginario collettivo, erosione dei principi democratici.
* Dario Guarascio autore di "Imperialismo digitale"
Le Big Tech supportano strategie belliciste e partecipano direttamente alle
attività militari e di intelligence. Lo Stato non può fare a meno delle loro
capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo
negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le
Big Tech locali e il Partito comunista.
* Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter
Thiel"
Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare
di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura
strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza
e sorveglianza basate sulla predizione dei crimini (stile Minority Report),
fino ai teatri di guerra come Gaza
Your browser does not support the audio tag.
Ascolta le altre puntate di Tabula Rasa
Due settimane, sei sistemi AI, 38 ricercatori. Quello che è successo è
documentato nella ricerca Agents of Chaos, e non è tranquillizzante.
Se pensate che gli agenti AI siano ad un passo dal prendere in mano molti
lavori, una ricerca da poco pubblicata potrebbe farvi pensare che questa, per
ora, non sia una buona idea. Lo scorso mese Natalie, una ricercatrice ha chiesto
a un sistema AI di “tenere un segreto”. Si trattava di una password fittizia,
era solo un test. Il sistema ha accettato. Poi, per una serie di passaggi
documentati nei log delle conversazioni, il sistema ha eseguito quella che ha
definito internamente la "soluzione nucleare": ha cancellato il client di posta
elettronica. Non l’email che conteneva il segreto, quella è rimasta intatta. Ha
cancellato proprio lo strumento con cui leggere l’email.
Questo è il primo caso di studio di Agents of Chaos, un paper in pre-print
firmato da 38 ricercatori di Northeastern University, Harvard, MIT, Stanford,
Carnegie Mellon e altre note università, pubblicato il febbraio scorso. È uno
studio su quello che succede quando si dà autonomia operativa ai sistemi AI
attuali con persone malintenzionate che cercano di indurli in errore. Gli undici
casi di studio che ne emergono sono un documento empirico su una delle questioni
più urgenti del momento: cosa significa, davvero, dare agency a un agente AI.
Questo beta testing mondiale, e in tempo reale, può avere conseguenze pesanti.
Si parla molto di AI come punto centrale della sicurezza nazionale, ma non ci si
concentra abbastanza sui problemi di sicurezza che la sua adozione frettolosa
può creare. Dopo la famosa lite con il Dipartimento della Guerra americano,
Dario Amodei ha affermato che i modelli correnti non sono pronti per venire
utilizzati in contesti di guerra. Come sappiamo però, questo non ha impedito al
governo americano di utilizzarli.
Articolo completo qui