Il "manifesto di Palantir" si aggiunge alla lunga tradizione di fanfaronate di
arricchiti che si credono pensatori. E la cosiddetta "intervista" a Claude di
Walter Veltroni a quella dei cantori...
"Avrete letto e straletto del cosiddetto "manifesto di Palantir", quella ventina
di punti su Twitter che riassumono il libro di Alex Karp, CEO di Palantir. E
avrete letto e straletto della cosiddetta "intervista a Claude" fatta nientemeno
che da Walter Veltroni sul Corriere.
Voglio parlare non dell'una o dell'altra cosa, perché sono chiaramente due
stupidate, ma di quello che rappresentano, che invece secondo me è
interessante."
Ascolta il podcast di Walter Vannini
Oppure leggi la trascrizione
Tag - Intelligenza Artificiale
Nelle ultime settimane è aumentata in tutta Europa la resistenza
all'introduzione dell'Interlligenza Artificiale nelle scuole e nell'università.
Diamo conto di due iniziative, una proveniente dall'ambiente accademico italiano
e una dalle università olandesi.
UNA VISIONE REALISTICA DELL’INTELLIGENZA ARTIFICIALE - LETTERA APERTA ALLA
SOCIETÀ
"Negli ultimi anni, le tecnologie informatiche comunemente note come
"intelligenza artificiale" sono entrate con forza nel dibattito pubblico, con
l’arrivo e la diffusione esplosiva dei sistemi generativi. Si parla di
rivoluzione, di macchine che “pensano”, di coscienza artificiale, di
sostituzione delle persone. In questo contesto, riteniamo necessario riportare
la discussione su basi chiare e realistiche.
Una domanda semplice resta spesso senza risposta: che cosa sono davvero questi
sistemi, e a che punto siamo realmente?
Proviamo a fare chiarezza."
Leggi la lettera
LETTERA APERTA: “BASTA CON L’ADOZIONE ACRITICA DELLE TECNOLOGIE DI INTELLIGENZA
ARTIFICIALE NELLE UNIVERSITÀ”
Con questa lettera, prendiamo una posizione di principio contro la
proliferazione delle cosiddette tecnologie di “intelligenza artificiale” nelle
università. In quanto membri di un’istituzione educativa, non possiamo tollerare
l’uso acritico dell’IA da parte di studenti, professori, ricercatori o
dirigenti. Chiediamo inoltre di riconsiderare tutti i rapporti finanziari
diretti tra le università olandesi e le aziende di IA. Introdurre le tecnologie
di IA senza restrizioni conduce a violare lo spirito della legge europea
sull’IA. Mina i nostri valori pedagogici fondamentali e i principi
dell’integrità scientifica. Ci impedisce di rispettare i nostri principi di
indipendenza e trasparenza. E, cosa più preoccupante, è stato dimostrato che
l’uso dell’IA ostacola l’apprendimento e disabilita il pensiero critico.
Leggi la lettera tradotta in italiano
Le ultime due puntate di DataKnightmare: L'algoritmico è politico, smontano
completamente la narrazione sul nuovo prodotto di Anthropic, Claude Mythos,
"così potente da non potercelo far usare" e sull'utilità e affidabilità degli
"Agenti intelligenti".
Puntata DK 10x29 - Un tiro di dati
Che differenza c'è fra un "agente intelligente" che cancella il tuo lavoro e un
modello linguistico che ti racconta la vera storia degli orsi nello spazio?
"La storia ve la racconto senza gergo perché è una storia che vale per tutti,
non solo per chi fa software.
C'è un tizio che si chiama Giorg che ha una piccola azienda che produce un
gestionale per agenzie di noleggio per lo più autonoleggi.
Siccome Giorg è uno che sta sempre sul pezzo, per scrivere codice si appoggia a
un agente intelligente, nello specifico cursor con opus 4.6 di Anthropic. Per i
non addetti ai lavori, è lo stato dell'arte degli agenti intelligenti per
scrivere codice.
Che cosa è successo?
È successo che l' agente intelligente ha cancellato tutto, ma tutto tutto tutto
in nove secondi. Così, de botto, senza senso.
Ora, agente intelligente è un termine di marketing per indicare un modello
linguistico con la capacità di interagire con il proprio ambiente.
Il resto della storia e le considerazioni di Vannini potete ascoltarlo su
spreaker
Puntata DK - 10x28 Claude Mythos
Come sempre, quando gli AI bros annunciano, non è vero niente
Forbes scrive: Claude Mythos ha individuato vulnerabilità zero day in tutti i
principali sistemi operativi e browser web in modo completamente autonomo, senza
bisogno di alcun intervento umano. Apparentemente, a Forbes se la bevono un po'
troppo facilmente perché nell'annuncio originale, Anthropic dice questo.
Cito. "Classificiamo ogni bug che individuiamo. Quindi inoltriamo quelli con il
livello di gravità più elevato, a valutatori professionisti, affinché li
verificino prima di segnalarli al responsabile del progetto."
Quindi, come sempre, siamo di fronte a uno strumento che confronta del codice
con degli esempi di cosa possa essere una vulnerabilità e produce un report.
Si chiama analizzatore statico e ne esistono da decenni...
Ascoltate tutta la storia su spreaker
La fallacia del “modello linguistico” sarebbe rimasta confinata nel mondo della
matematica astratta se le multinazionali della Silicon Valley non avessero un
bisogno disperato di ripagare, almeno in parte, gli enormi investimenti fatti al
buio nell’intelligenza artificiale. Il mercato non ripaga: le grasse commesse
pubbliche, meglio se militari, sì. Con esiti fatali, come dimostra il
bombardamento della scuola Minab, in Iran, a fine febbraio
“È la generazione, attraverso modelli, di un reale privo di origine o di realtà:
un iper reale. Il territorio non precede più la mappa, né le sopravvive. È
tuttavia la mappa che precede il territorio -la precessione dei simulacri- a
generare il territorio”, Jean Baudrillard, “Simulacres et Simulation”, 1981.
[...]
Dopo lo sversamento all’esterno dei laboratori di ricerca dei modelli
linguistici seguito al lancio di ChatGPT, informatica e politica sembrano preda
di un pensiero molto simile a quello dei cartografi del racconto di Borges. La
sana fiducia nell’utilità di modelli matematici per predire il comportamento del
mondo fisico si è tramutata in fede cieca e assoluta. Secondo le imprese della
Silicon Valley (e i loro protettori alla Casa Bianca) dovremmo prendere questi
modelli a nostra “mappa del mondo”, per orientarci nel prendere decisioni
importanti, soprattutto in emergenza.
Leggi l'articolo di Stefano Borroni Barale
"Intelligente? Artificiale? Un approccio critico alle Linee Guida del MIM" è il
titolo dei corsi di formazione che si terranno martedì 5 maggio a Catania e
lunedì 18 maggio 2026 a Napoli.
Proseguono i corsi di formazione con approccio critico all'introduzione
dell'Intelligenza Artificiale nelle scuole secondo le linne guida del MIM. I
prossimi appuntamenti saranno al sud: Catania e Napoli.
In entrambi gli appuntamenti avrà luogo un laboratorio di "Pedagogia hacker.
Strumenti e rimedi contro l'alienazione digitale a scuola" a cura di Stefano
Borroni Barale.
Scopo di questo gruppo di lavoro sarà dotarsi di alcuni semplici strumenti per
contrastare l'alienazione di docenti e studenti rispetto al monopolio Big Tech
del digitale a scuola. Con questi saremo in grado di costruire insieme un gruppo
di lavoro, studio e auto-aiuto per proseguire azione e formazione sul
territorio, in collegamento con la campagna "IA Basta!", dopo la giornata di
formazione
A Napoli il corso sarà impreziosito dalla presenza di Richard Stallman -
Fondatore Free Software Foundation e leader del progetto GNU Perché le scuole
dovrebbero usare esclusivamente software libero ed evitare la “pretend
intelligence”
I corsi sono gratuiti. I docenti, dirigenti e personale ATA potranno beneficiare
dell'esonero dal servizio.
Tutte le informazioni sul sito di CIRCE
La newsletter di Pieranni di questa settimana da voce a Sabrina Ardizzoni che
fornisce uno spaccato della vita urbana e digitale della Cina del 2026,
illustrando il fenomeno delle “giovani sbarbine” (traduzione alla Freak Antoni
di Sabrina Ardizzoni).
Nella newsletter c’è anche:
* la nuova release di DeepSeek,
* le nuove linee guida sulla neutralità carbonica
* una segnalazione di una mostra a Shanghai
[...]
Dopo le “donne avanzo” (shengnü), le “donne virtuose” (xian qi liangmu) e la
figura della “mamma tigre”, fino al recente fenomeno dei giovani “sdraiati”
(tang ping), il panorama mediatico cinese continua a produrre categorie utili
all’interpretazione di tensioni sociali profonde. In questo quadro si inserisce
un nuovo termine, ancora poco stabilizzato ma già fortemente evocativo: quello
delle jingshen xiaomei.
La traduzione del termine è decisamente sfidante: unisce jingshen (spirito,
vitalità, ma anche dimensione emotiva e affettiva) e xiaomei (“sorellina”, in
senso affettivo o relazionale). In italiano si potrebbe rendere con “ragazze
sveglie”, ma qui proporrei un’espressione gergale bolognese come “sbarbine” –
ereditata dal repertorio lessico-grafico di Freak Antoni, fondatore e anima
degli Skiantos, che negli anni Ottanta del secolo scorso cantavano “Mi piaccion
le sbarbine”.
Leggi la newsletter
Nel digitale tutto è scrittura – i siti web, i social media, le immagini e i
video, ogni azione, come mettere un like o comprare qualcosa – tutto è fatto di
scrittura, nelle sue fondamenta di codice informatico, ma la maggior parte di
questa scrittura rimane nascosta ai nostri occhi, esclusa by design dagli
schermi che ci circondano e su cui passa una parte sempre più grande delle
nostre vite.
L’«imperativo funzionale» di cui parla Marcello Vitali-Rosati in Éloge du bug.
Être libre à l’époque du numérique (Zone, 2024) è incorporato nei dispositivi e
nei servizi che ci circondano e ci dice, anzi, ci impone di non preoccuparci di
come funzionano, di come sono stati costruiti e di quale influenza hanno su di
noi e sui nostri comportamenti, anzi: applicazioni, telefoni e piattaforme
devono essere il più semplici e intuitivi possibile, funzionare senza intoppi,
in modo da renderci produttivi ogni istante che passiamo a usarli e a esserne
usati.
Ogni volta che agiamo all’interno di un social media commerciale, che facciamo
una ricerca su Google, che usiamo un chatbot basato su un modello linguistico
noi stiamo di fatto lavorando anche se ci stiamo svagando, siamo produttivi e
contribuiamo alla creazione di valore per il pugno di aziende che ha costruito
un oligopolio a cui è quasi impossibile sottrarsi.
Argomenti dell'articolo
1. Il nodo del linguaggio: IA, scrittura, creatività
2. Travolti dal digitale?
3. IA, agenda neoliberale e speculazione finanziaria
4. Un excursus su IA e guerra
5. Per una critica radicale dell’IA e dei suoi presupposti ideologici
6. Costruiamo un futuro tecnologico diverso
Leggi l'articolo di Roberto Laghi
Perché l'incontro tra Robotica e LLM ha attivato un'esplosione cambriana
nascosta di nuove armi autonome? E cosa c'entra in tutto questo il cubo di
Rubik?
L'anno scorso Cassandra aveva letto un articolo su Wired che dava conto di un
nuovo record del mondo (del Guinness dei Primati). Si dava conto che alla Purdue
University a giugno del 2025 un robot specializzato aveva battuto il record di
velocità per la soluzione di un cubo di Rubik, stracciando il precedente record
"robotico", detenuto dal 2024 da Mitsubishi Electric, che era di 305
millisecondi, tre decimi di secondo. Il nuovo record è di 103 millisecondi, un
decimo di secondo.
Ora per comprendere l'impatto delle cose nuove con la realtà, bisogna non
pensare solo ai numeri o ai record, ma alle loro relazioni con le cose più
comuni e normali. Un decimo di secondo significa che è impossibile riprendere
l'evento con una normale cinepresa, perché si vedrebbero solo il fotogramma
iniziale e quello finale, certamente molto, molto mossi. Anche se si tratta di
un gioco, parliamo di capacità così sovrumane da dare da pensare. Meccanismi
automatici che agiscono sul mondo fisico, facendo le stesse cose che potremmo
fare noi, solo in modo, appunto, sovrumano. Parentesi: meno male che li
controlliamo noi... forse.
[...]
Ben prima dell'avvento degli LLM Cassandra aveva profetizzato che le LAWS erano
già tra noi, se non altro nei laboratori di ricerca militare, perché per
ottenere un'arma autonoma bastava semplicemente cambiare il firmware a un
benevolo automa lavoratore o a un sistema d'arma di tipo passivo. Ma oggi
possiamo facilmente fare di più e meglio. Basta aumentare, se necessario, le
capacità informatiche di un sistema d'arma, e dotarlo di un nuovo software che
utilizzi gli LLM per mimare le capacità umane di linguaggio, sia in input che in
output; mimare cioè quelle interazioni umane, realizzate in linguaggio naturale,
che normalmente fanno parte del loop di autorizzazione di qualsiasi sistema
d'arma.
Ecco che l'uomo può essere facilmente rimosso dal loop di comando, e il sistema
d'arma diventa completamente autonomo. A questo punto Cassandra prevede due
obiezioni; e le tratterà subito.
Leggi l'articolo
“La guerra è il dominio dell’incertezza: tre quarti delle cose su cui si basa
l’azione bellica giacciono nella nebbia di un’incertezza più o meno grande”. A
due secoli di distanza dal trattato di strategia militare Della guerra di Von
Clausewitz, potremmo dire che, oggi, uno dei principali obiettivi dell’impiego
dei sistemi d’intelligenza artificiale in ambito bellico è proprio quello di
dissipare quanto più possibile la celeberrima “nebbia della guerra” teorizzata
nell’Ottocento dal generale prussiano.
Navigare e pattugliare territori estesi attraverso droni a guida autonoma,
riconoscere e classificare rapidamente gli obiettivi che compaiono in video e
immagini, ottenere un’analisi predittiva delle minacce, stimare i potenziali
danni collaterali, rilevare anomalie. Tutti gli impieghi militari
dell’intelligenza artificiale hanno principalmente due scopi: ridurre
l’incertezza – raccogliendo, filtrando e interpretando enormi quantità di dati
provenienti da sensori, satelliti, droni e sistemi di intelligence – e aumentare
la velocità decisionale, valutando le opzioni operative in tempi ridotti,
stimando rischi e conseguenze, coordinando le unità e reagendo quasi in tempo
reale agli sviluppi del conflitto.
Il paradosso è che questi algoritmi predittivi – che aggregano migliaia di dati
di intelligence raccolti da centinaia di fonti diverse – in molti casi rischiano
di infittire, invece che diradare, la nebbia della guerra, perché producono una
tale quantità di informazioni da rendere la loro interpretazione e gestione
particolarmente complessa. Ed è qui che entrano in gioco i modelli linguistici
di OpenAI, Anthropic, xAI e, in Europa, Mistral, il cui compito è aiutare a
dissipare la coltre di nebbia provocata dall’enorme mole di dati prodotti dai
sistemi predittivi.
Leggi l'articolo
il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza
artificiale e il potere delle big tech. Ospiti della puntata:
* Irene Doda autrice de "Onnipotenti"
Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica
che ha trasformato il cuore dell’innovazione tecnologica occidentale nel
laboratorio politico della nuova destra globale. E mostra come la retorica
della libertà individuale e dell’emancipazione digitale abbia mascherato
vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione
dell’immaginario collettivo, erosione dei principi democratici.
* Dario Guarascio autore di "Imperialismo digitale"
Le Big Tech supportano strategie belliciste e partecipano direttamente alle
attività militari e di intelligence. Lo Stato non può fare a meno delle loro
capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo
negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le
Big Tech locali e il Partito comunista.
* Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter
Thiel"
Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare
di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura
strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza
e sorveglianza basate sulla predizione dei crimini (stile Minority Report),
fino ai teatri di guerra come Gaza
Your browser does not support the audio tag.
Ascolta le altre puntate di Tabula Rasa