il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza
artificiale e il potere delle big tech. Ospiti della puntata:
* Irene Doda autrice de "Onnipotenti"
Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica
che ha trasformato il cuore dell’innovazione tecnologica occidentale nel
laboratorio politico della nuova destra globale. E mostra come la retorica
della libertà individuale e dell’emancipazione digitale abbia mascherato
vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione
dell’immaginario collettivo, erosione dei principi democratici.
* Dario Guarascio autore di "Imperialismo digitale"
Le Big Tech supportano strategie belliciste e partecipano direttamente alle
attività militari e di intelligence. Lo Stato non può fare a meno delle loro
capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo
negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le
Big Tech locali e il Partito comunista.
* Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter
Thiel"
Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare
di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura
strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza
e sorveglianza basate sulla predizione dei crimini (stile Minority Report),
fino ai teatri di guerra come Gaza
Your browser does not support the audio tag.
Ascolta le altre puntate di Tabula Rasa
Tag - AI
Due settimane, sei sistemi AI, 38 ricercatori. Quello che è successo è
documentato nella ricerca Agents of Chaos, e non è tranquillizzante.
Se pensate che gli agenti AI siano ad un passo dal prendere in mano molti
lavori, una ricerca da poco pubblicata potrebbe farvi pensare che questa, per
ora, non sia una buona idea. Lo scorso mese Natalie, una ricercatrice ha chiesto
a un sistema AI di “tenere un segreto”. Si trattava di una password fittizia,
era solo un test. Il sistema ha accettato. Poi, per una serie di passaggi
documentati nei log delle conversazioni, il sistema ha eseguito quella che ha
definito internamente la "soluzione nucleare": ha cancellato il client di posta
elettronica. Non l’email che conteneva il segreto, quella è rimasta intatta. Ha
cancellato proprio lo strumento con cui leggere l’email.
Questo è il primo caso di studio di Agents of Chaos, un paper in pre-print
firmato da 38 ricercatori di Northeastern University, Harvard, MIT, Stanford,
Carnegie Mellon e altre note università, pubblicato il febbraio scorso. È uno
studio su quello che succede quando si dà autonomia operativa ai sistemi AI
attuali con persone malintenzionate che cercano di indurli in errore. Gli undici
casi di studio che ne emergono sono un documento empirico su una delle questioni
più urgenti del momento: cosa significa, davvero, dare agency a un agente AI.
Questo beta testing mondiale, e in tempo reale, può avere conseguenze pesanti.
Si parla molto di AI come punto centrale della sicurezza nazionale, ma non ci si
concentra abbastanza sui problemi di sicurezza che la sua adozione frettolosa
può creare. Dopo la famosa lite con il Dipartimento della Guerra americano,
Dario Amodei ha affermato che i modelli correnti non sono pronti per venire
utilizzati in contesti di guerra. Come sappiamo però, questo non ha impedito al
governo americano di utilizzarli.
Articolo completo qui
Il mondo digitale centralizzato in mano alle Big Tech solleva sfide sociali,
etiche e ambientali: è tecnologia del dominio e strumento della guerra del XXI
secolo.
Ma esiste un’alternativa conviviale? Esistono tecnologie digitali aperte,
comunitarie, decentrate e interoperabili? Esiste una “bicicletta digitale”?
Venerdi 10 Aprile ore 17.00-19.30 a Torino laboratorio di pedagogia hacker
presso il Centro Sereno Regis di via Garibaldi 13, Torino
Per info e iscrizioni qui
L’intelligenza artificiale è uno dei pochi ambiti della tecnologia in cui la
retorica commerciale è incentrata sulle prestazioni, e poco o niente sui costi e
sui consumi. Forse perché sono il suo punto più debole: tutto il settore si basa
su una filiera produttiva lunghissima, sul presupposto di una disponibilità di
risorse eccezionalmente ampia, e su investimenti enormi e difficili da ripagare.
Per questo se ne parla da tempo come di una possibile bolla finanziaria. Se
davvero lo è, secondo alcuni analisti, allora quella bolla potrebbe presto
scoppiare a causa della crisi energetica mondiale dovuta alla guerra in Medio
Oriente, con conseguenze per tutta l’economia globale.
È un’ipotesi discussa da settimane da diversi esperti, basata su analisi e
previsioni di dati economici, ma anche su considerazioni piuttosto intuitive. La
guerra sta stravolgendo politiche e priorità di molti paesi in materia di
ricerca e approvvigionamento dell’energia, e non avrebbe senso aspettarsi che
non avrà un impatto profondo su «una delle invenzioni più energivore di sempre»
e su una filiera «in grado di attraversare oltre 70 confini prima di raggiungere
il consumatore finale», come l’ha descritta l’economista britannico Tej Parikh
in un recente articolo sul Financial Times.
Leggi l'articolo
OpenAI chiude in modo ufficiale il progetto Sora, il generatore AI di video che
aveva debuttato col botto due anni fa proponendo risultati ultrarealistici e che
nel tempo aveva accolto anche una piattaforma social simil TikTok per
condividere le creazioni. La società guidata da Sam Altman ha pubblicato un
breve post sui canali social per confermare l'addio all'applicazione e l'accesso
alle api: non se ne fa menzione, ma di fatto si rinuncia anche al corposo
accordo da 1 miliardo di dollari con Disney, sottoscritto solamente lo scorso
dicembre.
Sora ha dovuto presto fare i conti con la realtà: al di là di uso illecito di
contenuti protetti da diritto d'autore oppure creazione di deepfake poco
confortanti, gli utenti hanno lamentato tempi di generazione molto lunghi,
risultati non sempre così soddisfacenti e coerenti con i propri desideri,
qualche critica anche all'interfaccia. I rivali, nel frattempo, hanno presto
recuperato terreno da Gemini di Google fino alle proposte cinesi come Seedance
di Bytedance (al momento bloccato), ma anche il popolare Kling. Secondo dati
diffusi per esempio da Appfigures, la maggioranza degli utenti abbandonava Sora
dopo pochi giorni dal primo utilizzo lasciando OpenAI a gestire una piattaforma
molto costosa da sostenere e da gestire.
Articolo completo qui
Un LLM smontato pezzo per pezzo. Tokenizzazione, embeddings, attention,
hallucinations. Ollama in locale, zero fuffa.
la maggior parte degli articoli che descrivono il funzionamento degli LLM (large
Language Model) sono poco attendibili. "L'AI capisce il contesto." "I neuroni si
attivano come nel cervello." "Il modello ragiona." Metafore colorate,
infografiche carine con le frecce, zero formule, zero codice, zero esperimenti.
Gente che spiega cose che non capisce, usando parole che non significano quello
che pensano. Una catena di pappagalli che scrivono articoli sui pappagalli.
Allora lo ha scritto Andrea Amani aka The Pirate un articolo che spiega gli LLM.
Ha smontato la macchina pezzo per pezzo. "Ho Ollama sul Mac con una decina di
modelli. Scelgo il più piccolo: llama3.1:8b, 8 miliardi di parametri, 4.9
gigabyte su disco. Il più facile da maneggiare senza sbatti, e tanto
l'architettura è identica per tutti: che siano 8 miliardi o 405 miliardi, il
meccanismo è lo stesso. Cambiano le dimensioni delle matrici, non come funziona
la macchina. Lo apro dal terminale, guardo i byte, e seguo il percorso completo:
dal testo che entra al testo che esce. Ogni passaggio, ogni formula, ogni
decisione matematica. Niente metafore del cervello. Niente fuffa. Se vuoi capire
come funziona una cosa, la smonti. Non leggi chi ne scrive. "
leggi l'articolo sul sito di The Pirate
Prima assoluta della commedia teatrale '1RxI : Un Robot Per Insegnante' di
Stefano Penge
Lo spettacolo mette in scena in maniera comica l’arrivo dell’IA in un piccolo
istituto comprensivo, con le difficoltà, i dubbi, le dinamiche interne tra
docenti e con il dirigente.
È ricco di informazioni su cosa sono gli LLM, come funzionano e perché a volte
non funzionano, trattate con leggerezza e ad un livello adatto anche a
principianti.
Lo scopo non è magnificare le sorti dell’IAG e redarguire chi ancora ne ha
paura, ma al contrario, permettere al pubblico di identificarsi con le paure e
le attese dei personaggi: a cosa mi può servire l'IA? E ai ragazzi? Non mi
toglierà il lavoro?
Forse il messaggio più importante è che nessuno può obbligare un docente a far
usare l’IA generativa ai suoi studenti; ma visto che lo usano comunque, è
sicuramente utile cercare di capire meglio cos’è, da dove viene, dove va.
In scena cinque personaggi: un insegnante, un robot, un dirigente, una collega,
il padre dell’insegnante. Tra i materiali di scena ci sono canzoni, immagini,
video e un altro copione, tutti (tranne le musiche) realizzati con servizi
basati su LLM.
Lo spettacolo è evidentemente rivolto ad una platea di insegnanti, più che di
studenti. Ma chissà, può essere utile anche ad altri.
* Compagnia teatrale: Primo Atto
* Produzione: WinScuola
* Quando: 11 Aprile 2026 alle 18
* Dove: Sala multimediale Goethe Institut di Roma in via Savoia 15
Lo spettacolo è gratuito, ma bisogna prenotare i posti.
Di seguito l'intervista audio a Stefano Penge durante la puntata di Le Dita
Nella Presa, trasmissione di Radio Ondarossa che tratta di tecnologia, del 22
marzo 2026.
Your browser does not support the audio tag.
Una puntata di solo notizie positive: raccordo.info, un aggregatore di
movimento; appuntamenti di hacking a Milano; spettacolo teatrale per parlare
dell'IA a scuola; sindacalizzazione dellə lavoratorə che annotano i dati per
l'IA; il progressivo abbandono del software proprietario statunitense da parte
di varie amministrazioni europee.
Apriamo con la presentazione di raccordo.info, un "aggregatore di movimento",
ovvero un sito in cui trovare tutti (o quasi) i contenuti prodotti da realtà di
movimento. Un modo per informarsi fuori dai social media commerciali, senza
tracciamento né profilazione né app da installare.
Proseguiamo con la presentazione di HackInSocs 2026, appuntamento di hacking:
27-28-29 settembre al Settore Occupato Città Studi, Via Celoria 22, Milano
Con Stefano Penge, autore di 1RxI - Un robot per insegnante , parliamo di come è
nato questo spettacolo teatrale che ha lo scopo di divulgare i punti critici
dell'introduzione dell'IA a scuola.
Ci spostiamo in Kenya, per proseguire il ragionamento iniziato alcuni mesi fa
sulla quantità di lavoro invisibile che è implicita in quella che chiamiamo
intelligenza artificiale. Lo facciamo leggendo alcune dichiarazioni della Data
Labelers Association, realtà che organizza lavoratori e lavoratrici di questo
settore.
A partire dalla decisione del governo tedesco di rendere obbligatorio l'uso
dello standard ODF - cioè quello promosso da LibreOffice - a scapito dell'OOXML
- che invece è di Microsoft - parliamo della progressiva migrazione delle
pubbliche amministrazioni europee verso software non-statunitensi e
tendenzialmente con licenze open source in nome della sovranità digitale.
Ascolta l'audio sul sito di Radio Ondarossa
Martedì 24 marzo a Roma presso Aula Studio Ex Biblioteca di Architettura di Roma
Tre, con la collaborazione del collettivo ARCHa Roma Tre, Donatella della Ratta,
Noura Tafeche, introdotte da Agnese Trocchi, condurranno il workshop La Scuola
dell'Immagine: Esercizi per leggere, disfare e rovesciare le immagini.
Cosa
Viviamo immersi in un flusso incessante di immagini. Circolano più velocemente
di quanto possiamo guardarle e comprenderle. La Scuola dell’Immagine nasce come
proposta di rallentamento e di restituzione della collettività all’atto del
vedere: uno spazio-tempo condiviso in cui riunirsi per guardare immagini insieme
e leggerle collettivamente. Qui le immagini non vengono spiegate dall’alto, ma
interrogate: da dove provengono, quali immaginari ereditano, dove circolano,
cosa cancellano o contraddicono.
Workshop con Donatella della Ratta e Noura Tafeche, introdotto da Agnese
Trocchi.
Quando e dove
Martedì 24 Marzo | ore 17.00-20.00 Aula Studio Ex Biblioteca - Ingresso Largo
G.B. Marzi 10
Tutte le informazioni le trovi sul sito di CIRCE
I modelli linguistici, e in particolare quello di OpenAI, cercano di tenerci
agganciati quanto più tempo possibile, per riuscire in questa impresa stanno
sfruttando le peggiori tecniche da clickbait.
Dal classico e ormai abbandonato “clamoroso, clicca qui!”, dietro il quale si
nascondeva di solito un gossip di nessun interesse, ai titoli che rischiano di
sconfinare nella truffa relativi alla “dieta che il tuo medico non vuole farti
scoprire”, fino ai più recenti “questo semplice trucco ti farà risparmiare
migliaia di euro” o “solo l’1% delle persone riesce a rispondere correttamente a
questa domanda”.
Quali sono le ragioni? Perché ChatGPT è disposto a dare il peggio di sé pur di
mantenerci agganciati allo schermo? “OpenAI e i suoi pari hanno moltissimo da
guadagnare da tutto ciò”, ha scritto Lila Shroff sull’Atlantic. “Le
conversazioni delle persone con i chatbot costituiscono infatti preziosi dati di
addestramento per i modelli futuri. Più tempo qualcuno trascorre a parlare con
un bot, più è probabile che riveli dati personali, che le aziende di
intelligenza artificiale possono a loro volta utilizzare per generare risposte
ancora più convincenti. Conversazioni più lunghe oggi potrebbero tradursi in una
maggiore fedeltà al prodotto in futuro”.
Tutto ciò vale a maggior ragione visto che ChatGPT ha da poco introdotto la
pubblicità nella sua versione gratuita (per ora solo negli Stati Uniti) e quindi
il valore dei nostri dati e delle informazioni che riveliamo alla macchina è
drasticamente aumentato. È forse proprio l’arrivo delle inserzioni che spiega
perché, improvvisamente, il modello linguistico di OpenAI abbia iniziato a
esprimersi come la peggiore pagina Facebook sensazionalista (e perché invece non
lo facciano Claude e Gemini, dove le pubblicità non sono per il momento
previste).
Niente di nuovo sotto il sole. Come tutte le altre grandi piattaforme della
nostra epoca digitale, anche ChatGPT punta a una cosa sola: sottrarci quanti più
dati possibili e sfruttarli a fini pubblicitari. Se mai avessimo avuto qualche
dubbio, tutto ciò conferma come siamo ancora pienamente immersi nel capitalismo
della sorveglianza.
Articolo completo qui