Il 30 aprile la puntata di Fahrenheit ha ospitato Agnese Trocchi, ricercatrice
di CIRCE e autrice del libro Internet Mon Amour (Altraeconomia) e Leonardo
Bianchi, giornalista e scrittore, curatore di Complotti!, una newsletter di
Internazionale sul complottismo.
Da Gesù al mafioso: Trump il banalizzatore. Hanno parlato della propaganda nelle
piattaforme digitali, della funzionamento dei social media commerciali, delle
tecnologie conviviali e naturalmente di Internet Mon Amour: il pentamerone
hacker, sci-fi, femminista di cui è autrice Agnese Trocchi.
Ascolta l'audio
Your browser does not support the audio tag.
Su Raiplay Play Sound si può ascoltare la puntata completa
Tag - Audio
In questa puntata di Hackordie, in onda un martedì si e uno no su Radio Città
Fujiko:
* che cosa vuol dire autonomia e indipendenza tecnologica soprattutto a livello
di uso istituzionale.
* Alcuni strumenti per liberarsi o comunque per rendersi più indipendenti in
attività che possono essere lavorative ma non necessariamente,
C'è una tendenza, c'è un movimento che sta prendendo abbastanza forza per
liberarsi del monopolio della tecnologia prodotta dalla Silicon Valley.
Quando sosteniamo che la tecnologia non è mai neutra e anzi è politica, una
delle risposte che più spesso ci viene rivolte, una delle obiezioni più comuni,
è che gli strumenti sono neutri ma dipende dall'uso che ne facciamo.
È interessante notare però come al cambiare della situazione politica
internazionale cambino anche gli approcci alla tecnologia e ciò conferma che la
tecnologia, non solo non è neutra, ma è anche pienamente politica.
L'esempio più importante e più significativo degli ultimi anni è il fatto che i
governi europei, l'Unione Europea stessa, stiano iniziando dei percorsi in modo
variato, magari un po' precario, ma comunque stiano iniziando dei percorsi per
rendersi indipendenti dalle tecnologie americane, dalle tecnologie prodotte
nella Silicon Valley.
Nella seconda parte di puntats si parla della suite drive di Cryptpad ospitata
su Disroot.org
Ascolta la puntata
il tema della puntata di giovedì 2 aprile è l'impatto dell'intelligenza
artificiale e il potere delle big tech. Ospiti della puntata:
* Irene Doda autrice de "Onnipotenti"
Nel suo libro, Irene Doda ricostruisce la traiettoria ideologica e politica
che ha trasformato il cuore dell’innovazione tecnologica occidentale nel
laboratorio politico della nuova destra globale. E mostra come la retorica
della libertà individuale e dell’emancipazione digitale abbia mascherato
vecchie e nuove forme di dominio: disuguaglianze crescenti, colonizzazione
dell’immaginario collettivo, erosione dei principi democratici.
* Dario Guarascio autore di "Imperialismo digitale"
Le Big Tech supportano strategie belliciste e partecipano direttamente alle
attività militari e di intelligence. Lo Stato non può fare a meno delle loro
capacità finanziarie, infrastrutturali e tecnologiche. Quanto sta avvenendo
negli USA trova conferma in Cina, dove troviamo la stessa relazione tra le
Big Tech locali e il Partito comunista.
* Luca Ciarrocca "L'anima nera della Silicon Valley, la vera storia di Peter
Thiel"
Thiel cofonda PayPal ed è tra i primi a scommettere sul dominio tentacolare
di Facebook e Airbnb. Con Palantir trasforma i dati nell’infrastruttura
strategica del nostro tempo: dall’analisi dei sistemi sanitari alla sicurezza
e sorveglianza basate sulla predizione dei crimini (stile Minority Report),
fino ai teatri di guerra come Gaza
Your browser does not support the audio tag.
Ascolta le altre puntate di Tabula Rasa
Avete presente quella sensazione frustante che provate quando su Google appaiono
solo pubblicità e su TikTok solo video fatti dall’IA? Ora ha un nome:
enshittification. Secondo Cory Doctorow, è anche una geniale (e pericolosa)
strategia aziendale.
Il post sul quale era citata la parola venne poi ripubblicato nell'edizione del
gennaio 2023 su Wired:
«Ecco come muoiono le piattaforme: prima sono buone con i loro utenti, poi
abusano di loro per migliorare il loro rapporto con i clienti aziendali e
infine, abusano di questi ultimi per riprendersi da loro tutto il valore. E
infine muoiono. Io chiamo questo fenomeno enshittification, ed è una conseguenza
apparentemente inevitabile che deriva dalla combinazione della facilità di
cambiare il modo in cui una piattaforma alloca il valore, unita alla natura di
un "mercato a due facce", in cui una piattaforma si trova tra acquirenti e
venditori, tenendo ciascuno in ostaggio dell'altro, rastrellando una quota
sempre maggiore del valore che passa tra di loro.»
Ascolta il podcast sul sito di valori.it
Partiamo con un racconto, e un'analisi, di due sentenze a danno di Meta e Google
che indicano che queste piattaforme usano la creazione di dipendenza come
strumento fondamentale, e che questo crea danni reali alle sue utenti. Daranno
il via ad un gran numero di cause simili? E se sì, quali conseguenze potrebbero
avere?
Finché l'argomento del dibattito rimarrà confinato alle conseguenze su chi è
minorenne - invece di riconoscere che queste piattaforme sono dannose per
l'intera società - il rischio è che questo costituisca un'ulteriore spinta verso
verifiche dell'età sempre più stringenti. A tal proposito, parliamo delle leggi
in California e Brasile che introducono la verifica dell'età a livello di
sistema operativo.
Concludiamo con alcune gravi vulnerabilità recenti trovate su iOS e su Telegram.
Comunicazione di servizio: le dita nella presa non andrà in onda il 5 Aprile.
Ascolta la trasmissione nel sito di Radio Ondarossa
La puntata affronta due argomenti principali: come gli LLM rappresentano una
nuova minaccia per la privacy online e l'articolo di Matthew Honnibal che
sostiene che i migioramenti dei grandi modelli linguistici non derivini solo da
modelli sempre più grandi e costosi.
Il paper “Automated Profile Inference with Language Model Agents”
(arXiv:2505.12402) studia una nuova minaccia per la privacy online resa
possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia,
chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per
raccogliere e analizzare automaticamente le attività pubbliche degli utenti su
piattaforme pseudonime (come forum o social media) al fine di estrarre
informazioni personali sensibili, con il rischio di re-identificare le persone.
Why I don’t think AI is a bubble
https://honnibal.dev/blog/ai-bubble
L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi
tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento
comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre
più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che
questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili
“fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato
dall’integrazione con il reinforcement learning, che ha permesso di creare i
cosiddetti “reasoning models”.
Ascolta la puntata su Radio Backout
Nella puntata di oggi con Privacy Network e STRALI si parla del Sistema
Riconoscimento Automatico Immagini utilizzato daalle forze dell'ordine italiane.
Privacy Network & STRALI stanno indagando l’utilizzo di SARI Enterprise per
capire quanto viene usato, se funziona, se è compatibile con la protezione dei
dati personali., che bias emergono.
Cosa permette di fare? Chi lo utilizza? Da quanto tempo?
E AFIS (il database delle persone foto-segnalate)?
Ascolta l'audio sul sito di Radio Black out
Iniziamo segnalando un articolo da Logic che ci aiuta a riconoscere il sistema
di caste indiano nella struttura di alcune delle applicazioni di "gig economy"
destinate a quel mercato.
Con una compagna in studio facciamo delle riflessioni su un testo pubblicato sul
sito di hackmeeting. A proposito, il prossimo hackmeeting è 12-14 Giugno al Csa
Next Emerson a Firenze.
Notiziole:
* Il treno a idrogeno non lo vuole neppure la Francia. Alstom chiude la sua
unità di sviluppo su questa tecnologia, e l'Italia è rimasta l'unico
acquirente di questo treno
* No, il ChatControl non è ancora stato approvato
* Sì, Elon Musk è più forte di Gesù, almeno secondo Grok
Ascolta il podcast sul sito di Radio Onda Rossa
Oggi l’intelligenza artificiale, lasciata in mano a una manciata di miliardari,
diviene una minaccia esistenziale alla scuola. Oggi, contro questa I.A., diciamo
BASTA!
Nella trasmissione di Radio Onda Rossa, l'Ora di Buco, si riparla di
Intelligenza artificiale a scuola: un docente di informatica spiega tutto quello
che non va nelle fumose linee guida ministeriali. Inoltre presenta l'appello
alla comunità educante per rifiutare l'introduzione dell'Intelligenza
Artificiale delle multinazionali e proporre invece delle tecnologie realmente
utili a studenti, insegnanti e personale non docente della scuola.
Qui alcune riflessioni critiche e preoccupate, con l'appello da diffondere e
firmare.
Ascolta l'audio dell'intervento
Vai alla puntata dell'Ora di Buco
L'intervento a Radio Onda Rossa di un collaboratore di C.I.R.C.E. a proposito
dell'uso dell'intelligenza artificiale nella scuola a partire dalle linee guida
recentemente emanate dal Ministero dell'Istruzione evidenziandone
contraddizioni, limiti e speculazioni e sottolineando l'ennesimo trasferimento
di fondi pubblici ai privati, i soliti big tech.
Molto in sistesi: l'Intelligenza Artificiale delle multinazionali tecnologiche,
in particolare i Large Language Model, non andrebbe usata perché è insostenibile
dal punto di vista ambientale, replica discriminazioni e stereotipi della
società, standardizza scrittura e pensiero.
Ascolta l'audio dell'intervento