I costi energetici di migliaia di server che effettuano miliardi di calcoli al
secondo e i rischi per i cittadini
Bollette più alte e nuove centrali a gas per soddisfare la fame d’energia di
Meta, il colosso tech di Mark Zuckerberg. La multinazionale sta costruendo un
gigantesco data center in Louisiana, nelle campagne di Holly Ridge (una vasta
area rurale nel nord-est dello stato). Sono infrastrutture strategiche per Big
Tech: i data center contengono migliaia di server che, a loro volta, effettuano
miliardi di calcoli al secondo, lavorando senza sosta. È il “cervello”
dell’intelligenza artificiale, che se ne serve per eseguire i compiti che gli
vengono commissionati o, più banalmente, per fornirci le risposte richieste. Ma
proprio perché i computer lavorano ininterrottamente in condizioni normali si
surriscalderebbero; dunque, per evitare guasti tecnici, vanno raffreddati
artificialmente (ad esempio, tramite aria condizionata industriale ad alta
potenza). Bisogna poi alimentare la potenza di calcolo e sostenere i costi
energetici relativi ai sistemi d’illuminazione o di sicurezza
dell’infrastruttura. In definitiva, il fabbisogno complessivo di energia dei
data center è già di per sé molto elevato.
Ma Zuckerberg vuole costruire un arcipelago informatico che si estenderà su
370.000 metri quadrati (a grandi linee, un’area coperta da cinquantadue campi di
calcio regolamentari). E secondo le stime di una Ong locale, Alliance for
Affordable Energy, avrà bisogno del doppio dell’energia di cui vive New Orleans,
una città che conta quasi quattrocentomila abitanti.
Leggi l'articolo completo
Sabato 28 giugno Agnese Trocchi parteciperà a una tavola rotonda nell'ambito
dell'evento Simbionti, Pratiche di Coesistenza tra Arte, Cura e Tecnologia per
Rituali Disobbedienti presso La Pelanda al Mattatoio di Roma.
Simbionti è UN SIMPOSIO PUBBLICO PER RIFLETTERE INSIEME SUL FUTURO DELLA
TECNOLOGIA, DELL'ARTE E DELLA CURA organizzato da Erinni e ALMA Futura.
Noi interverremo nella tavola rotonda delle 18.00, dal titolo Critica ai Regimi
Computazionali
Il progetto, ideato da Erinni e ALMA Futura, invita a un confronto orizzontale
tra peers, ovvero artistə, ricercatorə, hacker, teoricə e soggettività attive
nel panorama culturale romano e nazionale nelle culture digitali. In un momento
storico in cui le tecnologie computazionali diventano sempre più pervasive,
trasformando le nostre vite e le nostre relazioni, nasce la necessità di
interrogarsi sui regimi di potere che le strutturano - e di immaginare, insieme,
alternative disobbedienti e creative.
Attraverso una lente intersezionale, transfemminista e hacker, il simposio
esplora forme di coesistenza tra umani e non umani, tra tecnologia e corporeità,
tra intelligenza computazionale e immaginazione radicale. Dopo la giornata
preparatoria di Venerdì 27 Giugno, a porte chiuse, in cui ventotto simbionti si
confronteranno e rifletteranno insieme , il pubblico è invitato a prendere parte
alla restituzione collettiva di Sabato 28 Giugno, articolata in cinque tavoli
tematici.
PROGRAMMA DI SABATO 28 GIUGNO
Cinque tavoli tematici e simbiontici, un flusso continuo di interventi pubblici
tra pratiche artistiche, tecnologia, cura e politica della relazione.
14:00 – 14:55
Nuovi Media e Corpi Sintetici
Con Martina Carbone, Andrea Cecconi, Jacopo de Blasio, Elisa Melodia, Livia
Ribichini
Corpi virtuali, organici e immateriali si intrecciano in pratiche artistiche e
performative dove le tecnologie digitali diventano dispositivi rituali, vettori
di espressione critica e strumenti di messa in discussione delle identità
normate.
15:00 – 15:55
Ecosistemi Interattivi Relazionali
Con Camilla Giaccio Darias, Greg Jager, Liminal, Massimiliano Mauro, Rhizomata
Un’esplorazione di esperienze artistiche e progettuali che sperimentano forme di
relazione non lineari e sistemi aperti, immaginando ecosistemi digitali e fisici
capaci di disinnescare gerarchie e proporre modelli conviviali e collaborativi.
16:00 – 16:55
Tra Biofilie e Simbionti
Con Andrea De Chirico, Gelatineria, Selenia Marinelli, Numero Cromatico
Ibridazioni tra umano, vegetale, artificiale e tecnologico: una riflessione su
forme simbiotiche di coesistenza, in cui la pratica artistica si fa spazio di
ricerca sul legame tra materia, ambiente e vita condivisa.
17:00 – 17:55
Rituali per Corpi Dissidenti
Con Elena Giulia Abbiatici, Maria Cristina Di Stefano, Benedetta Lusi,
Mariacristina Sciannamblo, Caterina Tomeo
Protagonisti sono i corpi non conformi, mutanti, queer e dissidenti. Un
confronto su pratiche artistiche, curatoriali e teoriche che propongono visioni
transfemministe del presente e del futuro, tra ritualità, tecnologia e
resistenza.
18:00 – 18:55
Critica ai Regimi Computazionali
Con Chayn Italia, Emanuele Perrone, Valeria Piras, Anthony Stagliano, Agnese
Trocchi
Quali dinamiche di potere si nascondono dietro le infrastrutture digitali che
abitiamo quotidianamente? Un dialogo sulle possibilità critiche, artistiche e
politiche di disobbedienza nei confronti delle piattaforme governate da grandi
corporate, tra etica hacker e pratiche radicali di riappropriazione.
SENSO E VISIONE
L’evento si ispira a una visione harawayana della simbiosi: i Simbionti sono
intesə come soggettività critiche che condividono la vita e si prendono cura
l’unə dell’altrə, nutrendosi reciprocamente. Questa comunità temporanea di 28
Simbionti – tra artistə, ricercatorə, designer, attivistə, formatorə e teoricə –
rappresenta il cuore pulsante della riflessione, contribuendo a mantenere viva
la ricchezza del tessuto culturale romano.
Qui in nomi di tutti loro: Martina Carbone, Andrea Cecconi, Jacopo de Blasio,
Elisa Melodia, Livia Ribichini, Camilla Giaccio Darias, Greg Jager, Liminal,
Massimiliano Mauro, Rhizomata, Elena Giulia Abbiatici, Maria Cristina di
Stefano, Benedetta Lusi, Mariacristina Sciannamblo, Caterina Tomeo, Chayn
Italia, Emanuele Perrone, Valeria Piras, Anthony Stagliano, Agnese Trocchi, Lara
Forgione, Andrea de Chirico, Lara Forgione, Gelatineria, Selenia Marinelli,
Numero Cromatico, Emanuele Tarducci
INFORMAZIONI
La Pelanda – Mattatoio, Roma
Sabato 28 Giugno 2025 – dalle 14:00 alle 20:00
Ingresso gratuito, fino a esaurimento posti
info:contatti@erinni.net
La famiglia di un bambino argentino di 12 anni affetto da autismo ha denunciato
il presidente Javier Milei per vessazione nei confronti del figlio intimandogli
di cancellare una pubblicazione sui social dove lo addita come un oppositore.
Secondo quanto riportato da fonti locali e dal quotidiano La Nación, il ragazzo
ha presentato un esposto alla giustizia argentina nel quale accusa Milei di aver
condiviso un messaggio di un influencer vicino al governo che lo calunnia,
definendo lui e la sua famiglia “persone cattive” e legate all’opposizione
politica, accusandoli di agire contro l’esecutivo.
La famiglia denuncia che tale comportamento costituisce una forma di violenza
simbolica, discorsiva e digitale, che viola i diritti del minore e lede la sua
dignità, soprattutto considerata la sua condizione di bambino autistico.
Milei di recente ha ripristinato le parole ‘ritardato’, ‘imbecille’, ‘idiota’
per definire le persone con disabilità.
Fonte Ansa
Aggiornamenti di attualità sul caso Paragon: le analisi smentiscono la difesa
del Copasir; letture sul tema del linguaggio che evoca lo schiavismo
nell'elettronica e informatica; Google usa le sue piattaforme per ostacolare le
alternative aperte.
Il 5 Giugno, il Copasir ha pubblicato la sua relazione sul Caso Paragon: tra le
altre cose, ci dice che Citizen Lab potrebbe averla sparata un po' grossa, e che
Francesco Cancellato potrebbe non esser mai stato intercettato. Peccato che una
settimana dopo esca un nuovo report di Citizen Lab, che indica che altri due
giornalistə europei sono stati attaccati con malware Paragon, e che uno di
questi lavora proprio a Fanpage, la testata diretta proprio da Cancellato.
Abbiamo già parlato di linguaggio escludente nell'informatica, continuiamo a
farlo ripercorrendo uno studio sull'origine dell'espressione master-slave
(padrone-schiavo). Un'espressione più recente di quanto potrebbe sembrare, e
abbastanza specifica di elettronica e informatica. Attraverso vari esempi,
vediamo che anche se è difficile dare una ricostruzione certa della sua genesi,
questa espressione non deriva dall'essere una metafora espressiva - per quanto
problematica - di un meccanismo tecnico, ma da una specifica concezione della
divisione del lavoro che prevede sempre l'esistenza di un dualismo tra
volontà/intelletto e forza bruta.
Nextcloud denuncia che Google, attraverso il Play Store, ha artificialmente
limitato le possibilità della sua applicazione per Android, rendendo più
difficile (ma non impossibile) l'utilizzo di alternative libere.
Chiudiamo con il ruolo italiano nei bombardamenti statunitensi contro l'Iran.
Ascolta sul sito di Radio Onda Rossa
Una segnalazione di lettura della Stultiferanavis: un paper pubblicato con
accesso libero su Arxiv.org dal titolo Your Brain on ChatGPT: Accumulation of
Cognitive Debt when Using an AI Assistant for Essay Writing Task
In modo disomogeneo e non così diffuso come molti raccontano, un numero
crescente di persone e di aziende fa ricorso ogni giorno a strumenti di IA
generative e ai modelli LLM. Interrogarsi su benefici ed effetti di questi
comportamenti può risultare utile, forse anche interessante.
E’ ciò che ha fatto un gruppo di ricercatori con lo studio “Your Brain on
ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay
Writing Task”, pubblicato su Arxiv.org.
Lo studio si è concentrato sull’individuazione del costo cognitivo derivante
dall’utilizzo di un LLM on un contesto particolare, quello legato alla scrittura
di un saggio.
Leggi l'articolo di Carlo Mazzucchelli
Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp,
fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato
sull’intelligenza artificiale integrato da qualche tempo in queste app e
simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non
si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi,
può capitare che vengano addirittura pubblicate online e rese leggibili a
chiunque. Come quella che avete appena sentito.
E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale
di Meta per chiedere cose estremamente personali e le sta affidando indirizzi,
situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta
pubblicando tutto quanto, con conseguenze disastrose per la privacy e la
protezione dei dati personali: non solo i propri, ma anche quelli degli altri.
Questa è la storia di Meta AI, di come mai i dati personali degli utenti
finiscono per essere pubblicati da quest’app e di come evitare che tutto questo
accada.
Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della
Radiotelevisione Svizzera dedicato alle notizie e alle storie strane
dell’informatica. Io sono Paolo Attivissimo.
Ascolta il podcast o leggi la trascrizione della puntata
Chat sicure? Non per la Casa Bianca... e forse nemmeno in Europa. Parliamo di
Trump, della nuova edizione di Chat Control, di cavi elettrici e, naturalmente,
di treni.
Iniziamo con l'ultimo episodio della saga TeleMessage: l'ennesimo bug permette
la raccolta di un database di messaggi inviati sul finto-Signal utilizzato dalla
casa bianca.
L'Europa rinomina Chat Control in Protect EU (finalmente non abbiamo più bisogno
dei bambini per giustificarlo!) ma la musica rimane la stessa, in particolare la
pretesa di avere un sistema contemporaneamente con una cifratura forte ma
accessibile alle forze dell'ordine.
I grandi progetti sottomarini nel mondo dell'elettricità nei prossimi 15 anni
dovrebbero raddoppiare i collegamenti tra le reti elettriche mondiali, inclusa
quella italiana. Vediamo quali sono i progetti in corso, quali gli impedimenti
tecnici, e soprattutto il perché.
Il nuovo contratto di servizio di ATAC prevede fulgidi miglioramenti
nell'operatività del servizio pubblico, in particolare nella Metro C. Sarà vero?
Già che ci siamo, facciamo una retrospettiva su 15 anni di bigliettazione:
l'aumento del biglietto, che avrebbe dovuto portare maggiori ricavi, è stato
inefficace, e ha invece portato ad un calo nell'utilizzo del trasporto pubblico.
Ascolta sul sito di Radio Onda Rossa
L’esperta di tecnologia ha pubblicato un libro - Empire of AI | Inside the
reckless race for total domination - che descrive un nuovo imperialismo in cui
poche aziende tech si arricchiscono sfruttando dati comuni e risorse naturali
“L’intelligenza artificiale è come un impero dove il potere è accentrato nelle
mani di pochi che si arricchiscono sfruttando le risorse delle comunità più
vulnerabili. Il rischio più grande di permettere a questi imperi di IA di
continuare ad operare è una completa perdita di potere di autodeterminazione del
nostro futuro. In quel mondo la democrazia non può sopravvivere”. Karen Hao è
un’esperta di tecnologia (ex direttrice della rivista MIT Tech Review e
corrispondente tech da Hong Kong per il Wall Street Journal) ed è arrivata a
questa conclusione dopo essere stata embedded per tre giorni dentro OpenAI e
aver condotto 300 interviste a personaggi che gravitano attorno al suo fondatore
Sam Altman, oltre ad ex dirigenti ed impiegati di Meta, Microsoft, Google,
DeepMind e Anthropic. Gli imperatori.
* UNA NUOVA ERA COLONIALE
* INTELLIGENZA INSOSTENIBILE
* CERVELLI AI-DIPENDENTI
* LA SOLUZIONE?
Leggi l'articolo
Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale:
i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La
corsa verso la vera AGI sembra più lontana che mai.
Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la
pubblicazione di un whitepaper che mette in discussione le fondamenta stesse
dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio
“The Illusion of Thinking: Understanding the Strengths and Limitations of
Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del
pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento
attraverso la lente della complessità dei problemi'', rappresenta una vera e
propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona,
imita
Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM),
quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta
sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono
semplicemente eccezionali nel riconoscere pattern e riprodurre risposte
plausibili, ma quando si tratta di affrontare problemi complessi, la loro
presunta intelligenza si sbriciola.
Leggi l'articolo