Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti
sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso
nuove incertezze.
Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT,
è uscita una seconda killer application per le false IA. Senza preavviso, un
virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben
fatto, perfettamente funzionante, installabile e configurabile con estrema
semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di
essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e
generato tramite LLM senza controllarlo.
Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si
installa e gira in locale sul computer dell'utente. Un agente Openclaw si
interfaccia con i servizi installati sul computer, ma è concepito principalmente
per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più
LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui
l'agente deve interagire; questo implica che l'agente possieda le credenziali
dell'utente, tutte le password, tutti i token per essere in grado di utilizzare
i servizi e le varie API. Cosa mai potrebbe andare storto?
Leggi l'articolo su ZEUS News
Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un
argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai
suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto
open source è un lavoro molto impegnativo per una sola persona, anche di
talento;
E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor
nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché
non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché
non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma,
possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di
cavalcare un successo assicurato, presentandolo come progetto aperto, o come
prodotto commerciale, o come qualsiasi cosa nel mezzo?
Leggi l'articolo ZEUS News
Nella puntata 16 di EM interviste a Guarascio, autore del libro Imperialismo
digitale, Borghi sul Digital Omnibus e a un attivista del collettivo Bida.
Dario Guarascio presenta il suo nuovo libro Imperialismo digitale (Laterza),
un’analisi lucida del potere delle Big Tech e del nuovo intreccio tra finanza,
tecnologia e guerra. Un viaggio dentro il "complesso militare-digitale" che sta
ridefinendo gli equilibri globali tra Stati Uniti e Cina.
Intervista a Maurizio Borghi (29:20), codirettore del "Centro Nexa su Internet e
Società", sul Digital Omnibus e sui rischi di una nuova "austerity dei diritti
digitali" in Europa. Un confronto critico sulle modifiche al GDPR, tra
competitività, IA e tutela dei diritti fondamentali.
Intervista ad un attivista del collettivo Bida (53:19), realtà che da oltre
dieci anni costruisce infrastrutture digitali autonome come alternativa concreta
alle piattaforme delle Big Tech. Parliamo di autogestione tecnologica,
mutualismo e pratiche di liberazione digitale, tra server cifrati, Mastodon,
Matrix e PeerTube.
Ascolta sul sito di Radio Onda Rossa
Durante una recente audizione al Senato degli Stati Uniti, Waymo ha ammesso che
i suoi robotaxi non sono così autonomi come la retorica aziendale lascia
intendere.
Mauricio Peña, responsabile della sicurezza dell’azienda controllata da
Alphabet, ha confermato che quando i veicoli incontrano situazioni insolite, il
controllo viene trasferito a conducenti remoti. Molti di questi operatori non
lavorano negli Stati Uniti, ma dalle Filippine e da altri paesi.
L’ammissione smonta la narrazione dell’autonomia completa e riporta al centro
una realtà scomoda: dietro i sistemi di intelligenza artificiale presentati come
rivoluzionari c’è ancora una certa dipendenza dal lavoro umano, spesso
sottopagato e delocalizzato.
La testimonianza di Waymo non è un caso isolato ma l’ennesima conferma di un
pattern industriale consolidato. L’IA si regge su una struttura ibrida in cui
l’intervento umano rimane indispensabile, pur restando invisibile agli utenti
finali. E il modello economico è sempre lo stesso: esternalizzare la
supervisione verso paesi dove il costo del lavoro è inferiore, mantenendo però
intatta la narrazione di un sistema “completamente automatizzato”.
leggi l'articolo
Your page content goes here.
Zoe Hitzig, ricercatrice che ha lavorato negli ultimi due anni in OpenAI, ha
rassegnato le dimissioni nello stesso giorno in cui l'azienda ha iniziato a
testare gli annunci pubblicitari all'interno del chatbot. La decisione è stata
spiegata in un editoriale ospitato dal New York Times, in cui Hitzig collega
direttamente il lancio della pubblicità in ChatGPT a un cambio di rotta che, a
suo giudizio, allontana OpenAI dalle domande di sicurezza ed etica per cui aveva
scelto di unirsi all'azienda.
Al centro delle critiche di Hitzig non c'è la pubblicità in sé, che la
ricercatrice non definisce intrinsecamente immorale, ma la combinazione tra
annunci e natura dei dati raccolti da ChatGPT. Nel suo intervento, descrive le
interazioni con il chatbot come un "archivio di candore umano" senza precedenti,
costruito a partire da conversazioni in cui gli utenti condividono timori
medici, problemi di coppia, fragilità psicologiche e convinzioni religiose,
spesso nella convinzione di dialogare con uno strumento neutrale e privo di
interessi propri. Il timore è che un sistema di annunci inserito in questo
contesto possa evolvere verso forme di targeting profondamente personali,
difficili da comprendere e da controllare sia per gli utenti sia per i
regolatori.
Secondo Hitzig, la fase iniziale dei test potrebbe rispettare linee guida
relativamente prudenti, ma il problema emergerebbe nel lungo periodo, man mano
che si consolida il modello di business basato sulla pubblicità. La ricercatrice
richiama esplicitamente la traiettoria dei grandi social network, e in
particolare di Facebook, dove gli impegni iniziali sulla tutela della privacy
sarebbero stati progressivamente erosi dalla pressione di un motore economico
centrato su engagement, profilazione e microtargeting. Nel caso di ChatGPT, la
combinazione tra dati conversazionali intimi e ottimizzazione algoritmica degli
annunci potrebbe creare incentivi a spingere contenuti capaci di influenzare
decisioni sensibili, dagli acquisti alla salute, fino alle opinioni politiche,
sfruttando contesti emotivi particolarmente vulnerabili.
Articolo completo qui
Fonte originale New York Times qui
Il Dipartimento di Sicurezza Nazionale ha inviato centinaia di richieste alle
principali piattaforme online, tra le quali anche Reddit e Discord, per
conoscere i dati identificativi degli account ostili alle attività dell’ICE.
Secondo il New York Times, le società coinvolte, tra cui Google, Meta
(proprietaria di Instagram, Threads e Facebook), Reddit e Discord, avrebbero
ricevuto mandati amministrativi con cui il governo chiedeva nomi, email, numeri
di telefono e altri dati utili a scoprire i titolari degli account che nelle
scorse settimane si sono esposti nel criticare le attività di quella che molti
definiscono la milizia anti-immigrati di Trump. Fonti governative e dipendenti
delle aziende, citati dal quotidiano statunitense, riferiscono che alcune
richieste sarebbero state soddisfatte, benché le piattaforme non siano obbligate
per legge a consegnare tali informazioni.
Leggi l'articolo
La gent té el poder (“People have the power”, feat. Patti Smith). A vegades no
ho recordem, de la mateixa manera que oblidem que les xarxes socials (social
network) no són els mitjans de comunicació socials (social media). Ara és el
moment de desprendre'ns de narracions i hàbits tòxics, i imaginar allò que ens
agradaria fer amb la tecnologia que estimem i com.
El 28 de febrer organitzem un taller de pedagogia hacker on parlarem de
tecnologies, educació i els riscos i beneficis de l'ús d'aquestes eines tant
presents en les nostres vides i les de les persones joves amb les quals
treballem.
El taller, que plantejarà mètodes i eines per pensar críticament la relació amb
les tecnologies digitals en l'àmbit educatiu i servirà també per compartir
recursos i accions pràctiques, serà gratuït, però podeu fer una aportació
voluntària pel lloc que ens acull.
El taller tindrà entre 20 i 25 places. Si us plau, en cas que no puguis
participar, fes-nos-ho saber almenys 5 dies abans.
Ens trobarem a les 10 del matí del 28 de febrer al Local de la Puri (c/Puríssima
Concepció, 28, Poble Sec, Barcelona).
Per saber-ne més, obre l'enllaç: https://taller.vado.li/
[English version below]
People have the power (“People have the power”, feat. Patti Smith). Sometimes we
don't remember that, just as we forget that social networks (social network) are
not social media. Now is the time to shed toxic narratives and habits, and to
imagine what we would like to do with the technology we love and how.
On February 28, we are organizing a hacker pedagogy workshop where we will talk
about technologies, education, and the risks and benefits of using these tools
that are so present in our lives and in the lives of the young people we work
with.
The workshop, which will present methods and tools for critically thinking about
our relationship with digital technologies in the educational setting and will
also serve to share resources and practical actions, will be free of charge, but
you can make a voluntary contribution to our host venue.
The workshop will have 20 to 25 spots. If you can't attend, please let us know
at least 5 days in advance.
We will meet at 10:00 AM on February 28th at the Local de la Puri (28 Puríssima
Concepció Street, Poble Sec, Barcelona).
For more information, open the link: https://taller.vado.li/
Giovedì 12 febbraio, dalle 19:00 alle 21:30, nell’ambito dell’iniziativa
100x100gaza , per rispondere collettivamente alla catastrofe provocata dal
genocidio, Rotta Genuina e Vivèro ospitano una serata di approfondimento su
cybersicurezza, controllo digitale e tecnologie conviviali.
Le tecnologie digitali non sono mai neutre: tracciano, profilano, monitorano e
spesso replicano disuguaglianze che esistono offline.
Sono strumenti di dominio con impatti sociali e politici molto concreti.
Partendo dal “Laboratorio Palestina”, dove le tecnologie digitali vengono
sperimentate come strumenti di controllo, sorveglianza e guerra, allargheremo lo
sguardo alla dimensione geopolitica globale, fino ad arrivare all’Italia, per
capire come le tecnologie controllano e attraversano i nostri territori.
Proveremo a immaginare modelli tecnologici e pratiche alternative a quelli
grandi piattaforme, costruendo insieme una nuova “cassetta degli strumenti”.
Se ne parlerà insieme a
Dario Guarascio - docente di economia a La Sapienza, autore del libro Imperialismo Digitale, Laterza
Graffio - del gruppo di ricerca C.I.R.C.E.
GazaWeb – Gli alberi della rete
Si discuterà d:
🔹 come i dispositivi digitali possono essere usati per controllare, sorvegliare
e normalizzare forme di violenza
🔹 il “Laboratorio Palestina”: sperimentazione di strumenti digitali di
controllo
🔹 il ruolo delle Big Tech e dei finanziamenti europei nel mantenimento di
questi sistemi
🔹 pratiche di boicottaggio e alternative tecnologiche conviviali
🔹 strumenti concreti di consapevolezza digitale
🔹 come sostenere progetti di tecnologie solidali e di lotta
In più: Aperitivo, banchetti di GazaWeb e Women for Gaza + raccolta fondi per la
settimana 100x100 Gaza.
Presso Vivero –via Antonio Raimondi 37, Roma | 12 febbraio | 19:00–21:30
A seguire concerto benefit da Zazie nel Metro.
Con Kenobit per imparare come e perché sperimentare il fediverso; nuove evidenze
della tossicità dei social media commerciali; il ransomware alla Sapienza e il
blocco dei siti delle olimpiadi sono davvero entrambi frutto di un attacco
russo?
Iniziamo la puntata con l'intervista a Kenobit che non siamo riusciti a fare la
settimana scorsa: parliamo del suo libro Assalto alle piattaforme e facciamo una
panoramica del fediverso.
I social media danno dipendenza "by design": è quello che mostrano sia dei
documenti pubblicati da Tech Oversight , basati su inchieste giudiziarie negli
Usa; sia il recente pronunciamento della commissione europea su Tiktok, che
viene considerato non conforme al Digital Service Act perché i meccanismi che
sono alla base (e che stanno alla base di tutti i social) creano dipendenza.
Gli hackers filorussi sono intorno a noi? Commentiamo le recenti notizie del
ransomware che ha bloccato i servizi dell'Università Sapienza di Roma, insieme a
quelle degli altri attacchi che riguardano siti internet connessi alle olimpiadi
invernali, cercando di confrontare gli articoli usciti sui giornali con le
evidenze a nostra disposizione.
Dopo aver abbandonato Meet, Zoom e Teams è ora il turno di Microsoft Office.
LaSuite, la piattaforma collaborativa ufficiale dello Stato francese sviluppata
da DINUM come alternativa strutturale alle suite Office commerciali nella
Pubblica Amministrazione. Il Paese d'Oltralpe mette al bando le soluzioni
sviluppate da fornitori statunitensi.
Strumenti come Microsoft Office e Microsoft 365 sono diventati nel tempo lo
standard di fatto per la redazione dei documenti, la gestione dei file, la
comunicazione e il lavoro collaborativo. Tuttavia, l’adozione diffusa di queste
soluzioni ha sollevato interrogativi crescenti in materia di sovranità digitale,
controllo dei dati pubblici, dipendenza da fornitori extra-europei e
sostenibilità dei costi nel lungo periodo. È in questo contesto che nasce
LaSuite, piattaforma collaborativa ufficiale dello Stato francese: un ambiente
di lavoro digitale integrato che sostituisce l’uso delle suite Office
commerciali all’interno della Pubblica Amministrazione, offrendo al personale
pubblico strumenti equivalenti per scrittura, collaborazione, gestione
documentale, comunicazione e riunioni online, ma basati su software open source,
dati ospitati in Francia e una governance interamente pubblica.
La domanda è: Perché non usare strumenti liberi esistenti?
Leggi l'articolo