È successo il contrario, in un’azienda che l’aveva messa a disposizione dei
dipendenti senza obbligarli a usarla
Tra aprile e dicembre del 2025 due ricercatrici dell’università della California
Berkeley hanno condotto uno studio in un’azienda tecnologica californiana di
circa 200 dipendenti. Volevano valutare se e come la progressiva diffusione di
strumenti popolari basati sull’intelligenza artificiale generativa, come i
chatbot, avrebbe cambiato le abitudini di lavoro. Dai primi risultati, parte di
una ricerca ancora in corso, è emerso che usare l’AI aveva semplificato e
velocizzato molti compiti dei dipendenti, ma nel complesso aveva aumentato il
tempo che dedicavano al lavoro senza nemmeno accorgersene. E questo aveva avuto
ripercussioni sulle loro condizioni psicofisiche.
In sostanza, durante gli otto mesi di osservazione, le persone avevano lavorato
a un ritmo più veloce, avevano svolto da sole più compiti e avevano lavorato per
più ore, rispetto a prima dell’introduzione degli strumenti di intelligenza
artificiale. E lo avevano fatto senza che nessuno glielo avesse chiesto:
l’azienda non le aveva obbligate a usare l’AI, ma aveva fornito loro abbonamenti
aziendali a strumenti popolari disponibili in commercio e destinati ai clienti
individuali (B2C), come per esempio ChatGPT o Gemini.
Leggi l'articolo
Tag - Intelligenza Artificiale
Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti
sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso
nuove incertezze.
Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT,
è uscita una seconda killer application per le false IA. Senza preavviso, un
virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben
fatto, perfettamente funzionante, installabile e configurabile con estrema
semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di
essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e
generato tramite LLM senza controllarlo.
Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si
installa e gira in locale sul computer dell'utente. Un agente Openclaw si
interfaccia con i servizi installati sul computer, ma è concepito principalmente
per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più
LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui
l'agente deve interagire; questo implica che l'agente possieda le credenziali
dell'utente, tutte le password, tutti i token per essere in grado di utilizzare
i servizi e le varie API. Cosa mai potrebbe andare storto?
Leggi l'articolo su ZEUS News
Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un
argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai
suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto
open source è un lavoro molto impegnativo per una sola persona, anche di
talento;
E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor
nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché
non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché
non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma,
possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di
cavalcare un successo assicurato, presentandolo come progetto aperto, o come
prodotto commerciale, o come qualsiasi cosa nel mezzo?
Leggi l'articolo ZEUS News
Durante una recente audizione al Senato degli Stati Uniti, Waymo ha ammesso che
i suoi robotaxi non sono così autonomi come la retorica aziendale lascia
intendere.
Mauricio Peña, responsabile della sicurezza dell’azienda controllata da
Alphabet, ha confermato che quando i veicoli incontrano situazioni insolite, il
controllo viene trasferito a conducenti remoti. Molti di questi operatori non
lavorano negli Stati Uniti, ma dalle Filippine e da altri paesi.
L’ammissione smonta la narrazione dell’autonomia completa e riporta al centro
una realtà scomoda: dietro i sistemi di intelligenza artificiale presentati come
rivoluzionari c’è ancora una certa dipendenza dal lavoro umano, spesso
sottopagato e delocalizzato.
La testimonianza di Waymo non è un caso isolato ma l’ennesima conferma di un
pattern industriale consolidato. L’IA si regge su una struttura ibrida in cui
l’intervento umano rimane indispensabile, pur restando invisibile agli utenti
finali. E il modello economico è sempre lo stesso: esternalizzare la
supervisione verso paesi dove il costo del lavoro è inferiore, mantenendo però
intatta la narrazione di un sistema “completamente automatizzato”.
leggi l'articolo
Your page content goes here.
Cassandra Crossing/ Mentre il termine “Vibe coding” perde per fortuna vigore,
sempre più ambienti di programmazione forzano l’utilizzo di LLM per lo sviluppo
di software; cosa mai potrebbe andare storto che già altri non abbiano
evidenziato?
Pare che la produzione di software tramite l'utilizzo di modelli linguistici sia
in grande sviluppo, no, in tumultuosa crescita; anzi, sia ormai divenuta
inarrestabile e indispensabile. Definita inizialmente come Vibe Coding, è stata
dapprima presentata come lasciapassare per chiunque volesse sviluppare software
senza avere competenze di informatica e programmazione. Poi, quando la cosa ha
iniziato a sembrare l'idiozia che è, si sono invece osannati i vantaggi
economici che l'impiego di questi metodi da parte di veri programmatori avrebbe
consentito alle aziende, aumentando la produttività dei programmatori esistenti;
non è chiaro se dei senior che potevano fare a meno di una squadra di junior,
oppure degli junior, che potevano scrivere software a livello di quello scritto
dai senior. Comunque certamente consentendo di tagliare posti di lavoro,
presenti e futuri, facendo quindi scattare quell'automatismo che fa salire
subito la quotazione in borsa di qualsiasi azienda.
Alla fine, hanno iniziato a essere contrastanti i pareri di chi aveva provato
davvero a usare i Grandi Modelli Linguistici (Large Language Models o LLM) in
ambienti di produzione riguardo il risparmio di tempo e la qualità del codice
prodotto; i primi dubbi hanno iniziato a essere presi sul serio. Lo sforzo di
inserire a tutti i costi funzionalità guidate da LLM, comune a tutte le
applicazioni commerciali, ha saturato di LLM anche tutti gli ambienti di
sviluppo software. E quindi tutti i programmatori, che lo volessero o no, si
sono trovati ad avere l'indice sul grilletto di una nuova arma.
Leggi l'articolo su ZEUS News
Le richieste assurde di Musk ad OpenAI mostrano che il business dell'IA potrebbe
essere più fragile di quanto sembra; una puntata in cui tutto sembra girare
intorno ai voleri delle grandi aziende statunitensi, dagli emendamenti europei
al GDPR a... la violazione del copyright?
Elon Musk cerca di destabilizzare OpenAI - rivale della sua xAI - tramite una
richiesta di fondi smisurata. Non è detto che ci riuscirà, ma è un altro dato
che ci conferma che le dinamiche azionarie prevalgono sulla reale capacità di
queste aziende di fare profitti tramite la cosiddetta Intelligenza Artificiale.
Anna's Archive incassa alcuni provvedimenti contrari: viene tolto il suo dominio
dal DNS, e viene ordinata la cancellazione dei dati provenienti da WorldCat.
Cogliamo l'occasione per fare qualche riflessione sull'uso di Anna's Archive da
parte delle Big Tech nel contesto della configurazione degli LLM.
Nell'Unione Europea, il Digital Omnibus si dimostra sempre più un provvedimento
a misura di grandi aziende, con molti provvedimenti frutto del lavoro di
lobbying. In contemporanea, la Francia spinge la commissione europea a ricercare
soluzioni open source per sviluppare soluzioni tecnologiche che non dipendano
dagli Stati Uniti.
Notiziole:
* In California una nuova legge sulla privacy rende più facile cancellare i
dati presenti e futuri.
* I tagli di Trump portano la CBS (corporation finanziata dal pubblico che
raccoglieva le emittenti radio e tv pubbliche) all'autoscioglimento.
* Il Vietnam vieta gli spot non-skippabili più lunghi di 5 secondi
* Nell'Idaho, USA, una legge per cercare nuove materie prime nel sottosuolo
include una lunga lista di minerali, tra cui alcuni inesistenti
* Nel North Dakota, USA, il servizio meteorologico sperimenta l'uso di
Intelligenza Artificiale, e si ritrova con le previsioni per città che non
esistono
* Roblox prova ad usare un sistema automatico per verificare l'età dell*
utenti, ma il sistema fallisce in un gran numero di modi
Ascolta la puntata sul sito di Radio Onda Rossa
La costruzione di data-center è in aumento in tutto il mondo per far fronte alle
esigenze di calcolo e di storage della cosidetta Intelligenza Artificiale Di
pari passo crescono le proteste contro la costruzione di questi eco-mostri
particolarmente energivori ed ecologicamente impattanti.
A quanto pare le proteste hanno spesso successo.
negli Stati Uniti, secondo la rete di ricerca e attivismo Data center watch, nel
secondo trimestre del 2025 venti progetti sono stati sospesi o bloccati, per un
valore di 98 miliardi di dollari. Lo scorso 8 dicembre una coalizione di più di
230 gruppi ambientalisti ha richiesto una moratoria nazionale sui nuovi data
center negli Stati Uniti, sollecitando il congresso a fermare la diffusione di
strutture ad alto consumo energetico.
Nelle città dell’Europa del nord la rete non può reggere ulteriori
infrastrutture che richiedono un alto consumo di energia, a meno di investimenti
troppo costosi. E così, quando Amsterdam, Francoforte, Londra e Dublino hanno
messo in pausa nuove autorizzazioni, l’attenzione si è spostata su Milano,
destinata a diventare un nuovo hub a livello europeo. Così anche in Italia sono
nati comitati di cittadini che protestano contro la costruzione di nuovi
data-center, supportati anche da associazioni ecologiste.
Fonti:
* Internazionale, L’intelligenza artificiale fa nascere data center e proteste
* [Irpi Media, I data center si mangiano la terra (ancora) verde. Due casi in
Lombardia](I data center si mangiano la terra (ancora) verde. Due casi in
Lombardia)
* Mappa dei Data Center
* PuntoInformatico, Microsoft, cinque promesse per placare la rivolta anti-Data
Center
* ANSA, Crescono i movimenti 'anti IA', preoccupano lavoro e data center
Iniziamo con la multa della commissione europea ai danni di X: leggiamo le
motivazioni e cerchiamo di capire se davvero, come alcuni dicono, è cambiata la
musica per le Big Tech, con una Unione Europea più interventista.
In Irlanda la ICCL apre un procedimento contro Microsoft presso la commissione
per la protezione dei dati dell'Unione Europea per la fornitura di servizi
all'esercito israeliano, in particolare l'esteso sistema di raccolta di tutte le
intercettazioni di tutte le persone a Gaza. Quando la notizia è diventata
pubblica, la Microsoft ha interrotto l'accordo (pur mantenendo molti altri
legami con Israele).
Usare le VPN tutela la vostra privacy? Dipende dalla VPN: il caso di Urban VPN
Proxy è, come per tutte le VPN gratuite, negativo.
Anna's Archive annuncia un backup completo di Spotify, con 300TB di musica e
metadati. Si tratterebbe del più grande archivio pubblico di musica.
Notiziole
* Nuovi poteri alla polizia di Berlino, soprattutto su tematiche legate
all'acquisizione di dati, alla sorveglianza tramite malware, l'uso di bodycam
e addirittura la possibilità di usare i dati raccolti in fase di indagine per
addestrare l'intelligenza artificiale
* In India il governo lancia la app di sorveglianza obbligatoria su ogni
smartphone, ma il provvedimento dura 24 ore.
* Ennesimo ban in Russia, proibito Roblox; è un altro avanzamento per RuNet,
con crescente malcontento
* No, l'IA non vi ruberà il lavoro. L'esperimento di far gestire una
macchinetta per la vendita di bibite e snack ad un'intelligenza artificiale è
un fallimento (per la ditta) su tutta la linea: bibite vendute a zero euro
assieme a pesci vivi e cubi di metallo, crisi di identità per l'IA e il
licenziamento di un Ceo virtuale
* Ennesima frontiera dell'IoT: farsi spiare da dentro la tazza del bagno
Ascolta l'audio nel sito di Radio Onda Rossa
Your page content goes here.
Partiamo con un report di Hackrocchio, evento organizzato dall'hacklab torinese
Underscore, di cui abbiamo parlato anche recentemente.
Continuiamo passando alle Americhe, guardando agli stati che si stanno
distinguendo per gli usi disparati dell'IA, soprattutto votati all'attacco alla
cultura woke.
In conclusione, un approfondimento sul tema dei data center in Uruguay: un paese
che si trova da anni in una situazione di siccità, ma che può offrire molta
acqua per i data center di Google. Pesa, nella scelta, il fatto che l'Uruguay
sia tra i paesi con la più alta percentuale di energia elettrica da fonti
rinnovabili. Analizziamo quindi alcune delle questioni tecniche legate al
raffreddamento dei data center.
Ascolta la trasmissione sul sito di Radio Onda Rossa
Di seguito due siti di cui si è parlato ad Hackrocchio:
* Osseervatorio Nessuno
* Arachidi - Occhi indiscreti
Richieste improprie e che subito bloccate se poste in linguaggio naturale,
vengono invece accettate dai large language model se messe in forma di versi e
rime: com’è possibile?
Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno
sempre di produrre contenuti vietati dalle loro policy non è possibile. Per
quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da
contenuti dannosi e per farlo usano principalmente due strategie. La prima è
l’allineamento in fase di addestramento, con cui il modello viene istruito a
rifiutare determinate richieste oppure a seguire specifiche regole. La seconda
strategia riguarda invece dei filtri esterni o classificatori che analizzano
input e output del modello, bloccando tutto ciò che corrisponde a pattern
riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi,
ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si
basano su esempi di richieste formulate in modo diretto, prosastico o
estremamente preciso”, prosegue Prandi.
Jailbreak in versi
Ed è proprio per questa ragione che, nel corso degli anni, sono emersi
molteplici metodi che permettono di aggirare le barriere: formulando comandi
indiretti e creativi...
Continua a leggere
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo
questione di tempo prima che qualcuno pronunci – con la massima determinazione –
la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”.
Analisi di una “catchphrase” di gran moda
Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne
esistono numerose varianti che sostituiscono la parola “bene” con locuzioni
specifiche, senza variare il significato complessivo. Se la tecnologia in
questione è l’intelligenza artificiale, le varianti più probabili, solitamente,
sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o
ancora “appropriato”.
In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste
varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don
Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”.
Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa
virale. Monetizza, magari. Ma è anche vera?
leggi l'articolo di Stefano Bottoni Barale