Il Tribunale commerciale di Zurigo è chiamato a decidere nei prossimi giorni su
una causa intentata dal colosso americano contro la rivista Republik - La
questione ha avuto un’eco mediatica enorme ed è finita addirittura nelle aule
dei Parlamenti di Gran Bretagna e Germania.
Nei prossimi giorni, il Tribunale commerciale di Zurigo sarà chiamato a
esprimersi su un’azione «contro-dichiarativa» intentata dall’americana Palantir
contro il portale giornalistico-investigativo zurighese Republik. Quest’ultimo,
l’8 e il 9 dicembre scorsi aveva pubblicato un’inchiesta in due puntate sulla
presenza di Palantir in Svizzera. E aveva rivelato come l’azienda di data
intelligence di Denver (Colorado) non fosse mai riuscita, in sette anni, a
ottenere contratti con le strutture civili e militari elvetiche, nonostante un
pressing continuo e costante ad altissimo livello.
Per anni «lo Stato Maggiore dell’Esercito della Confederazione ha valutato i
prodotti» e i software di Palantir e, alla fine, in un rapporto che, di fatto, è
l’asse portante dell’inchiesta di Republik, ne ha sconsigliato l’uso per il
pericolo concreto ed «elevato» che «i dati fossero trasmessi al Governo degli
Stati Uniti». Fortissime preoccupazioni sono state espresse anche «riguardo ai
rischi reputazionali associati a Palantir», società sostenuta
dall’amministrazione di Washington. Un’azienda tecnologica, scrive ancora
Republik, tra le «più controverse al mondo».
Leggi l'articolo
Source - Pillole di Graffio
Segnalazioni su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...
Con l'avvento degli LLM, molti si sono convinti che questi siano degli oracoli
assolutamente imparziali e onniscienti cui chiedere conferma della veridicità di
pressoché ogni informazione. In realtà, come dimostra l'esperimento condotto da
un giornalista della BBC, ingannare i chatbot (o, per lo meno, alcuni di essi)
spingendoli a credere alle bufale non è poi troppo complicato. In particolare
ChatGPT e Gemini, pur essendo sistemi progettati per filtrare contenuti falsi o
dannosi, possano essere indotti a generare informazioni errate con sorprendente
rapidità.
Il giornalista in questione, Thomas Germain, non aveva l'obiettivo di violare
sistemi informatici o sfruttare vulnerabilità tecniche profonde, ma puntava
soltanto dimostrare come un intervento minimo e apparentemente innocuo potesse
alterare il comportamento di chatbot come ChatGPT e Google Gemini. L'intero
processo di creazione dell'inganno ha richiesto appena venti minuti, serviti a
Germain per creare una semplice pagina web sul proprio sito personale. Il
contenuto di questa pagina era volutamente banale e costruito ad arte: un
articolo che lo definiva «il miglior giornalista tecnologico al mondo nel
mangiare hot dog». Non si trattava di un'informazione reale né plausibile, ma
era formulata in modo tale da sembrare una dichiarazione di fatto.
Leggi l'articolo
Perché proprio ora molte persone, soprattutto le pubbliche amministrazioni,
stanno scegliendo soluzioni che evitano la dipendenza dalle Big Tech?
Quando nel 2025 la Corte Penale Internazionale condanna Netanyahu per crimini di
guerra, l’amministrazione Trump firma un ordine esecutivo che impone sanzioni
contro i funzionari della Corte. Poco dopo questi non riescono più ad accedere
alla mail gestita da una Big Tech Usa. La Corte ha subito spostato i suoi
servizi digitali su una piattaforma basata su software libero e con i server in
Europa.
Nel gennaio 2026 il Parlamento Europeo approva una risoluzione che parla di
sovranità digitale, promuovendo standard aperti e interoperabili.
[...]
Il digitale e le cosiddette «intelligenze artificiali» centralizzate in mano
alle Big Tech sono diventate tecnologie del dominio e gli strumenti principali
della guerra del XXI secolo. Sono socialmente, eticamente e ambientalmente
insostenibili.
Qualcosa però sta cambiando
Leggi l'articolo
La storia che vede coinvolti una programmatrice di Meta, Summer Yue, e OpenClaw,
l'agente IA che negli ultimi tempi ha conquistato gli appassionati di
intelligenza artificiale, funge da pratico monito per quanti sono pronti ad
affidare a questi software le gestione completa dei propri dati. Documentato su
X, l'episodio mostra come un compito apparentemente banale possa trasformarsi in
un'azione distruttiva quando un agente automatizzato interpreta in modo errato
le istruzioni ricevute.
L'esperta di sicurezza aveva chiesto a OpenClaw di analizzare la propria casella
di posta sovraccarica e di suggerire quali messaggi eliminare o archiviare.
Invece di proporre una lista di elementi da rimuovere, l'agente ha iniziato a
cancellare rapidamente centinaia di email, ignorando i comandi di stop inviati
dal telefono. Le immagini pubblicate mostrano notifiche in cui l'utente tentava
di interrompere l'operazione senza successo.
Leggi l'articolo
Nella puntata di oggi con Privacy Network e STRALI si parla del Sistema
Riconoscimento Automatico Immagini utilizzato daalle forze dell'ordine italiane.
Privacy Network & STRALI stanno indagando l’utilizzo di SARI Enterprise per
capire quanto viene usato, se funziona, se è compatibile con la protezione dei
dati personali., che bias emergono.
Cosa permette di fare? Chi lo utilizza? Da quanto tempo?
E AFIS (il database delle persone foto-segnalate)?
Ascolta l'audio sul sito di Radio Black out
Commentiamo la testimonianza di Zuckerberg al processo in California che vede
Meta accusata di aver creato delle interfacce che provocano dipendenza alle
persone minori, tali da infliggere loro danni psicologici. Sempre su Meta,
arrivano le prime notizie anche da un altro processo, questa volta nel New
Mexico, dove l'accusa è invece di non aver protetto adeguatamente le persone
minori dall'abuso sessuale.
A seguire, lunga carrellata di notiziole:
* L'unione europea impedisce i tool basati su AI sui device del suo personale
* I tech corps, ovvero un altro passaggio del colonialismo
* Un altro studio mostra che l'AI non ci farà lavorare meno
* L'India stringe le regole sui social media e sugli usi dell'AI
* ChatGPT si prepara a lanciare un social media
* Alcuni importanti siti di notizie chiedono ad Internet Archive di copiare le
versioni archiviate dei loro siti allo scopo di evitare che gli scraper che
accumulano dati per usarli negli LLM possano accedervi
* Openstreetmap riceve un livello di scraping che rende difficile mantenerlo in
attività
Concludiamo con due perle:
* Meta risolve il problema delle persone che smettono improvvisamente di
postare
* Come controllare 10mila aspirapolvere robot per sbaglio
Ascolta l'audio nel sito di Radio Onda Rossa
La piattaforma di crowdmapping denuncia un aumento senza precedenti di
richieste, che mette sotto pressione i server.
La folle corsa dell'AI sta portando aziende e sviluppatori del settore a fare di
tutto per riuscire a conquistare il mercato con un prodotto che sia davvero
degno di nota. E in questo gioco di potere non ci sono regole, nè limiti che
possano essere rispettati. Lo dimostra il caso di OpenStreetMap, una delle più
note piattaforme di crowdmapping al mondo, che di recente ha segnalato la
diffusione crescente di bot che cercano di effettuare lo scraping (selvaggio) di
dati dal sito.
“Il nostro ingegnere senior per la sicurezza, Grant Slater, sta assistendo a
livelli senza precedenti di bot che tentano di sottrarre dati dall'hashtag #OSM
- si legge in un post pubblicato dall'account LinkedIn della piattaforma, con
cui questa ha attirato l'attenzione dei giornalisti sul tema - A titolo di
confronto, negli ultimi anni ha visto 1 o pochi IP effettuare più di 10.000
richieste, ma questa settimana stiamo assistendo a più di 100.000 IP coordinati
per effettuare lo scraping, con ogni IP che effettua poche richieste. In
precedenza avrebbe bloccato temporaneamente 1 o 2 IP e sarebbe andato avanti.
Ora questo non è più possibile”.
“Tecnicamente abbiamo quasi tutto sotto controllo, ma non credo che questo
problema scomparirà senza una discussione più ampia. Una quantità enorme di
risorse (umane e materiali) viene spesa in progetti come il nostro per mantenere
online i nostri servizi, e non siamo soli: anche Wikipedia, Arch Linux, KDE,
Gnome e molti altri stanno difendendosi dallo tsunami”, scrive Grant Slater,
ingegnere senior di OSM, chiamando le piattaforme all’azione.
Articolo completo qui
Chiamato a testimoniare nell'ambito di una causa sui danni delle piattaforme a
una giovane utente, l'ad di Meta ha fatto di tutto per schivare le sue
responsabilità.
Nello specifico, la presenza di Zuckerberg doveva chiarire se le piattaforme del
colosso, come Facebook e Instagram, fossero state intenzionalmente progettate
per creare dipendenza, e per rispondere alle accuse secondo cui l'azienda
avrebbe deliberatamente adottato strategie per aumentare l'engagement di
adolescenti e pre-adolescenti, innescando negli utenti gravi problemi di salute
mentale.
L'udienza rappresenta uno dei passaggi chiave della causa intentata contro Meta,
YouTube, Snap e TikTok da una ventenne californiana, identificata in aula come
K.G.M. (anche se il suo avvocato si è spesso riferito a lei con il suo nome di
battesimo, Kaley), e da sua madre nel 2023. La tesi è che l'uso compulsivo delle
piattaforme social da parte della ragazza in età estremamente precoce le abbia
causato seri danni psicologici.
Mentre a novembre Meta e Google avevano provato senza successo a far archiviare
il caso, Snap e TikTok hanno poi raggiunto un accordo in via extragiudiziale,
lasciando alle altre società il compito di affrontare il primo di una nutrita
serie di processi sulla dipendenza da social media attualmente in corso a Los
Angeles. Queste cause – che nel gergo giuridico statunitense vengono definite
bellwether – sono state selezionate in quanto rappresentative di un gruppo molto
più ampio di azioni legali simili contro le stesse aziende. I querelanti, che in
totale sono circa 1.600, sostengono che i loro figli siano stati vittime di casi
di depressione, dismorfismo e suicidio.
Articolo completo qui
È successo il contrario, in un’azienda che l’aveva messa a disposizione dei
dipendenti senza obbligarli a usarla
Tra aprile e dicembre del 2025 due ricercatrici dell’università della California
Berkeley hanno condotto uno studio in un’azienda tecnologica californiana di
circa 200 dipendenti. Volevano valutare se e come la progressiva diffusione di
strumenti popolari basati sull’intelligenza artificiale generativa, come i
chatbot, avrebbe cambiato le abitudini di lavoro. Dai primi risultati, parte di
una ricerca ancora in corso, è emerso che usare l’AI aveva semplificato e
velocizzato molti compiti dei dipendenti, ma nel complesso aveva aumentato il
tempo che dedicavano al lavoro senza nemmeno accorgersene. E questo aveva avuto
ripercussioni sulle loro condizioni psicofisiche.
In sostanza, durante gli otto mesi di osservazione, le persone avevano lavorato
a un ritmo più veloce, avevano svolto da sole più compiti e avevano lavorato per
più ore, rispetto a prima dell’introduzione degli strumenti di intelligenza
artificiale. E lo avevano fatto senza che nessuno glielo avesse chiesto:
l’azienda non le aveva obbligate a usare l’AI, ma aveva fornito loro abbonamenti
aziendali a strumenti popolari disponibili in commercio e destinati ai clienti
individuali (B2C), come per esempio ChatGPT o Gemini.
Leggi l'articolo
Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti
sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso
nuove incertezze.
Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT,
è uscita una seconda killer application per le false IA. Senza preavviso, un
virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben
fatto, perfettamente funzionante, installabile e configurabile con estrema
semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di
essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e
generato tramite LLM senza controllarlo.
Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si
installa e gira in locale sul computer dell'utente. Un agente Openclaw si
interfaccia con i servizi installati sul computer, ma è concepito principalmente
per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più
LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui
l'agente deve interagire; questo implica che l'agente possieda le credenziali
dell'utente, tutte le password, tutti i token per essere in grado di utilizzare
i servizi e le varie API. Cosa mai potrebbe andare storto?
Leggi l'articolo su ZEUS News
Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un
argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai
suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto
open source è un lavoro molto impegnativo per una sola persona, anche di
talento;
E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor
nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché
non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché
non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma,
possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di
cavalcare un successo assicurato, presentandolo come progetto aperto, o come
prodotto commerciale, o come qualsiasi cosa nel mezzo?
Leggi l'articolo ZEUS News