Da culla del progressismo a cuore dell’industria bellica a stelle e strisce:
Meta, OpenAI, Microsoft, Anduril e l’inarrestabile crescita della defence tech.
“C’è un sacco di patriottismo che è stato a lungo tenuto nascosto e che adesso
sta venendo alla luce”, ha spiegato al Wall Street Journal, Andrew Bosworth,
direttore tecnico di Meta.
Bosworth – assieme a Kevin Weil e Bob McGrew, rispettivamente responsabile del
prodotto ed ex responsabile della ricerca di OpenAI, ai quali si aggiunge Shyam
Sankar, direttore tecnico di Palantir – è infatti uno dei quattro dirigenti tech
assoldati in quello che è stato ironicamente chiamato “Army Innovation Corps” -
Corpo degli ingegneri degli Stati Uniti (il nome ufficiale del programma è
Detachment 201).
Il clima che si respira oggi nella Silicon Valley è molto differente, la
maschera progressista che le Big Tech hanno a lungo indossato è stata infine
calata (come mostrato plasticamente dall’ormai storica foto che ritrae i
principali “broligarchs” celebrare l’insediamento di Donald Trump), e adesso
nessuno sembra più farsi scrupoli a seguire la strada tracciata dalle due più
note realtà del settore “defence tech”: Palantir e Anduril, aziende fondate
rispettivamente dall’eminenza grigia della tech-right Peter Thiel e dal
guerrafondaio Palmer Luckey (già noto per aver fondato Oculus, poi acquistata da
Meta, e per rilasciare dichiarazione come: “Vogliamo costruire tecnologie che ci
diano la capacità di vincere facilmente ogni guerra”).
Articolo completo qui
Tag - sorveglianza
Riassunto: la settimana scorsa, Meta ha avvisato che Graphite, uno dei sistemi
per lo spionaggio digitale prodotti da Paragon (azienda israeliana), era stato
utilizzato per spiare una novantina di persone che utilizzano la sua
applicazione WhatsApp, in diversi paesi del mondo, tra i quali Francesco
Cancellato, direttore di Fanpage e Luca Casarini, capomissione
edell’organizzazione non governativa Mediterranea. Paragon fornisce i propri
servizi esclusivamente ai governi e alle loro istituzioni, offrendo per lo più
sistemi che possono essere impiegati per spiare comunicazioni e altre attività
sui dispositivi elettronici
Il governo italiano ha minimizzato la vicenda, affermando di aver monitorato
solo sette numeri senza includere giornalistɜ o attivistɜ. Ma, in tutta
risposta, la società israeliana ha reagito sospendendo il contratto con
l'Italia, segnalando che il Paese ne aveva violato le condizioni.
Per capire meglio la situazione di seguito trovate alcuni aggiornamenti.
* La questione delle persone spiate su WhatsApp si complica, su Il Post
* Spionaggio e abusi tecnologici: Il caso Paragon e il pericolo della
sorveglianza invisibile, su Infoaut
* Azienda anti-spyware, così combattiamo Graphite. Intervista di ANSA a John
Scott-Railton, senior researcher di Citizen Lab
Your page content goes here.
Nell’attacco informatico con lo spyware Paragon, che ha colpito attivisti e
giornalisti in tutto il mondo ci sarebbe anche Luca Casarini di Mediterranea
Saving Humans.
Venerdì 31 gennaio, Meta, la società proprietaria di WhatsApp, ha notificato
ufficialmente a Luca Casarini, attivista e tra i fondatori di Mediterranea
Saving Humans, che il suo telefono è stato violato attraverso uno spyware tra i
più sofisticati al mondo. Il software utilizzato è sviluppato dalla società
israeliana Paragon Solutions, che lo ha fornito a "governi alleati degli Stati
Uniti", senza dare ulteriori spiegazioni. Nello stesso giorno, testate
giornalistiche internazionali hanno rivelato che circa 90 persone in oltre venti
Paesi sono state prese di mira, tra cui attivisti per i diritti umani e
giornalisti investigativi. Tra i "target" italiani anche il cellulare del
direttore di Fanpage, Francesco Cancellato.
Il prodotto di Paragon, considerato uno spyware di sorveglianza avanzato, opera
in modo simile a Pegasus di NSO Group: una volta infettato il dispositivo,
l'operatore ha accesso completo ai dati dell'utente, potendo leggere anche
messaggi inviati su app crittografate come WhatsApp o Signal. WhatsApp ha
contattato le presunte vittime in privato, senza rilasciare dettagli pubblici
sull'identità degli obiettivi colpiti.
Leggi tutto su Fanpage
Ascolta l'intervista a Casarini sul sito di Radio Onda d'Urto
Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il
divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.
Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano
l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il
colosso ha eliminato i riferimenti in cui prometteva di non perseguire
"tecnologie che causano o possono causare danni", "armi o altre tecnologie il
cui scopo principale o la cui implementazione causa o facilita direttamente
lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per
la sorveglianza violando norme accettate a livello internazionale", e ancora
"tecnologie il cui scopo contravviene a principi ampiamente accettati del
diritto internazionale e dei diritti umani".
Diversi dipendenti di Google hanno espresso la loro apprensione per le novità.
“È profondamente preoccupante vedere che Google abbandona il suo impegno per
l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o
del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e
presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding
che controlla l'azienda –, nonostante la posizione storica del personale sia che
l'azienda non dovrebbe entrare nel business della guerra”.
Link all'articolo qui
Con l'autrice Cristina Iurissevich presentiamo "E se i troll mangiassero i
cookie?" (Eris) un libro per sopravvivere nell'era digitale. Con lei ragioniamo
del senso dell'autodifesa digitale con un occhio, oltre che alla sorveglianza
statale e aziendale, alle relazioni con le persone a noi vicine. Parliamo quindi
di sexting, di diffusione non consensuale di immagini intime, di nudifier, di
fiducia nelle persone e nelle tecnologie.
Concludiamo un commento sulle recenti rivelazioni che mostrano un ruolo dello
stato francese nella trasformazione dell'AI Act in una direzione che desse
sempre più potere alle polizie e ai militari.
Ascolta l'intervista
Ascolta tutta la trasmissione sul sito di Radio Onda Rossa
Vai alla scheda del libro
La prima parte della trasmissione è dedicata al secondo tentativo di Microsoft
di lanciare un sistema di ricerca all'interno di Windows basato su intelligenza
artificiale. Se il primo tentativo era stato un disastro di sicurezza, cosa
possiamo dire del secondo? Indubbiamente il nuovo design sembra più solido; ma
come leggere complessivamente questo progetto di accumulazione di grossi dataset
in locale e di spostamento del carico computazionale sull'hardware utente?
La seconda parte della trasmissione è invece legata ad NSO e alle cause che ha
con Apple e Whatsapp (avete letto bene). Benché per entrambe le aziende è chiaro
che si tratti di processi il cui fine ultimo è il miglioramento della propria
reputazione, rileviamo come entrambi i processi siano molto appesantiti
dall'ostruzionismo e dalla copertura di Israele.
Ascolta l'audio sul sito di Radio Onda Rossa
Lo sostiene uno studio dell'Università della California, che rivela come le TV
LG e Samsung registrano i contenuti visualizzati e li usano per profilare gli
utenti.
Molti conosceranno Shazam, l'applicazione che è in grado di riconoscere una
canzone "ascoltando" pochi secondi di essa. Qualcosa del genere avviene con le
Smart TV e i programmi televisivi, solo che il funzionamento è automatico e
prescinde dalla volontà dell'utente.
A svelarlo è uno studio dell'Università della California, che ha analizzato i
televisori di LG e Samsung nel Regno Unito e negli Stati Uniti.
Leggi l'articolo su ZEUS News
L'azienda Cox Media Group afferma di ascoltare le conversazioni degli utenti
tramite smartphone e altri dispositivi per proporre annunci personalizzati.
I telefoni ci ascoltano, ci spiano: è qualcosa che si sente dire da tempo e che
secondo l’azienda Cox Media Group (CMG) è vero. In questo caso però non si
tratta di un report o di una ricerca che cerca di sostenere la tesi, bensì della
strategia di marketing di CMG, che afferma di poter “origliare” le conversazioni
tramite i microfoni di smartphone, tablet, smart TV e altri dispositivi.
CMG la chiama “Active Listening” e secondo i materiali marketing, esaminati da
404 Media, promette di analizzare le conversazioni in tempo reale per trovare
potenziali clienti. CMG afferma che questo servizio è già disponibile: le
aziende che decideranno di sfruttarlo potranno scegliere un territorio entro un
raggio di 10 o 20 miglia, dove Active Listening ascolterà le conversazioni
sfruttando i microfoni dei dispositivi.
Leggi tutto
Uno studio approfondito di ProPublica, mostra uno scenario inquietante: i
moderatori hanno accesso ai messaggi degli utenti.
“Non possiamo leggere o ascoltare le tue conversazioni personali, poiché sono
crittografate end-to-end” si legge nell’informativa che Facebook – la padrona di
WhatsApp – esibisce all’utilizzatore che vuole stare tranquillo. Le
rassicurazioni sul rispetto della privacy giungono al culmine quando l’utente
vede sullo schermo “Questo non cambierà mai” (che non si capisce – soprattutto
dopo aver letto questo articolo – se è da considerare una promessa o una
minaccia). Perché temere se già nel 2018 Mark Zuckerberg – durante un’audizione
al Senato USA – aveva dichiarato “non vediamo nessuno dei contenuti in WhatsApp”
e sottolineato che tutto “è completamente crittografato”?
Eh già, non c’è forse la crittografia end-to-end che consente solo a mittente e
destinatario (gli unici a possedere i necessari token digitali o “chiavi”) di
rendere leggibili i relativi messaggi?
Freniamo l’entusiasmo - Secondo esperti e tecnici di ProPublica, importante
associazione a tutela dei diritti civili, le rasserenanti affermazioni sono
prive di fondamento o quanto meno non corrispondono pienamente a verità.
Leggi l'articolo
Il presidente di estrema destra del paese Javier Milei questa settimana ha
creato l' Unità di intelligenza artificiale applicata alla sicurezza , che
secondo la legislazione utilizzerà "algoritmi di apprendimento automatico per
analizzare i dati storici sulla criminalità per prevedere crimini futuri".
Si prevede inoltre di implementare un software di riconoscimento facciale per
identificare le “persone ricercate”, pattugliare i social media e analizzare i
filmati delle telecamere di sicurezza in tempo reale per rilevare attività
sospette.
Uno scenario alla Minority Report, tanto che Amnesty International sostiene che
la mossa potrebbe violare i diritti umani.
“La sorveglianza su larga scala influisce sulla libertà di espressione perché
incoraggia le persone ad autocensurarsi o ad astenersi dal condividere le
proprie idee o critiche se sospettano che tutto ciò che commentano, postano o
pubblicano sia monitorato dalle forze di sicurezza”, ha affermato Mariela
Belski, il direttore esecutivo di Amnesty International Argentina. Articolo
originale qui
Your page content goes here.