Un’inchiesta del New York Times parte da un rapporto Wood MacKenzie e dagli
aumenti dei prezzi degli ultimi anni: privati e piccole imprese potrebbero
caricarsi ulteriormente sulle spalle gli oneri degli aggiornamenti della rete
necessari a Big tech.
Famiglie e piccole imprese statunitensi stanno pagando l’energia a prezzi
maggiorati, negli ultimi anni, ma le tariffe elettriche a loro carico potrebbero
aumentare ulteriormente, a breve. E la ragione non è in quel che consumano loro,
ma in quel che consuma il settore Big tech per mandare avanti datacenter e
servizi di Intelligenza artificiale (Artificial intelligence, AI).
Secondo i dati citati dal NYT si prevede che la domanda di elettricità in alcune
parti degli Stati Uniti aumenterà fino al 15% solo nei prossimi quattro anni.
«Il rapido aumento dei datacenter, che utilizzano l'elettricità per alimentare i
server di computer e mantenerli freschi, ha messo a dura prova molte utility»,
scrive il quotidiano statunitense. Oltre a investire per soddisfare la domanda,
i servizi pubblici stanno spendendo miliardi di dollari per rendere i loro
sistemi più sicuri contro incendi, uragani, ondate di calore, tempeste invernali
e altre condizioni meteorologiche estreme: «I disastri naturali, molti dei quali
sono legati al cambiamento climatico, hanno reso le reti elettriche più
inaffidabili degli Stati Uniti. Questa spesa è uno dei motivi principali per cui
le tariffe dell'elettricità sono aumentate negli ultimi anni».
Negli Stati Uniti e in Europa tali costi vengono al momento “socializzati” e
redistribuiti sulle bollette di tutti gli utenti. Un approccio comprensibile se
l’obiettivo è un bene comune (per esempio la decarbonizzazione grazie al
passaggio alle rinnovabili). Ma se invece gli investimenti in infrastrutture
energetiche servono a facilitare i già colossi guadagni dei giganti digitali, è
giusto che a pagare siano le famiglie e le piccole imprese?
Tag - AI
Meta ha usato anche LibGen, un database illegale online, per allenare la sua AI,
scavalcando così il diritto d'autore e il lavoro di chi fa ricerca, che finisce
sfruttato due volte. Ma il copyright non è la soluzione.
Notizia di queste settimane è quella relativa all’utilizzo da parte di Meta di
LibGen, un archivio online di materiali, anche accademici, piratati, per aiutare
ad addestrare i suoi modelli linguistici di intelligenza artificiale generativa.
La notizia è un paradosso, soprattutto, in particolare se letta dalla
prospettiva della ricerca accademica. Chi scrive è l’opposto di un sostenitore
del copyright: è un sistema che offre pochissima autonomia e un lievissimo
sostegno ai piccoli, e dona, invece, un enorme potere ai grandi gruppi
editoriali, oltre a essere un ostacolo alla libera circolazione della conoscenza
e della cultura. [...]
La razzia spregiudicata di questi contenuti è predatoria perché omette
completamente l’esistenza di chi quei contenuti li ha creati, e non perché non
ne rispetta il copyright, ma perché avanza una pretesa di possesso su quei
contenuti come se non esista alcun livello ulteriore. È predatoria perché si
rivolge, senza alcun ragionamento culturale, alla pirateria, che è stata creata
per indebolire un sistema iniquo. Così facendo Meta crea un livello di
sfruttamento ulteriore su quei contenuti, facendosi gioco di una strategia di
resistenza, di fatto svuotandola. Il fatto che Meta si sia rivolta a un database
illegale per questa operazione dimostra due cose: che il copyright è finito e
non serve assolutamente a nulla (ma questo lo sapevamo già da molto) e, allo
stesso tempo, che non esiste limite alcuno all’azione delle aziende tecnologiche
e alle loro dinamiche estrattive. Non vi erano limiti all’estrazione di dati per
la pubblicità targetizzata, perché dovrebbero esistere per l’AI generativa?
Credere che questo contribuirà a indebolire il copyright o a finalmente mandarlo
in soffitta è una favola che può funzionare solo in qualche narrazione
determinista dove l’AI è un agente neutro, inevitabile e irrefrenabile, cui non
è possibile, né giusto, porre limiti. È una narrazione tossica e di comodo, e
molto pericolosa, ed è la stessa da decenni. La risposta non può certamente
essere il copyright, ma nemmeno la resa incondizionata a questo pensiero che
mischia linguaggio corporate a filosofia spiccia. Non abbiamo fatto e sostenuto
le battaglie per la Rete libera, il fair use, le licenze creative commons e per
la memoria di Aaron Swartz per fare finta che finire sfruttati da Meta una volta
in più sia una cosa di cui essere contenti.
Articolo completo qui
YouTube sta modificanda le sue strategie pubblicitarie e l'intelligenza
artificiale è al centro di questa evoluzione.
Stando alle indiscrezioni, la piattaforma sta sperimentando un sistema basato
sull'IA per inserire annunci nei momenti in cui gli utenti sono più propensi a
notarli, spesso durante le pause naturali dei video. L'obiettivo è chiaro:
massimizzare l'impatto delle pubblicità, anche se un approccio come questo ha
l'aria di essere essere un po' troppo invasivo.
L'IA analizza il contenuto dei video per identificare i punti in cui
l'attenzione dell'utente è al massimo, come la fine di una scena intensa o un
momento di silenzio. Questi istanti, che l'algoritmo considera ideali, diventano
il bersaglio perfetto per gli annunci.
Se da un lato questo può (almeno inizialmente) aumentare l'efficacia delle
campagne pubblicitarie, dall'altro rischia di interrompere l'esperienza di
visione in modo più evidente, suscitando frustrazione negli spettatori.
Articolo completo qui
Newsletter N. 205 - 11 maggio 2025
Numero centrato soprattuto su AI, lavoratori e rapporti di potere
Dopo l’ondata di attenzione e infatuazione mediatica che ha accompagnato il
lancio di ChatGPT e di molti altri strumenti di intelligenza artificiale
generativa, dopo che per molti mesi si è parlato di vantaggi per la
produttività, o di sostituzione del lavoro (soprattutto delle mansioni noiose e
ripetitive) con l’AI, siamo arrivati a un punto dove si intravedono più che
altro le prime sostituzioni di lavoratori. E ciò sebbene la promessa crescita di
produttività lasci ancora molto a desiderare (non parliamo della sostituzione di
ruoli).
Mentre gli stessi lavoratori del settore tech (un’elite che per anni ha
viaggiato in prima classe anche nelle peggiori fluttuazioni del mercato del
lavoro) si sono resi conto di trovarsi in una situazione piuttosto scomoda: più
licenziabili, da un lato, e più esposti ai dilemmi etici di lavorare per aziende
che hanno abbandonato precedenti remore per contratti di tipo militare,
dall’altro.
Partiamo proprio dalla guerra.
Una parte di dipendenti di Google DeepMind (l’unità di Alphabet che lavora
sull’intelligenza artificiale e tra le altre cose ha rilasciato Gemini, la
famiglia di modelli linguistici di grandi dimensioni) stanno cercando di
sindacalizzarsi per contestare la decisione dell'azienda di vendere le sue
tecnologie ai militari, e a gruppi legati al governo israeliano. ...
Leggi la newsletter completa
Il chatbot era velocissimo, ma impersonale e impreciso.
Nella corsa frenetica a sostituire i dipendenti umani con la IA che sembra
coinvolgere ogni azienda, si è verificata una piccola inversione di tendenza.
Klarna, l'azienda svedese di servizi finanziari specializzata in pagamenti
rateizzati, dopo aver sostituito 700 dipendenti con un chatbot AI nel 2024, ora
sta tornando ad assumere personale umano per il servizio clienti.
La decisione arriva dopo che un sondaggio interno ha rivelato che soltanto un
progetto AI su 4 ha portato un ritorno sull'investimento atteso. Il sondaggio ha
evidenziato i limiti dell'automazione in un settore che, a causa
dell'interazione con i clienti, non richiede soltanto efficienza ma empatia e
flessibilità.
Leggi l'articolo su ZEUS News
Il proliferare delle intelligenze artificiale non farebbe altro che danneggiare
i creatori di contenuti e i siti indipendenti.
Matthew Prince, CEO di Cloudflare (una delle CDN più grandi al mondo), ha
lanciato un allarme sul futuro del web durante un'intervista al Council on
Foreign Relations: l'intelligenza artificiale starebbe distruggendo il modello
di business che ha sostenuto il web per oltre 15 anni.
«L'AI cambierà radicalmente il modello di business del web» ha affermato. «Negli
ultimi 15 anni, tutto è stato guidato dalla ricerca online» ma ora le cose
stanno cambiando: se un tempo la ricerca su Google portava traffico ai siti
tramite i famosi «10 link blu», oggi quella stessa ricerca è fatta per tenere
gli utenti sulla piattaforma, fornendo risposte e contenuti tramite la IA.
Dieci anni fa, per ogni due pagine indicizzate, Google rimandava un visitatore
al sito; ora, secondo Prince, servono sei pagine per un solo visitatore, con un
calo del 200% nel valore restituito ai creatori di contenuti.
Leggi l'articolo su ZEUS News
È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò
che abbiamo pubblicato sui social network. Ecco come
L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo
modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti
di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark
Zuckerberg ha immediatamente provocato un vero tsunami di reazioni
(prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei
social network targati Meta, al momento, è quella di sapere come impedire
l’utilizzo dei loro contenuti per foraggiare l’algoritmo.
L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni
pubblicate, ma le cose non sono semplici come potrebbe sembrare.
Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo
all’utilizzo dei nostri dati.
Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici
condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti
pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri
contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria,
tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se
abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post
solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero
essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il
nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le
valutazioni o recensioni su Marketplace e su un account Instagram pubblico.
leggi l'articolo
Link diretto Facebook per opporsi
Link diretto Instagram per opporsi
Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli
di intelligenza artificiale in Europa sulla base dei post e dei commenti
pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere
e riflettere meglio culture, lingue e storie" per "consentire di supportare
meglio milioni di persone e aziende in Europa", sottolinea la società di Mark
Zuckerberg.
Si può scegliere di opporsi compilando un modulo. Con tale modulo non si
disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o
dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente
aderendo, i propri dati non dovrebbero più confluire tra quelli usati
dall’algoritmo per apprendere e migliorarsi.
C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque
trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su
Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo
potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa
con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post
o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga
che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.
Approfondimenti qui e qui
Meta inizierà ad addestrare la sua IA generativa usando contenuti pubblici
condivisi da utenti adulti in Europa. Gli utenti riceveranno notifiche non solo
per essere informati sulla novità, ma anche per esercitare il diritto di
opposizione.
Dopo lo stop dello scorso anno, Meta ha annunciato che anche in Europa inizierà
ad addestrare i suoi modelli linguistici sfruttando i contenuti pubblici
condivisi dagli utenti adulti sui social, insieme alle interazioni con Meta AI.
Una svolta che punta a rendere l'IA più vicina alle specificità culturali,
linguistiche e storiche del Vecchio Continente, ma che riaccende anche il
dibattito sulla privacy.
A partire da questa settimana, gli utenti maggiorenni dell'Unione Europea che
utilizzano piattaforme come Facebook, Instagram e WhatsApp inizieranno a
ricevere notifiche - via app ed email - per informarli su quali dati verranno
utilizzati e con quale scopo. Ogni notifica conterrà anche un link diretto a un
modulo per esercitare il diritto di opposizione: chi non desidera che i propri
dati vengano utilizzati per addestrare l'IA potrà negare il consenso.
Articolo completo qui
Il crepitio dei tasti di un programmatore che scrive codice per comporre un
programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da
decenni, saper programmare significa avere pieno potere, avere la facoltà di far
fare quello che si vuole al computer o tablet o telefono che sia, poter creare
app, senza dover dipendere da nessuno.
Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di
programmazione, ciascuno con una sintassi e delle regole differenti, e per molte
persone questo non è facile o è semplicemente impossibile. Programmare resta
così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.
Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di
diventare programmatori o sviluppatori, o se siete genitori e pensate che far
studiare gli arcani incantesimi della programmazione sia la strada maestra per
una carriera informatica garantita per i vostri figli, ci sono due parole che vi
conviene conoscere: vibe coding.
[...]
1. Vibe coding: creare programmi senza saper programmare
2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
3. Si riducono tempi e costi, e tutto sembra funzionare
4. Se ci sono errori o vulnerabilità, sono guai seri
5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?
Leggi l'articolo di Paolo Attivissimo