Newsletter N. 205 - 11 maggio 2025
Numero centrato soprattuto su AI, lavoratori e rapporti di potere
Dopo l’ondata di attenzione e infatuazione mediatica che ha accompagnato il
lancio di ChatGPT e di molti altri strumenti di intelligenza artificiale
generativa, dopo che per molti mesi si è parlato di vantaggi per la
produttività, o di sostituzione del lavoro (soprattutto delle mansioni noiose e
ripetitive) con l’AI, siamo arrivati a un punto dove si intravedono più che
altro le prime sostituzioni di lavoratori. E ciò sebbene la promessa crescita di
produttività lasci ancora molto a desiderare (non parliamo della sostituzione di
ruoli).
Mentre gli stessi lavoratori del settore tech (un’elite che per anni ha
viaggiato in prima classe anche nelle peggiori fluttuazioni del mercato del
lavoro) si sono resi conto di trovarsi in una situazione piuttosto scomoda: più
licenziabili, da un lato, e più esposti ai dilemmi etici di lavorare per aziende
che hanno abbandonato precedenti remore per contratti di tipo militare,
dall’altro.
Partiamo proprio dalla guerra.
Una parte di dipendenti di Google DeepMind (l’unità di Alphabet che lavora
sull’intelligenza artificiale e tra le altre cose ha rilasciato Gemini, la
famiglia di modelli linguistici di grandi dimensioni) stanno cercando di
sindacalizzarsi per contestare la decisione dell'azienda di vendere le sue
tecnologie ai militari, e a gruppi legati al governo israeliano. ...
Leggi la newsletter completa
Tag - Intelligenza Artificiale
Il chatbot era velocissimo, ma impersonale e impreciso.
Nella corsa frenetica a sostituire i dipendenti umani con la IA che sembra
coinvolgere ogni azienda, si è verificata una piccola inversione di tendenza.
Klarna, l'azienda svedese di servizi finanziari specializzata in pagamenti
rateizzati, dopo aver sostituito 700 dipendenti con un chatbot AI nel 2024, ora
sta tornando ad assumere personale umano per il servizio clienti.
La decisione arriva dopo che un sondaggio interno ha rivelato che soltanto un
progetto AI su 4 ha portato un ritorno sull'investimento atteso. Il sondaggio ha
evidenziato i limiti dell'automazione in un settore che, a causa
dell'interazione con i clienti, non richiede soltanto efficienza ma empatia e
flessibilità.
Leggi l'articolo su ZEUS News
È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò
che abbiamo pubblicato sui social network. Ecco come
L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo
modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti
di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark
Zuckerberg ha immediatamente provocato un vero tsunami di reazioni
(prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei
social network targati Meta, al momento, è quella di sapere come impedire
l’utilizzo dei loro contenuti per foraggiare l’algoritmo.
L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni
pubblicate, ma le cose non sono semplici come potrebbe sembrare.
Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo
all’utilizzo dei nostri dati.
Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici
condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti
pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri
contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria,
tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se
abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post
solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero
essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il
nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le
valutazioni o recensioni su Marketplace e su un account Instagram pubblico.
leggi l'articolo
Link diretto Facebook per opporsi
Link diretto Instagram per opporsi
Il crepitio dei tasti di un programmatore che scrive codice per comporre un
programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da
decenni, saper programmare significa avere pieno potere, avere la facoltà di far
fare quello che si vuole al computer o tablet o telefono che sia, poter creare
app, senza dover dipendere da nessuno.
Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di
programmazione, ciascuno con una sintassi e delle regole differenti, e per molte
persone questo non è facile o è semplicemente impossibile. Programmare resta
così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.
Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di
diventare programmatori o sviluppatori, o se siete genitori e pensate che far
studiare gli arcani incantesimi della programmazione sia la strada maestra per
una carriera informatica garantita per i vostri figli, ci sono due parole che vi
conviene conoscere: vibe coding.
[...]
1. Vibe coding: creare programmi senza saper programmare
2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
3. Si riducono tempi e costi, e tutto sembra funzionare
4. Se ci sono errori o vulnerabilità, sono guai seri
5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?
Leggi l'articolo di Paolo Attivissimo
Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e
preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto
forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce
istruzioni fuorvianti per la rimozione.
Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella
schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI,
l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema,
progettato per essere semplice e intuitivo, garantisce un accesso immediato alla
chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più
avanzata di AI di Meta, dotata di capacità multimodali.
Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte
della nostra quotidianità, su milioni di schermi, senza alcuna notifica
preventiva, né esplicito consenso.
Leggi l'articolo
Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia,
una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti
dei modelli linguistici nell’ambito dell’intelligenza artificiale.
* Come definiamo una lingua,
* Cosa vuol dire un modello linguistico,
* Come avviene la costruzione di questi mitici modelli linguistici,
* Come definiamo l'addestramento su una lingua.
* E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large
Language Model) o c'è qualcosa che è cambiato negli ultimi anni?
* Cosa è cambiato negli ultimi anni?
Ascolta il podcast della trasmissione sul sito di Radio Blackout
Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire
relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso
consiste nel processo mediante il quale si formulano inferenze a partire da un
insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale,
cioè esplicitabile, che consente di transitare dal già noto al non ancora noto,
dalla specificità alla generalità, o viceversa, assicurando coerenza e validità
in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o
qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.
Leggi l'articolo
Il luddismo, l'agire di quelle operaie e di quegli operai che agli inizi del
1800 prendevano a martellate o a zoccolate le macchine che toglievano loro
lavoro, è comunemente giudicato atteggiamento retrogrado ed infantile. Ad uno
sguardo più attento, il luddismo appare invece il primo passo, del tutto
comprensibile ed anzi necessario, di reazione ad una novità. L'energia
inizialmente indirizzata verso l'inutile attacco alla macchina trova negli anni
immediatamente successivi una destinazione costruttiva. Nascono così le mutue, i
sindacati, i partiti dei lavoratori. Oggi ci troviamo esattamente nella stessa
situazione: seguire i luddisti nel non subire passivamente, trovare vie per
rispondere costruttivamente. Questo articolo è stato rifiutato nel 2017 dalla
rivista 'Prometeo'. Il motivo: è pessimista, fosco. Ma come scrivo nella
conclusione "Credo che ci convenga essere turbati, spaventati, come lo erano i
luddisti". Il turbamento è il necessario passaggio iniziale verso una presa di
coscienza che si traduce in azione. Ripubblico qui l'articolo senza cambiare una
virgola.
Leggi l'articolo di Francesco Varanini
Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza
Artificiale, in particolare facendo il quadro dell'ingresso delle industrie
cinese nel mercato dei Large Language Models e provando a discutere dei
risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai
troppo tardi?
Ci spostiamo poi al mondo dei social media, segnalando la decisione di
ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta.
Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un
precedente, per quanto ci sembra che le principali criticità fossero già insite.
Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite
Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia.
L'unico nome che conosciamo è proprio quello di un giornalista italiano,
Francesco Cancellato, direttore di Fanpage.it.
Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere
il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza
Artificiale nelle indagini.
Ascolta la puntata sul sito di Radio Onda Rossa
Il capo di OpenAI ha annunciato a inizio anno che il suo nuovo modello di
intelligenza artificiale avrebbe ottenuto risultati simili a quelli umani in una
sorta di test del quoziente intellettivo. Un esito ottenuto però facendo
allenare la macchina sulle stesse domande e in modo poco trasparente, con costi
ecologici ed economici fuori scala. È ora di disertare questa agenda, fatta di
macchine mangia-soldi e mangia-risorse.
Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo
abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).
Il nuovo modello prodotto da OpenAI avrebbe infatti raggiunto risultati
comparabili con gli esseri umani nel risolvere il test ARC-AGI. Il video qui
sopra contiene un esempio delle domande contenute in tale test, che ricorda
molto da vicino i test del quoziente intellettivo (Qi) utilizzati in psicologia
per “misurare l’intelligenza” degli esseri umani. Sorvoleremo in questa sede su
due fatti chiave che richiederebbero invece una seria analisi: non esiste un
consenso scientifico su che cosa sia l’intelligenza umana e animale, ossia una
definizione condivisa e, anche fingendo di aver raggiunto un consenso, misurarla
resterebbe tutta un’altra faccenda. Dal punto di vista “teorico” ci limiteremo a
richiamare l’etimologia: “inter” più “ligere”, “leggere tra (le cose)”, leggere
in profondità.
Sam Altman (più in generale l’intero comparto dell’Ai) ci ha abituato a trucchi
degni degli artisti della truffa che giravano il suo Paese a inizi Ottocento,
usati a supporto di affermazioni-bomba come quella appena citata (e
immediatamente seguita da affermazioni ancora più esplosive sulla
“Superintelligenza”). Ricordiamo, a titolo d’esempio non esaustivo, la
figuraccia di Google alla presentazione del suo Gemini, quando i suoi padroni
raccontarono che il modello in questione sapeva riconoscere il gioco della morra
cinese al primo colpo (zero-shot), mentre -guardando il video completo- si
scopriva che la verità era molto diversa (e i dettagli, in questo campo, sono
molto importanti).
Leggi l'articolo di Stefano Borroni Barale