Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp,
fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato
sull’intelligenza artificiale integrato da qualche tempo in queste app e
simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non
si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi,
può capitare che vengano addirittura pubblicate online e rese leggibili a
chiunque. Come quella che avete appena sentito.
E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale
di Meta per chiedere cose estremamente personali e le sta affidando indirizzi,
situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta
pubblicando tutto quanto, con conseguenze disastrose per la privacy e la
protezione dei dati personali: non solo i propri, ma anche quelli degli altri.
Questa è la storia di Meta AI, di come mai i dati personali degli utenti
finiscono per essere pubblicati da quest’app e di come evitare che tutto questo
accada.
Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della
Radiotelevisione Svizzera dedicato alle notizie e alle storie strane
dell’informatica. Io sono Paolo Attivissimo.
Ascolta il podcast o leggi la trascrizione della puntata
Tag - Intelligenza Artificiale
L’esperta di tecnologia ha pubblicato un libro - Empire of AI | Inside the
reckless race for total domination - che descrive un nuovo imperialismo in cui
poche aziende tech si arricchiscono sfruttando dati comuni e risorse naturali
“L’intelligenza artificiale è come un impero dove il potere è accentrato nelle
mani di pochi che si arricchiscono sfruttando le risorse delle comunità più
vulnerabili. Il rischio più grande di permettere a questi imperi di IA di
continuare ad operare è una completa perdita di potere di autodeterminazione del
nostro futuro. In quel mondo la democrazia non può sopravvivere”. Karen Hao è
un’esperta di tecnologia (ex direttrice della rivista MIT Tech Review e
corrispondente tech da Hong Kong per il Wall Street Journal) ed è arrivata a
questa conclusione dopo essere stata embedded per tre giorni dentro OpenAI e
aver condotto 300 interviste a personaggi che gravitano attorno al suo fondatore
Sam Altman, oltre ad ex dirigenti ed impiegati di Meta, Microsoft, Google,
DeepMind e Anthropic. Gli imperatori.
* UNA NUOVA ERA COLONIALE
* INTELLIGENZA INSOSTENIBILE
* CERVELLI AI-DIPENDENTI
* LA SOLUZIONE?
Leggi l'articolo
Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale:
i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La
corsa verso la vera AGI sembra più lontana che mai.
Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la
pubblicazione di un whitepaper che mette in discussione le fondamenta stesse
dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio
“The Illusion of Thinking: Understanding the Strengths and Limitations of
Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del
pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento
attraverso la lente della complessità dei problemi'', rappresenta una vera e
propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona,
imita
Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM),
quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta
sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono
semplicemente eccezionali nel riconoscere pattern e riprodurre risposte
plausibili, ma quando si tratta di affrontare problemi complessi, la loro
presunta intelligenza si sbriciola.
Leggi l'articolo
Puntata 25 di EM, settima del ciclo Estrattivismo dei dati, parliamo di
Intelligenza Artificiale e lavoro.
Nella prima parte, la trasmissione affronta il tema dell’intelligenza
artificiale dal punto di vista del lavoro nascosto che ne rende possibile il
funzionamento. Ospite Antonio Casilli, che racconta come dietro ogni algoritmo,
chatbot o app ci sia una vasta rete di lavoratori spesso invisibili e
sottopagati, impegnati in attività di addestramento e moderazione dei sistemi di
IA. La discussione esplora il legame tra sfruttamento digitale e automazione,
mostrando come il lavoro umano venga semplicemente spostato e reso meno
visibile, ma non eliminato.
Nella seconda parte, si approfondisce il concetto di "lavoro invisibilizzato"
nell’era delle piattaforme e dell’intelligenza artificiale. Casilli descrive
come molti lavoratori digitali, anche in Europa, restino fuori dal campo visivo
pubblico, spesso vincolati da contratti di riservatezza e condizioni precarie.
Nella terza parte, il focus si sposta sulle possibili prospettive politiche e
sindacali: si parla di nuove forme di organizzazione e tutela dei lavoratori
digitali, dalle iniziative sindacali dal basso alle azioni legali collettive,
fino all’ipotesi di cooperative di intelligenza artificiale.
Ascolta l'audio nel sito di Radio Onda Rossa
Builder.AI è una startup londinese nata nel 2016 con la promessa di offrire un
assistente AI in grado di sviluppare app e software in pochi secondi e in modo
quasi completamente automatizzato. Oggi è in bancarotta per aver gonfiato i
bilanci, oltre a essere stata accusata di sfruttare il lavoro umano molto più di
quanto abbia mai ammesso.
Le bugie hanno le gambe corte, anche quando sei una startup quotata 1,5 miliardi
di dollari. In questi giorni ha fatto il giro del mondo la notizia del
fallimento di Builder.AI, un'azienda tech con base a Londra, che dopo aver
ricevuto per anni milioni di investimenti, anche da colossi come Microsoft, ha
dovuto fare i conti con la verità.
Builder.AI è stata fondata nel 2016 come una startup innovativa nel settore
dell'intelligenza artificiale. Il suo fiore all'occhiello era "Natasha", un
assistente AI in grado di sviluppare software e app in modo del tutto
automatizzato. O almeno, questo era quello che prometteva.
Leggi l'articolo
Lo annuncia il fondatore dell'app di messaggistica Pavel Durov, la partnership è
da 300 milioni di dollari
Con un messaggio sul proprio canale ufficiale di Telegram, il fondatore Pavel
Durov ha ufficializzato l'accordo con Elon Musk che porterà quest'estate tutte
le funzionalità di intelligenza artificiale basate su Grok a bordo dell'app di
messaggistica. Secondo le informazioni diffuse, si tratta di una partnership da
300 milioni di dollari, che potrà dare un bel boost al servizio multipiattaforma
per cerare di pareggiare i conti con gli eterni rivali di WhatsApp con la loro
soluzione proprietaria basata su Meta AI.
L'accordo avrà una durata di un anno e le funzionalità riguarderanno la platea
globale degli utilizzatori di Telegram, stimata in circa un miliardo di utenti.
Già da qualche tempo Grok era disponibile per gli abbonati a Telegram Premium,
ma presto sarà sfruttabile anche gratuitamente.
Durov specifica come Telegram riceverà la somma di 300 milioni in dollari e
azioni di xAI e otterrà anche il 50% dei ricavi dagli abbonamenti a xAI che
saranno sottoscritti dagli utenti che arrivano appunto dall'app.
Leggi l'articolo
Newsletter N. 205 - 11 maggio 2025
Numero centrato soprattuto su AI, lavoratori e rapporti di potere
Dopo l’ondata di attenzione e infatuazione mediatica che ha accompagnato il
lancio di ChatGPT e di molti altri strumenti di intelligenza artificiale
generativa, dopo che per molti mesi si è parlato di vantaggi per la
produttività, o di sostituzione del lavoro (soprattutto delle mansioni noiose e
ripetitive) con l’AI, siamo arrivati a un punto dove si intravedono più che
altro le prime sostituzioni di lavoratori. E ciò sebbene la promessa crescita di
produttività lasci ancora molto a desiderare (non parliamo della sostituzione di
ruoli).
Mentre gli stessi lavoratori del settore tech (un’elite che per anni ha
viaggiato in prima classe anche nelle peggiori fluttuazioni del mercato del
lavoro) si sono resi conto di trovarsi in una situazione piuttosto scomoda: più
licenziabili, da un lato, e più esposti ai dilemmi etici di lavorare per aziende
che hanno abbandonato precedenti remore per contratti di tipo militare,
dall’altro.
Partiamo proprio dalla guerra.
Una parte di dipendenti di Google DeepMind (l’unità di Alphabet che lavora
sull’intelligenza artificiale e tra le altre cose ha rilasciato Gemini, la
famiglia di modelli linguistici di grandi dimensioni) stanno cercando di
sindacalizzarsi per contestare la decisione dell'azienda di vendere le sue
tecnologie ai militari, e a gruppi legati al governo israeliano. ...
Leggi la newsletter completa
Il chatbot era velocissimo, ma impersonale e impreciso.
Nella corsa frenetica a sostituire i dipendenti umani con la IA che sembra
coinvolgere ogni azienda, si è verificata una piccola inversione di tendenza.
Klarna, l'azienda svedese di servizi finanziari specializzata in pagamenti
rateizzati, dopo aver sostituito 700 dipendenti con un chatbot AI nel 2024, ora
sta tornando ad assumere personale umano per il servizio clienti.
La decisione arriva dopo che un sondaggio interno ha rivelato che soltanto un
progetto AI su 4 ha portato un ritorno sull'investimento atteso. Il sondaggio ha
evidenziato i limiti dell'automazione in un settore che, a causa
dell'interazione con i clienti, non richiede soltanto efficienza ma empatia e
flessibilità.
Leggi l'articolo su ZEUS News
È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò
che abbiamo pubblicato sui social network. Ecco come
L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo
modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti
di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark
Zuckerberg ha immediatamente provocato un vero tsunami di reazioni
(prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei
social network targati Meta, al momento, è quella di sapere come impedire
l’utilizzo dei loro contenuti per foraggiare l’algoritmo.
L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni
pubblicate, ma le cose non sono semplici come potrebbe sembrare.
Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo
all’utilizzo dei nostri dati.
Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici
condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti
pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri
contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria,
tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se
abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post
solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero
essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il
nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le
valutazioni o recensioni su Marketplace e su un account Instagram pubblico.
leggi l'articolo
Link diretto Facebook per opporsi
Link diretto Instagram per opporsi
Il crepitio dei tasti di un programmatore che scrive codice per comporre un
programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da
decenni, saper programmare significa avere pieno potere, avere la facoltà di far
fare quello che si vuole al computer o tablet o telefono che sia, poter creare
app, senza dover dipendere da nessuno.
Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di
programmazione, ciascuno con una sintassi e delle regole differenti, e per molte
persone questo non è facile o è semplicemente impossibile. Programmare resta
così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.
Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di
diventare programmatori o sviluppatori, o se siete genitori e pensate che far
studiare gli arcani incantesimi della programmazione sia la strada maestra per
una carriera informatica garantita per i vostri figli, ci sono due parole che vi
conviene conoscere: vibe coding.
[...]
1. Vibe coding: creare programmi senza saper programmare
2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
3. Si riducono tempi e costi, e tutto sembra funzionare
4. Se ci sono errori o vulnerabilità, sono guai seri
5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?
Leggi l'articolo di Paolo Attivissimo