Lezioni di Cassandra/ L'alter ego di Cassandra ha fatto una chiacchierata
eretica sulle false IA in un paio di eventi pubblici, apparentemente con una
certa soddisfazione dei presenti; perché allora non trasformare gli appunti in
una esternazione vera e propria, salvandoli dall'oblio digitale?
Se oggi siamo in questa situazione è tutta colpa di Joseph Weizenbaum, noto
eretico dell'informatica. Anzi, è colpa di Joseph Weizenbaum e della sua
segretaria. Ma andiamo con ordine.
Nell'ambito dell'intelligenza artificiale, una delle pietre miliari più
conosciute è stato ELIZA, un programma informatico sviluppato appunto da
Weizenbaum nel 1966, che ha rivoluzionato la nostra comprensione delle
interazioni tra l'uomo e la macchina. Eliza, sebbene rudimentale rispetto agli
standard odierni, ha gettato le basi per molte delle tecnologie di chatbot e
assistenti virtuali che utilizziamo oggi.
[...]
In 70 anni di storia dell'IA sono stati sviluppati i motori di inferenza, le
reti neurali, le tecniche di apprendimento profondo: tutte cose che nei loro
ambiti funzionano benissimo. Se non li avete mai sentiti nominare, ricorderete
certo le notizie che l'IA referta le TAC meglio di un radiologo e che ha battuto
i campioni mondiali di scacchi e Go (dama cinese). Tre anni fa una tecnologia
già nota da tempo, gli LLM (Large Language Models — Grandi modelli di
Linguaggio) ha cominciato a funzionare. Perché? Per semplici motivi di scala,
cioè l'utilizzo di server più potenti per eseguirli e di più informazioni con
cui allenarli.
La speculazione finanziaria delle dotcom in cerca di nuove opportunità di far
soldi ci si è buttata a pesce. Improvvisamente ChatGPT e i suoi fratelli sono
diventati disponibili a chiunque gratuitamente: hanno cominciato ad affascinare
tutti esattamente come Eliza aveva fatto con la segretaria di Weizenbaum. Ma,
come Eliza, un LLM non sa niente, non comprende niente, non può rispondere a
nessuna domanda e nemmeno rispondere sempre nello stesso modo.
Leggi l'articolo su ZEUS News
Tag - AI
Da culla del progressismo a cuore dell’industria bellica a stelle e strisce:
Meta, OpenAI, Microsoft, Anduril e l’inarrestabile crescita della defence tech.
“C’è un sacco di patriottismo che è stato a lungo tenuto nascosto e che adesso
sta venendo alla luce”, ha spiegato al Wall Street Journal, Andrew Bosworth,
direttore tecnico di Meta.
Bosworth – assieme a Kevin Weil e Bob McGrew, rispettivamente responsabile del
prodotto ed ex responsabile della ricerca di OpenAI, ai quali si aggiunge Shyam
Sankar, direttore tecnico di Palantir – è infatti uno dei quattro dirigenti tech
assoldati in quello che è stato ironicamente chiamato “Army Innovation Corps” -
Corpo degli ingegneri degli Stati Uniti (il nome ufficiale del programma è
Detachment 201).
Il clima che si respira oggi nella Silicon Valley è molto differente, la
maschera progressista che le Big Tech hanno a lungo indossato è stata infine
calata (come mostrato plasticamente dall’ormai storica foto che ritrae i
principali “broligarchs” celebrare l’insediamento di Donald Trump), e adesso
nessuno sembra più farsi scrupoli a seguire la strada tracciata dalle due più
note realtà del settore “defence tech”: Palantir e Anduril, aziende fondate
rispettivamente dall’eminenza grigia della tech-right Peter Thiel e dal
guerrafondaio Palmer Luckey (già noto per aver fondato Oculus, poi acquistata da
Meta, e per rilasciare dichiarazione come: “Vogliamo costruire tecnologie che ci
diano la capacità di vincere facilmente ogni guerra”).
Articolo completo qui
Preoccupazioni per la privacy.
L'ultimo aggiornamento di WhatsApp è pensato per mettere la IA al servizio di
chi si trova spesso sommerso dalle notifiche e riesce ad accumulare decine o
magari centinaia di messaggi non letti, tra i quali poi deve destreggiarsi. Con
la nuova funzione Message Summaries, già attiva negli Stati Uniti, WhatsApp
genera infatti riassunti automatici dei messaggi non letti, sfruttando la IA di
Meta.
Il cuore della tecnologia è il Private Processing, un'infrastruttura che,
secondo Meta, assicura che né Meta stessa né WhatsApp possano accedere ai
contenuti delle conversazioni. I dati vengono elaborati in un ambiente protetto,
al quale le richieste di elaborazione vengono inviate in modo anonimo e protette
crittografia end-to-end.
La questione della riservatezza per WhatsApp è particolarmente delicata: Meta ha
una storia complessa in termini di privacy.
Leggi l'articolo completo
I costi energetici di migliaia di server che effettuano miliardi di calcoli al
secondo e i rischi per i cittadini
Bollette più alte e nuove centrali a gas per soddisfare la fame d’energia di
Meta, il colosso tech di Mark Zuckerberg. La multinazionale sta costruendo un
gigantesco data center in Louisiana, nelle campagne di Holly Ridge (una vasta
area rurale nel nord-est dello stato). Sono infrastrutture strategiche per Big
Tech: i data center contengono migliaia di server che, a loro volta, effettuano
miliardi di calcoli al secondo, lavorando senza sosta. È il “cervello”
dell’intelligenza artificiale, che se ne serve per eseguire i compiti che gli
vengono commissionati o, più banalmente, per fornirci le risposte richieste. Ma
proprio perché i computer lavorano ininterrottamente in condizioni normali si
surriscalderebbero; dunque, per evitare guasti tecnici, vanno raffreddati
artificialmente (ad esempio, tramite aria condizionata industriale ad alta
potenza). Bisogna poi alimentare la potenza di calcolo e sostenere i costi
energetici relativi ai sistemi d’illuminazione o di sicurezza
dell’infrastruttura. In definitiva, il fabbisogno complessivo di energia dei
data center è già di per sé molto elevato.
Ma Zuckerberg vuole costruire un arcipelago informatico che si estenderà su
370.000 metri quadrati (a grandi linee, un’area coperta da cinquantadue campi di
calcio regolamentari). E secondo le stime di una Ong locale, Alliance for
Affordable Energy, avrà bisogno del doppio dell’energia di cui vive New Orleans,
una città che conta quasi quattrocentomila abitanti.
Leggi l'articolo completo
Una segnalazione di lettura della Stultiferanavis: un paper pubblicato con
accesso libero su Arxiv.org dal titolo Your Brain on ChatGPT: Accumulation of
Cognitive Debt when Using an AI Assistant for Essay Writing Task
In modo disomogeneo e non così diffuso come molti raccontano, un numero
crescente di persone e di aziende fa ricorso ogni giorno a strumenti di IA
generative e ai modelli LLM. Interrogarsi su benefici ed effetti di questi
comportamenti può risultare utile, forse anche interessante.
E’ ciò che ha fatto un gruppo di ricercatori con lo studio “Your Brain on
ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay
Writing Task”, pubblicato su Arxiv.org.
Lo studio si è concentrato sull’individuazione del costo cognitivo derivante
dall’utilizzo di un LLM on un contesto particolare, quello legato alla scrittura
di un saggio.
Leggi l'articolo di Carlo Mazzucchelli
Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp,
fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato
sull’intelligenza artificiale integrato da qualche tempo in queste app e
simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non
si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi,
può capitare che vengano addirittura pubblicate online e rese leggibili a
chiunque. Come quella che avete appena sentito.
E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale
di Meta per chiedere cose estremamente personali e le sta affidando indirizzi,
situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta
pubblicando tutto quanto, con conseguenze disastrose per la privacy e la
protezione dei dati personali: non solo i propri, ma anche quelli degli altri.
Questa è la storia di Meta AI, di come mai i dati personali degli utenti
finiscono per essere pubblicati da quest’app e di come evitare che tutto questo
accada.
Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della
Radiotelevisione Svizzera dedicato alle notizie e alle storie strane
dell’informatica. Io sono Paolo Attivissimo.
Ascolta il podcast o leggi la trascrizione della puntata
L’esperta di tecnologia ha pubblicato un libro - Empire of AI | Inside the
reckless race for total domination - che descrive un nuovo imperialismo in cui
poche aziende tech si arricchiscono sfruttando dati comuni e risorse naturali
“L’intelligenza artificiale è come un impero dove il potere è accentrato nelle
mani di pochi che si arricchiscono sfruttando le risorse delle comunità più
vulnerabili. Il rischio più grande di permettere a questi imperi di IA di
continuare ad operare è una completa perdita di potere di autodeterminazione del
nostro futuro. In quel mondo la democrazia non può sopravvivere”. Karen Hao è
un’esperta di tecnologia (ex direttrice della rivista MIT Tech Review e
corrispondente tech da Hong Kong per il Wall Street Journal) ed è arrivata a
questa conclusione dopo essere stata embedded per tre giorni dentro OpenAI e
aver condotto 300 interviste a personaggi che gravitano attorno al suo fondatore
Sam Altman, oltre ad ex dirigenti ed impiegati di Meta, Microsoft, Google,
DeepMind e Anthropic. Gli imperatori.
* UNA NUOVA ERA COLONIALE
* INTELLIGENZA INSOSTENIBILE
* CERVELLI AI-DIPENDENTI
* LA SOLUZIONE?
Leggi l'articolo
Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale:
i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La
corsa verso la vera AGI sembra più lontana che mai.
Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la
pubblicazione di un whitepaper che mette in discussione le fondamenta stesse
dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio
“The Illusion of Thinking: Understanding the Strengths and Limitations of
Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del
pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento
attraverso la lente della complessità dei problemi'', rappresenta una vera e
propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona,
imita
Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM),
quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta
sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono
semplicemente eccezionali nel riconoscere pattern e riprodurre risposte
plausibili, ma quando si tratta di affrontare problemi complessi, la loro
presunta intelligenza si sbriciola.
Leggi l'articolo
Puntata 25 di EM, settima del ciclo Estrattivismo dei dati, parliamo di
Intelligenza Artificiale e lavoro.
Nella prima parte, la trasmissione affronta il tema dell’intelligenza
artificiale dal punto di vista del lavoro nascosto che ne rende possibile il
funzionamento. Ospite Antonio Casilli, che racconta come dietro ogni algoritmo,
chatbot o app ci sia una vasta rete di lavoratori spesso invisibili e
sottopagati, impegnati in attività di addestramento e moderazione dei sistemi di
IA. La discussione esplora il legame tra sfruttamento digitale e automazione,
mostrando come il lavoro umano venga semplicemente spostato e reso meno
visibile, ma non eliminato.
Nella seconda parte, si approfondisce il concetto di "lavoro invisibilizzato"
nell’era delle piattaforme e dell’intelligenza artificiale. Casilli descrive
come molti lavoratori digitali, anche in Europa, restino fuori dal campo visivo
pubblico, spesso vincolati da contratti di riservatezza e condizioni precarie.
Nella terza parte, il focus si sposta sulle possibili prospettive politiche e
sindacali: si parla di nuove forme di organizzazione e tutela dei lavoratori
digitali, dalle iniziative sindacali dal basso alle azioni legali collettive,
fino all’ipotesi di cooperative di intelligenza artificiale.
Ascolta l'audio nel sito di Radio Onda Rossa
Builder.AI è una startup londinese nata nel 2016 con la promessa di offrire un
assistente AI in grado di sviluppare app e software in pochi secondi e in modo
quasi completamente automatizzato. Oggi è in bancarotta per aver gonfiato i
bilanci, oltre a essere stata accusata di sfruttare il lavoro umano molto più di
quanto abbia mai ammesso.
Le bugie hanno le gambe corte, anche quando sei una startup quotata 1,5 miliardi
di dollari. In questi giorni ha fatto il giro del mondo la notizia del
fallimento di Builder.AI, un'azienda tech con base a Londra, che dopo aver
ricevuto per anni milioni di investimenti, anche da colossi come Microsoft, ha
dovuto fare i conti con la verità.
Builder.AI è stata fondata nel 2016 come una startup innovativa nel settore
dell'intelligenza artificiale. Il suo fiore all'occhiello era "Natasha", un
assistente AI in grado di sviluppare software e app in modo del tutto
automatizzato. O almeno, questo era quello che prometteva.
Leggi l'articolo