Tag - AI

Le domande intime degli altri fatte a Meta AI si possono leggere online
Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp, fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato sull’intelligenza artificiale integrato da qualche tempo in queste app e simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi, può capitare che vengano addirittura pubblicate online e rese leggibili a chiunque. Come quella che avete appena sentito. E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale di Meta per chiedere cose estremamente personali e le sta affidando indirizzi, situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta pubblicando tutto quanto, con conseguenze disastrose per la privacy e la protezione dei dati personali: non solo i propri, ma anche quelli degli altri. Questa è la storia di Meta AI, di come mai i dati personali degli utenti finiscono per essere pubblicati da quest’app e di come evitare che tutto questo accada. Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo. Ascolta il podcast o leggi la trascrizione della puntata
June 17, 2025 / Pillole di Graffio
“L’intelligenza artificiale è un impero: il potere in mano a pochi che sfruttano le risorse della comunità”: la scenario devastante descritto da Karen Hao
L’esperta di tecnologia ha pubblicato un libro - Empire of AI | Inside the reckless race for total domination - che descrive un nuovo imperialismo in cui poche aziende tech si arricchiscono sfruttando dati comuni e risorse naturali “L’intelligenza artificiale è come un impero dove il potere è accentrato nelle mani di pochi che si arricchiscono sfruttando le risorse delle comunità più vulnerabili. Il rischio più grande di permettere a questi imperi di IA di continuare ad operare è una completa perdita di potere di autodeterminazione del nostro futuro. In quel mondo la democrazia non può sopravvivere”. Karen Hao è un’esperta di tecnologia (ex direttrice della rivista MIT Tech Review e corrispondente tech da Hong Kong per il Wall Street Journal) ed è arrivata a questa conclusione dopo essere stata embedded per tre giorni dentro OpenAI e aver condotto 300 interviste a personaggi che gravitano attorno al suo fondatore Sam Altman, oltre ad ex dirigenti ed impiegati di Meta, Microsoft, Google, DeepMind e Anthropic. Gli imperatori. * UNA NUOVA ERA COLONIALE * INTELLIGENZA INSOSTENIBILE * CERVELLI AI-DIPENDENTI * LA SOLUZIONE? Leggi l'articolo
June 15, 2025 / Pillole di Graffio
Apple distrugge il mito dell'Intelligenza Artificiale: ecco perché la vera AI è solo un'illusione!
Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale: i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La corsa verso la vera AGI sembra più lontana che mai. Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la pubblicazione di un whitepaper che mette in discussione le fondamenta stesse dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità dei problemi'', rappresenta una vera e propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona, imita Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM), quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono semplicemente eccezionali nel riconoscere pattern e riprodurre risposte plausibili, ma quando si tratta di affrontare problemi complessi, la loro presunta intelligenza si sbriciola. Leggi l'articolo
June 15, 2025 / Pillole di Graffio
Entropia massima - Intelligenza Artificiale e lavoro con Antonio Casilli
Puntata 25 di EM, settima del ciclo Estrattivismo dei dati, parliamo di Intelligenza Artificiale e lavoro. Nella prima parte, la trasmissione affronta il tema dell’intelligenza artificiale dal punto di vista del lavoro nascosto che ne rende possibile il funzionamento. Ospite Antonio Casilli, che racconta come dietro ogni algoritmo, chatbot o app ci sia una vasta rete di lavoratori spesso invisibili e sottopagati, impegnati in attività di addestramento e moderazione dei sistemi di IA. La discussione esplora il legame tra sfruttamento digitale e automazione, mostrando come il lavoro umano venga semplicemente spostato e reso meno visibile, ma non eliminato. Nella seconda parte, si approfondisce il concetto di "lavoro invisibilizzato" nell’era delle piattaforme e dell’intelligenza artificiale. Casilli descrive come molti lavoratori digitali, anche in Europa, restino fuori dal campo visivo pubblico, spesso vincolati da contratti di riservatezza e condizioni precarie. Nella terza parte, il focus si sposta sulle possibili prospettive politiche e sindacali: si parla di nuove forme di organizzazione e tutela dei lavoratori digitali, dalle iniziative sindacali dal basso alle azioni legali collettive, fino all’ipotesi di cooperative di intelligenza artificiale. Ascolta l'audio nel sito di Radio Onda Rossa
June 11, 2025 / Pillole di Graffio
700 sviluppatori in un call center indiano: lo scandalo della finta Intelligenza Artificiale di Builder AI
Builder.AI è una startup londinese nata nel 2016 con la promessa di offrire un assistente AI in grado di sviluppare app e software in pochi secondi e in modo quasi completamente automatizzato. Oggi è in bancarotta per aver gonfiato i bilanci, oltre a essere stata accusata di sfruttare il lavoro umano molto più di quanto abbia mai ammesso. Le bugie hanno le gambe corte, anche quando sei una startup quotata 1,5 miliardi di dollari. In questi giorni ha fatto il giro del mondo la notizia del fallimento di Builder.AI, un'azienda tech con base a Londra, che dopo aver ricevuto per anni milioni di investimenti, anche da colossi come Microsoft, ha dovuto fare i conti con la verità. Builder.AI è stata fondata nel 2016 come una startup innovativa nel settore dell'intelligenza artificiale. Il suo fiore all'occhiello era "Natasha", un assistente AI in grado di sviluppare software e app in modo del tutto automatizzato. O almeno, questo era quello che prometteva. Leggi l'articolo
June 6, 2025 / Pillole di Graffio
Zuckerberg fornirà caschi smart e AI per i soldati USA
Meta, colosso tech fondato da Mark Zuckerberg, e Anduril, la società di tecnologie per la difesa di Palmer Luckey (fondatore di Oculus acquisita da Facebook), stanno collaborando su una gamma di prodotti XR integrati, progettati specificamente per i soldati americani. Il ceo di Anduril, Palmer Luckey, ha elogiato la partnership come una spinta tecnologica necessaria per le forze armate. “Di tutti i settori in cui la tecnologia a duplice uso può fare la differenza per l’America, questo è quello che mi entusiasma di più”, ha affermato Luckey. “La mia missione è da tempo quella di trasformare i combattenti in tecnomanti, e i prodotti che stiamo sviluppando con Meta fanno proprio questo”. Da parte sua Zuckerberg ha dichiarato nella nota che “Meta ha trascorso l’ultimo decennio a sviluppare intelligenza artificiale e realtà aumentata per abilitare la piattaforma informatica del futuro”. “Siamo orgogliosi di collaborare con Anduril per contribuire a portare queste tecnologie ai militari americani che proteggono i nostri interessi in patria e all’estero” ha aggiunto il numero uno di Meta. Non va dimenticato che solo lo scorso novembre Meta ha cambiato politica per aprire Llama al governo degli Stati Uniti per “applicazioni di sicurezza nazionale”. Tra gli appaltatori governativi a cui Meta stava aprendo Llama ci sono Amazon Web Services, Lockheed Martin, Microsoft, Palantir e appunto Anduril. Articolo qui
June 5, 2025 / Pillole di Graffio
Telegram integra Grok, l'AI di Elon Musk
Lo annuncia il fondatore dell'app di messaggistica Pavel Durov, la partnership è da 300 milioni di dollari Con un messaggio sul proprio canale ufficiale di Telegram, il fondatore Pavel Durov ha ufficializzato l'accordo con Elon Musk che porterà quest'estate tutte le funzionalità di intelligenza artificiale basate su Grok a bordo dell'app di messaggistica. Secondo le informazioni diffuse, si tratta di una partnership da 300 milioni di dollari, che potrà dare un bel boost al servizio multipiattaforma per cerare di pareggiare i conti con gli eterni rivali di WhatsApp con la loro soluzione proprietaria basata su Meta AI. L'accordo avrà una durata di un anno e le funzionalità riguarderanno la platea globale degli utilizzatori di Telegram, stimata in circa un miliardo di utenti. Già da qualche tempo Grok era disponibile per gli abbonati a Telegram Premium, ma presto sarà sfruttabile anche gratuitamente. Durov specifica come Telegram riceverà la somma di 300 milioni in dollari e azioni di xAI e otterrà anche il 50% dei ricavi dagli abbonamenti a xAI che saranno sottoscritti dagli utenti che arrivano appunto dall'app. Leggi l'articolo
June 4, 2025 / Pillole di Graffio
Usa, così gli alti costi dell’energia necessaria per datacenter e IA gonfiano le bollette delle famiglie
Un’inchiesta del New York Times parte da un rapporto Wood MacKenzie e dagli aumenti dei prezzi degli ultimi anni: privati e piccole imprese potrebbero caricarsi ulteriormente sulle spalle gli oneri degli aggiornamenti della rete necessari a Big tech. Famiglie e piccole imprese statunitensi stanno pagando l’energia a prezzi maggiorati, negli ultimi anni, ma le tariffe elettriche a loro carico potrebbero aumentare ulteriormente, a breve. E la ragione non è in quel che consumano loro, ma in quel che consuma il settore Big tech per mandare avanti datacenter e servizi di Intelligenza artificiale (Artificial intelligence, AI). Secondo i dati citati dal NYT si prevede che la domanda di elettricità in alcune parti degli Stati Uniti aumenterà fino al 15% solo nei prossimi quattro anni. «Il rapido aumento dei datacenter, che utilizzano l'elettricità per alimentare i server di computer e mantenerli freschi, ha messo a dura prova molte utility», scrive il quotidiano statunitense. Oltre a investire per soddisfare la domanda, i servizi pubblici stanno spendendo miliardi di dollari per rendere i loro sistemi più sicuri contro incendi, uragani, ondate di calore, tempeste invernali e altre condizioni meteorologiche estreme: «I disastri naturali, molti dei quali sono legati al cambiamento climatico, hanno reso le reti elettriche più inaffidabili degli Stati Uniti. Questa spesa è uno dei motivi principali per cui le tariffe dell'elettricità sono aumentate negli ultimi anni». Negli Stati Uniti e in Europa tali costi vengono al momento “socializzati” e redistribuiti sulle bollette di tutti gli utenti. Un approccio comprensibile se l’obiettivo è un bene comune (per esempio la decarbonizzazione grazie al passaggio alle rinnovabili). Ma se invece gli investimenti in infrastrutture energetiche servono a facilitare i già colossi guadagni dei giganti digitali, è giusto che a pagare siano le famiglie e le piccole imprese?
May 20, 2025 / Pillole di Graffio
LibGen e la ricerca universitaria piratata sono il nuovo giacimento di dati per allenare l'intelligenza artificiale
Meta ha usato anche LibGen, un database illegale online, per allenare la sua AI, scavalcando così il diritto d'autore e il lavoro di chi fa ricerca, che finisce sfruttato due volte. Ma il copyright non è la soluzione. Notizia di queste settimane è quella relativa all’utilizzo da parte di Meta di LibGen, un archivio online di materiali, anche accademici, piratati, per aiutare ad addestrare i suoi modelli linguistici di intelligenza artificiale generativa. La notizia è un paradosso, soprattutto, in particolare se letta dalla prospettiva della ricerca accademica. Chi scrive è l’opposto di un sostenitore del copyright: è un sistema che offre pochissima autonomia e un lievissimo sostegno ai piccoli, e dona, invece, un enorme potere ai grandi gruppi editoriali, oltre a essere un ostacolo alla libera circolazione della conoscenza e della cultura. [...] La razzia spregiudicata di questi contenuti è predatoria perché omette completamente l’esistenza di chi quei contenuti li ha creati, e non perché non ne rispetta il copyright, ma perché avanza una pretesa di possesso su quei contenuti come se non esista alcun livello ulteriore. È predatoria perché si rivolge, senza alcun ragionamento culturale, alla pirateria, che è stata creata per indebolire un sistema iniquo. Così facendo Meta crea un livello di sfruttamento ulteriore su quei contenuti, facendosi gioco di una strategia di resistenza, di fatto svuotandola. Il fatto che Meta si sia rivolta a un database illegale per questa operazione dimostra due cose: che il copyright è finito e non serve assolutamente a nulla (ma questo lo sapevamo già da molto) e, allo stesso tempo, che non esiste limite alcuno all’azione delle aziende tecnologiche e alle loro dinamiche estrattive. Non vi erano limiti all’estrazione di dati per la pubblicità targetizzata, perché dovrebbero esistere per l’AI generativa? Credere che questo contribuirà a indebolire il copyright o a finalmente mandarlo in soffitta è una favola che può funzionare solo in qualche narrazione determinista dove l’AI è un agente neutro, inevitabile e irrefrenabile, cui non è possibile, né giusto, porre limiti. È una narrazione tossica e di comodo, e molto pericolosa, ed è la stessa da decenni. La risposta non può certamente essere il copyright, ma nemmeno la resa incondizionata a questo pensiero che mischia linguaggio corporate a filosofia spiccia. Non abbiamo fatto e sostenuto le battaglie per la Rete libera, il fair use, le licenze creative commons e per la memoria di Aaron Swartz per fare finta che finire sfruttati da Meta una volta in più sia una cosa di cui essere contenti. Articolo completo qui
May 19, 2025 / Pillole di Graffio
YouTube userà la IA per annunci sempre più invasivi
YouTube sta modificanda le sue strategie pubblicitarie e l'intelligenza artificiale è al centro di questa evoluzione. Stando alle indiscrezioni, la piattaforma sta sperimentando un sistema basato sull'IA per inserire annunci nei momenti in cui gli utenti sono più propensi a notarli, spesso durante le pause naturali dei video. L'obiettivo è chiaro: massimizzare l'impatto delle pubblicità, anche se un approccio come questo ha l'aria di essere essere un po' troppo invasivo. L'IA analizza il contenuto dei video per identificare i punti in cui l'attenzione dell'utente è al massimo, come la fine di una scena intensa o un momento di silenzio. Questi istanti, che l'algoritmo considera ideali, diventano il bersaglio perfetto per gli annunci. Se da un lato questo può (almeno inizialmente) aumentare l'efficacia delle campagne pubblicitarie, dall'altro rischia di interrompere l'esperienza di visione in modo più evidente, suscitando frustrazione negli spettatori. Articolo completo qui
May 16, 2025 / Pillole di Graffio