Tag - AI

LLM, algoritmi e debito tecnologico
Cassandra Crossing/ Mentre il termine “Vibe coding” perde per fortuna vigore, sempre più ambienti di programmazione forzano l’utilizzo di LLM per lo sviluppo di software; cosa mai potrebbe andare storto che già altri non abbiano evidenziato? Pare che la produzione di software tramite l'utilizzo di modelli linguistici sia in grande sviluppo, no, in tumultuosa crescita; anzi, sia ormai divenuta inarrestabile e indispensabile. Definita inizialmente come Vibe Coding, è stata dapprima presentata come lasciapassare per chiunque volesse sviluppare software senza avere competenze di informatica e programmazione. Poi, quando la cosa ha iniziato a sembrare l'idiozia che è, si sono invece osannati i vantaggi economici che l'impiego di questi metodi da parte di veri programmatori avrebbe consentito alle aziende, aumentando la produttività dei programmatori esistenti; non è chiaro se dei senior che potevano fare a meno di una squadra di junior, oppure degli junior, che potevano scrivere software a livello di quello scritto dai senior. Comunque certamente consentendo di tagliare posti di lavoro, presenti e futuri, facendo quindi scattare quell'automatismo che fa salire subito la quotazione in borsa di qualsiasi azienda. Alla fine, hanno iniziato a essere contrastanti i pareri di chi aveva provato davvero a usare i Grandi Modelli Linguistici (Large Language Models o LLM) in ambienti di produzione riguardo il risparmio di tempo e la qualità del codice prodotto; i primi dubbi hanno iniziato a essere presi sul serio. Lo sforzo di inserire a tutti i costi funzionalità guidate da LLM, comune a tutte le applicazioni commerciali, ha saturato di LLM anche tutti gli ambienti di sviluppo software. E quindi tutti i programmatori, che lo volessero o no, si sono trovati ad avere l'indice sul grilletto di una nuova arma. Leggi l'articolo su ZEUS News
February 3, 2026 / Pillole di Graffio
Richard Stallman spara a zero su intelligenza artificiale, auto connesse e smartphone
Richard Stallman è intervenuto venerdì al Georgia Institute of Technology di Atlanta con una conferenza di circa 50 minuti, seguita da oltre un'ora e mezza di domande dal pubblico. Il fondatore del progetto GNU e figura storica del movimento del software libero ha colto l'occasione per riaffermare i principi che ne guidano da decenni l'attivismo, ma anche per aggiornare la sua critica alle tecnologie più recenti, dall'IA generativa alle auto connesse. Tra i temi toccati figurano dark pattern, censura, backdoor, abbonamenti, aggiornamenti remoti e perfino la possibilità di "brickare" da remoto i dispositivi degli utenti, che per Stallman sono tutte conseguenze dirette del software non libero. Parlando di IA, Stallman ha contestato l'uso corrente del termine "intelligenza artificiale" per descrivere sistemi che, a suo giudizio, non sono intelligenti in alcun senso significativo. Per i grandi modelli linguistici preferisce il termine "generatori", sottolineando che generano testo senza comprenderne davvero il significato e che possono commettere errori senza alcun segnale di incertezza, motivo per cui "non ci si può fidare di ciò che generano". Secondo Stallman, chiamarli IA equivale ad avallare l'idea che siano davvero intelligenti, contribuendo alla campagna di marketing che punta a far sì che le persone affidino attività e scelte di vita a questi sistemi e alle grandi aziende che li controllano. Per contrastare questa narrativa propone l'espressione "Pretend Intelligence", o PI, che vorrebbe diffondere proprio per smontare l'hype che circonda la tecnologia attuale. Stallman ha aggiunto che, per quanto gli risulta, nessuno di questi sistemi è distribuito come software libero, il che per lui è un ulteriore elemento problematico. Articolo completo qui Your page content goes here.
January 27, 2026 / Pillole di Graffio
C.I.R.C.E. ad iNCLUSIVE aRTS 2026
Il 4-5-6 febbraio CIRCE partecipa alla quarta edizione del festival sulle arti inclusive #InclusiveArts2026 che investiga le pratiche di #MachineLearning nel campo dell’inclusive design e dell’accessibilità delle piattaforme digitali. In occasione dell'evento iNCLUSIVE aRTS 2026 organizzato dal Prof. Enrico Bisenzi presso l'Accademia di Belle Arti di Roma, CIRCE è stata invitata a partecipare in modo trasversale nelle tre giornate per contribuire con uno sguardo critico ad analizzare l'impatto dell'Intelligenza Artificiale nel campo dell'Inclusive Design. Nella prima giornata, avrà luogo un laboratorio di S/gamificazione dal titolo Automazione industriale VS Intelligenza Artigianale in collaborazione con Betterpress Lab Automazione industriale VS intelligenza artigianale: “Giocare o essere giocate” (a cura di Agnese Trocchi e Betterpress Lab) Analisi d’interfaccia: un percorso a ritroso dal digitale all’analogico Ogni giorno nelle nostre attività personali, di studio o di lavoro, siamo costantemente esposte a piattaforme digitali che influenzano il nostro modo di comunicare e di vivere le relazioni. Attraverso l’analisi emotiva d’interfaccia comprendiamo i meccanismi che influenzano il modo in cui viviamo le interazioni digitali, in particolare con i chatbot conversazionali. Senza accorgercene automatizziamo i nostri comportamenti per interagire con le intelligenze artificiali su cui proiettiamo caratteristiche umane. Esplorando la “zona della macchina” in cui siamo quotidianamente immerse, realizzeremo due tipi di intervento: la mattina analizzeremo le interfacce digitali di videogiochi, social media, app di messaggistica e chatbot per comprendere cosa è la gamificazione utilizzando il metodo della Pedagogia Hacker; il pomeriggio ricostruiremo in modo analogico le interfacce che più sono presenti nelle nostre vite utilizzando gli strumenti della stampa a caratteri mobili. Tutte le informazioni sul sito di CIRCE e su quello del Prof. Enrico Bisenzi, organizzatore dell'evento.
January 20, 2026 / Pillole di Graffio
Cresce in tutto il mondo la protesta contro la costruzione di nuovi Data Center
La costruzione di data-center è in aumento in tutto il mondo per far fronte alle esigenze di calcolo e di storage della cosidetta Intelligenza Artificiale Di pari passo crescono le proteste contro la costruzione di questi eco-mostri particolarmente energivori ed ecologicamente impattanti. A quanto pare le proteste hanno spesso successo. negli Stati Uniti, secondo la rete di ricerca e attivismo Data center watch, nel secondo trimestre del 2025 venti progetti sono stati sospesi o bloccati, per un valore di 98 miliardi di dollari. Lo scorso 8 dicembre una coalizione di più di 230 gruppi ambientalisti ha richiesto una moratoria nazionale sui nuovi data center negli Stati Uniti, sollecitando il congresso a fermare la diffusione di strutture ad alto consumo energetico. Nelle città dell’Europa del nord la rete non può reggere ulteriori infrastrutture che richiedono un alto consumo di energia, a meno di investimenti troppo costosi. E così, quando Amsterdam, Francoforte, Londra e Dublino hanno messo in pausa nuove autorizzazioni, l’attenzione si è spostata su Milano, destinata a diventare un nuovo hub a livello europeo. Così anche in Italia sono nati comitati di cittadini che protestano contro la costruzione di nuovi data-center, supportati anche da associazioni ecologiste. Fonti: * Internazionale, L’intelligenza artificiale fa nascere data center e proteste * [Irpi Media, I data center si mangiano la terra (ancora) verde. Due casi in Lombardia](I data center si mangiano la terra (ancora) verde. Due casi in Lombardia) * Mappa dei Data Center * PuntoInformatico, Microsoft, cinque promesse per placare la rivolta anti-Data Center * ANSA, Crescono i movimenti 'anti IA', preoccupano lavoro e data center
January 19, 2026 / Pillole di Graffio
Crisi della RAM: DDR 4 e 5 sempre più rare, tornano in vendita le DDR 3
La disponibilità di memoria per PC sta attraversando una fase di tensione che sta modificando dinamiche di mercato considerate ormai consolidate. L'aumento dei prezzi delle RAM più recenti (DDR 4 e DDR 5) e la scarsità di chip stanno riportando in circolazione componenti che sembravano definitivamente superati, come i moduli DDR 3. Negli ultimi mesi la domanda di memoria ha superato la capacità produttiva dei principali fornitori, impegnati a rifornire i datacenter in cui girano gli LLM delle varie IA, generando un incremento dei prezzi che ha colpito in modo evidente soprattutto le DDR 5. Le vendite di schede madri compatibili con DDR 5 hanno registrato un calo significativo, mentre anche le DDR 4, dopo una breve fase di stabilizzazione, hanno iniziato a mostrare segnali di indebolimento nella disponibilità, con conseguenti aumenti di prezzo. La contrazione dell'offerta non riguarda solo i moduli di memoria, ma l'intero ecosistema necessario al loro funzionamento. La tecnologia DDR 5 integra sul modulo parte dell'elettronica di gestione dell'alimentazione, aumentando i costi di produzione e rendendo più complesso mantenere volumi elevati. Questo fattore contribuisce a spiegare perché la disponibilità sia più fragile rispetto alle generazioni precedenti. Leggi l'articolo
January 17, 2026 / Pillole di Graffio
Perché l’introduzione acritica dell’intelligenza artificiale nelle scuole è un problema
Martedì 16 novembre si è tenuto a Torino e, contemporaneamente, in streaming il lancio della campagna “I.A., basta!” pensato dai sindacati di base, in collaborazione con l’associazione “Agorà 33 – La nostra scuola”, per «resistere all'adozione frettolosa e acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGpt e Gemini», in risposta all’appello di alcuni docenti. Lo scopo principale della campagna è far partire un dibattito che latita dall’inizio della “transizione digitale”, incentivata dai vari round di finanziamenti Pnrr Scuola. Fino a ora, infatti, si è sempre sentito parlare di “intelligenza artificiale”, strettamente al singolare, sottintendendo con questo che l’unica opzione per la scuola sia accettare “a scatola chiusa” le soluzioni delle Big Tech, oppure rigettare in toto la tecnologia alla maniera degli Amish. Non esiste una sola intelligenza artificiale Fin dalla prima sperimentazione, lanciata all’inizio dello scorso anno scolastico, il ministero dell’Istruzione e del Merito sembra muoversi in accordo al grido di battaglia che fu di Margaret Thatcher: «Non ci sono alternative»! La sperimentazione, partita in 15 su 8254 scuole del paese utilizzando esclusivamente prodotti Google e Microsoft, non è ancora terminata e già il Ministero ha fatto un altro possente balzo in avanti: a settembre ha presentato le “Linee guida per l’introduzione dell’I.A. nella scuola”. A partire dal titolo del documento, emerge in maniera chiara una visione rigidamente determinista: l’intelligenza artificiale è una, quella venduta da Big Tech (OpenAi, Google, Meta, Microsoft, Anthropic), non ci sono discussioni. Articolo completo qui
December 19, 2025 / Pillole di Graffio
Le Dita Nella Presa - Non è siccità, è saccheggio!
Partiamo con un report di Hackrocchio, evento organizzato dall'hacklab torinese Underscore, di cui abbiamo parlato anche recentemente. Continuiamo passando alle Americhe, guardando agli stati che si stanno distinguendo per gli usi disparati dell'IA, soprattutto votati all'attacco alla cultura woke. In conclusione, un approfondimento sul tema dei data center in Uruguay: un paese che si trova da anni in una situazione di siccità, ma che può offrire molta acqua per i data center di Google. Pesa, nella scelta, il fatto che l'Uruguay sia tra i paesi con la più alta percentuale di energia elettrica da fonti rinnovabili. Analizziamo quindi alcune delle questioni tecniche legate al raffreddamento dei data center. Ascolta la trasmissione sul sito di Radio Onda Rossa Di seguito due siti di cui si è parlato ad Hackrocchio: * Osseervatorio Nessuno * Arachidi - Occhi indiscreti
December 16, 2025 / Pillole di Graffio
Arriva appello contro linee guida per introduzione dell' IA a scuola
Ub Scuola Università e Ricerca (Piemonte), insieme a Cobas Sicilia, Cobas Veneto e Cobas Umbria aderiscono all'appello di un gruppo di docenti italiani dopo il varo, da parte del Ministero dell'Istruzione e del Merito, delle linee guida per l'introduzione dell'intelligenza artificiale a scuola. L'appello invita a "resistere all'adozione frettolosa ed acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGPT e Gemini. Il ministero pretende che questi software siano in grado di svolgere il ruolo di "tutor per l'apprendimento personalizzato", tacendo sul fatto che forniscono informazioni verosimili, ma false. All'appello hanno già aderito diverse personalità storicamente attive nel movimento per il software libero, quali il prof. A.R. Meo, presidente di Assoli (ASsociazione per il SOftware LIbero www.softwarelibero.it). Il 16 dicembre alle ore 14.30 presso la sede CUB SUR in corso Marconi 34 a Torino e online su http://lancio.vado.li si terrà una conferenza per spiegare obiettivi e tempistiche della campagna. Maggiori informazioni e rassegna stampa sono reperibili sul sito della campagna: http://iabasta.ghost.io Fonte Ansa
December 11, 2025 / Pillole di Graffio
Perché la poesia manda in tilt ChatGPT
Richieste improprie e che subito bloccate se poste in linguaggio naturale, vengono invece accettate dai large language model se messe in forma di versi e rime: com’è possibile? Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno sempre di produrre contenuti vietati dalle loro policy non è possibile. Per quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da contenuti dannosi e per farlo usano principalmente due strategie. La prima è l’allineamento in fase di addestramento, con cui il modello viene istruito a rifiutare determinate richieste oppure a seguire specifiche regole. La seconda strategia riguarda invece dei filtri esterni o classificatori che analizzano input e output del modello, bloccando tutto ciò che corrisponde a pattern riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi, ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si basano su esempi di richieste formulate in modo diretto, prosastico o estremamente preciso”, prosegue Prandi. Jailbreak in versi Ed è proprio per questa ragione che, nel corso degli anni, sono emersi molteplici metodi che permettono di aggirare le barriere: formulando comandi indiretti e creativi... Continua a leggere
December 2, 2025 / Pillole di Graffio
Intelligenza artificiale e scuola: uno sguardo critico alla luce delle linee guida ministeriali
Martedì 25 novembre dalle 9.00 alle 17.30 a Padova si terrà un convegno laboratoriale di formazione sul tema dell'Intelligenza artificiale a scuola e di come viene imposta dalle linee ministeriali. Il convegno è organizzato da CESP (Centro Studi per la Scuola Pubblica) in collaborazione con CIRCE, Continuity, e il sindacato di base CUB. Contiamo di essere numerosi: c’è bisogno di prendere in mano quello che – calatoci dall’alto senza alcun dialogo, confronto, condivisione, né trasparenza – è già parte del nostro presente e del nostro orizzonte futuro. Ci hanno mostrato la BELLA – le “magnifiche sorti e progressive” -, cercheremo di svelare anche la BESTIA. Armati di sano “luddismo riparatore”, ci addentreremo nei gangli della cybermacchina, provando a scoprirne le innumerevoli sfaccettature. Buon corso aggiornamento! Più informazioni qui e qui
November 20, 2025 / Pillole di Graffio