Martedì 16 novembre si è tenuto a Torino e, contemporaneamente, in streaming il
lancio della campagna “I.A., basta!” pensato dai sindacati di base, in
collaborazione con l’associazione “Agorà 33 – La nostra scuola”, per «resistere
all'adozione frettolosa e acritica delle intelligenze artificiali centralizzate
imposte da Big Tech, come ChatGpt e Gemini», in risposta all’appello di alcuni
docenti.
Lo scopo principale della campagna è far partire un dibattito che latita
dall’inizio della “transizione digitale”, incentivata dai vari round di
finanziamenti Pnrr Scuola. Fino a ora, infatti, si è sempre sentito parlare di
“intelligenza artificiale”, strettamente al singolare, sottintendendo con questo
che l’unica opzione per la scuola sia accettare “a scatola chiusa” le soluzioni
delle Big Tech, oppure rigettare in toto la tecnologia alla maniera degli Amish.
Non esiste una sola intelligenza artificiale
Fin dalla prima sperimentazione, lanciata all’inizio dello scorso anno
scolastico, il ministero dell’Istruzione e del Merito sembra muoversi in accordo
al grido di battaglia che fu di Margaret Thatcher: «Non ci sono alternative»! La
sperimentazione, partita in 15 su 8254 scuole del paese utilizzando
esclusivamente prodotti Google e Microsoft, non è ancora terminata e già il
Ministero ha fatto un altro possente balzo in avanti: a settembre ha presentato
le “Linee guida per l’introduzione dell’I.A. nella scuola”.
A partire dal titolo del documento, emerge in maniera chiara una visione
rigidamente determinista: l’intelligenza artificiale è una, quella venduta da
Big Tech (OpenAi, Google, Meta, Microsoft, Anthropic), non ci sono discussioni.
Articolo completo qui
Tag - AI
Partiamo con un report di Hackrocchio, evento organizzato dall'hacklab torinese
Underscore, di cui abbiamo parlato anche recentemente.
Continuiamo passando alle Americhe, guardando agli stati che si stanno
distinguendo per gli usi disparati dell'IA, soprattutto votati all'attacco alla
cultura woke.
In conclusione, un approfondimento sul tema dei data center in Uruguay: un paese
che si trova da anni in una situazione di siccità, ma che può offrire molta
acqua per i data center di Google. Pesa, nella scelta, il fatto che l'Uruguay
sia tra i paesi con la più alta percentuale di energia elettrica da fonti
rinnovabili. Analizziamo quindi alcune delle questioni tecniche legate al
raffreddamento dei data center.
Ascolta la trasmissione sul sito di Radio Onda Rossa
Di seguito due siti di cui si è parlato ad Hackrocchio:
* Osseervatorio Nessuno
* Arachidi - Occhi indiscreti
Ub Scuola Università e Ricerca (Piemonte), insieme a Cobas Sicilia, Cobas Veneto
e Cobas Umbria aderiscono all'appello di un gruppo di docenti italiani dopo il
varo, da parte del Ministero dell'Istruzione e del Merito, delle linee guida per
l'introduzione dell'intelligenza artificiale a scuola.
L'appello invita a "resistere all'adozione frettolosa ed acritica delle
intelligenze artificiali centralizzate imposte da Big Tech, come ChatGPT e
Gemini.
Il ministero pretende che questi software siano in grado di svolgere il ruolo di
"tutor per l'apprendimento personalizzato", tacendo sul fatto che forniscono
informazioni verosimili, ma false.
All'appello hanno già aderito diverse personalità storicamente attive nel
movimento per il software libero, quali il prof. A.R. Meo, presidente di Assoli
(ASsociazione per il SOftware LIbero www.softwarelibero.it).
Il 16 dicembre alle ore 14.30 presso la sede CUB SUR in corso Marconi 34 a
Torino e online su http://lancio.vado.li si terrà una conferenza per spiegare
obiettivi e tempistiche della campagna.
Maggiori informazioni e rassegna stampa sono reperibili sul sito della campagna:
http://iabasta.ghost.io
Fonte Ansa
Richieste improprie e che subito bloccate se poste in linguaggio naturale,
vengono invece accettate dai large language model se messe in forma di versi e
rime: com’è possibile?
Avere la certezza che ChatGPT, Gemini, Claude e tutti gli altri si rifiuteranno
sempre di produrre contenuti vietati dalle loro policy non è possibile. Per
quale ragione? “I provider hanno la responsabilità di proteggere gli utenti da
contenuti dannosi e per farlo usano principalmente due strategie. La prima è
l’allineamento in fase di addestramento, con cui il modello viene istruito a
rifiutare determinate richieste oppure a seguire specifiche regole. La seconda
strategia riguarda invece dei filtri esterni o classificatori che analizzano
input e output del modello, bloccando tutto ciò che corrisponde a pattern
riconosciuti come pericolosi”, spiega, parlando con Wired, Matteo Prandi,
ricercatore ed esperto di AI Safety. “Il problema è che entrambi gli approcci si
basano su esempi di richieste formulate in modo diretto, prosastico o
estremamente preciso”, prosegue Prandi.
Jailbreak in versi
Ed è proprio per questa ragione che, nel corso degli anni, sono emersi
molteplici metodi che permettono di aggirare le barriere: formulando comandi
indiretti e creativi...
Continua a leggere
Martedì 25 novembre dalle 9.00 alle 17.30 a Padova si terrà un convegno
laboratoriale di formazione sul tema dell'Intelligenza artificiale a scuola e di
come viene imposta dalle linee ministeriali. Il convegno è organizzato da CESP
(Centro Studi per la Scuola Pubblica) in collaborazione con CIRCE, Continuity, e
il sindacato di base CUB.
Contiamo di essere numerosi: c’è bisogno di prendere in mano quello che –
calatoci dall’alto senza alcun dialogo, confronto, condivisione, né trasparenza
– è già parte del nostro presente e del nostro orizzonte futuro.
Ci hanno mostrato la BELLA – le “magnifiche sorti e progressive” -, cercheremo
di svelare anche la BESTIA.
Armati di sano “luddismo riparatore”, ci addentreremo nei gangli della
cybermacchina, provando a scoprirne le innumerevoli sfaccettature.
Buon corso aggiornamento!
Più informazioni qui e qui
Quando si parla di tecnologia a scuola, sopratutto tra colleghi, è solo
questione di tempo prima che qualcuno pronunci – con la massima determinazione –
la seguente frase: “Il problema non è la tecnologia X. Basta usarla bene”.
Analisi di una “catchphrase” di gran moda
Di questa frase ( “Il problema non è la tecnologia X. Basta usarla bene”) ne
esistono numerose varianti che sostituiscono la parola “bene” con locuzioni
specifiche, senza variare il significato complessivo. Se la tecnologia in
questione è l’intelligenza artificiale, le varianti più probabili, solitamente,
sono le seguenti: “in modo etico”, “in modo sostenibile” oppure “consapevole” o
ancora “appropriato”.
In tempi più recenti, e soprattutto nei testi ministeriali, spesso queste
varianti appaiono tutte insieme (melius abundare, come nel latinorum di Don
Abbondio): “Basta usarla in modo etico, appropriato, sostenibile e consapevole”.
Il risultato è quello che gli inglesi chiamano "catchphrase". Acchiappa. Diventa
virale. Monetizza, magari. Ma è anche vera?
leggi l'articolo di Stefano Bottoni Barale
Giovedì 20 novembre 2025, al cinema del CSOA Forte Prenestino verrà proiettato
"IN THE BELLY OF AI", il documentario che mostra il lavoro nascosto che fa
funzionare la cosidetta Intelligenza Artificiale.
AvANa & CinemaForte presentano e proiettano su grande schermo "IN THE BELLY OF
AI", I sacrificati dell'IA (Fra 2024) 73', diretto da Henri Poulain
Dietro l'intelligenza artificiale si nasconde il più grande sfruttamento umano e
territoriale del XXI secolo.
Un'analisi approfondita, ben documentata e illuminante sulla nuova rivoluzione
digitale e su ciò che essa comporta in termini di costi umani e ambientali.
Magiche, autonome, onnipotenti... Le intelligenze artificiali alimentano sia i
nostri sogni che i nostri incubi.
Ma mentre i giganti della tecnologia promettono l'avvento di una nuova umanità,
la realtà della loro produzione rimane totalmente nascosta.
Mentre i data center ricoprono di cemento i paesaggi e prosciugano i fiumi,
milioni di lavoratori in tutto il mondo preparano i miliardi di dati che
alimenteranno i voraci algoritmi delle Big Tech, a scapito della loro salute
mentale ed emotiva.
Sono nascosti nelle viscere dell'IA. Potrebbero essere il danno collaterale
dell'ideologia del “lungo termine” che si sta sviluppando nella Silicon Valley
ormai da alcuni anni?
Sul sito del Forte Prenestino tutte le informazioni sulla proiezione
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un
difetto risolvibile. I tentativi di controllo qualità sui dati richiedono
risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali
addestrati su dati limitati
I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile –
dell’industria dell’intelligenza artificiale. Tra promesse di precisione e
realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto
pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo.
L‘insistenza criminale sui sistemi predittivi fallimentari
C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti
i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed
è la criminale, idiota insistenza a volersene dotare.
Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo
di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori
di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo
un discorso più generale.
leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
L'industria nucleare sta vivendo una rinascita, spinta da un'enorme crescita
della domanda di energia, mentre le grandi aziende tecnologiche cercano fonti di
energia pulita per alimentare i loro data center.
Google ha annunciato di aver raggiunto accordo con il gruppo americano NextEra
Energy che prevede la rimessa in funzione all'inizio del 2029 della centrale
nucleare Duane Arnold, nell'Iowa, per lo sviluppo delle infrastrutture di
intelligenza artificiale (IA) del gigante californiano.
Si tratta del terzo progetto di riapertura di una centrale nucleare annunciato
di recente, dopo quelli relativi ai siti di Palisades (Michigan) nel 2023 e
Three Mile Island (Pennsylvania) nel 2024, segno della ripresa dell'industria
nucleare dopo decenni senza investimenti significativi negli Stati Uniti.
Link articolo qui
L’IA entra in finanza e moltiplica i rischi di bolle e instabilità. Algoritmi
simili, pochi attori dominanti e un mercato sempre più irrazionale
«Ehi, ChatGPT, che azioni mi compro?» Potrebbe sembrare una domanda fatta per
gioco, tanto per vedere che risposte si ottengono. Invece, secondo un articolo
che riprende una ricerca svolta in 13 Paesi su 10mila investitori, uno su dieci
si rivolge a una qualche intelligenza artificiale. Molti tra questi
prenderebbero in considerazione l’idea di lasciare direttamente nelle mani
dell’IA la scelta su quali transazioni finanziarie eseguire. Dalla ricerca,
sembra che le risposte dei chatbot siano ragionevoli e prudenti, insistendo sul
fatto che è impossibile predire l’andamento dei mercati, in ragione della
complessità e della quantità di fattori che possono influenzarli.
[...]
Riassumendo: un oligopolio di imprese tecnologiche fornisce algoritmi che
guidano gli investimenti sui mercati, mercati dominati da un oligopolio di
investitori istituzionali, che sono i loro maggiori azionisti. Cosa potrebbe mai
andare storto?
Leggi l'articolo