Un numero crescente di concorrenti sempre più agguerriti puntano a ridurre la
loro dipendenza dalle GPU di Nvidia.
A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso
statunitense delle GPU detiene oggi il 92% di questo specifico settore e una
quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito
AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per
circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno
precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico
trimestre e può vantare al momento la maggiore capitalizzazione di mercato al
mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata
Apple).
Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati
per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati
estremamente efficienti per l’addestramento e l’utilizzo dei sistemi
d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning
ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato,
dal punto di vista economico, settore dell’AI generativa.
Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di
tutti gli operatori finanziari erano puntati proprio sui suoi risultati
trimestrali, perché si temeva che una crescita anche solo leggermente inferiore
alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale
(pericolo per il momento scongiurato o almeno rinviato).
Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di
concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza
dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni
ancora più elevate (in termini computazionali o di efficienza energetica) e a
consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte
le proprie potenzialità?
Leggi l'articolo
Source - Pillole di Graffio
Segnalazioni su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...
Organizzato nell’ambito dell’Open Education Week 2026.
Nella prima parte del webinar Jonathan Poritz, accademico alternativo da sempre
attivo nel mondo Open, esplorerà i punti di contatto tra i movimenti Open
Education e Software Libero e cercherà di trarre qualche lezione utile per
promuovere approcci Open nei sistemi educativi, in Italia e oltre. Nella seconda
parte, Italo Vignoli rifletterà su come l’utilizzo di software open come Libre
Office possa rappresentare non solo una soluzione pratica a molti dei problemi
tecnici e legali ai quali troppo spesso non si pensa, ma anche una presa di
posizione che può contribuire a cambiare la mentalità di chi opera nella scuola
e nell’università italiana.
Link per il collegamento qui
Maggiori informazioni qui
Gli stabilimenti AWS sono stati colpiti dai droni iraniaio, che hanno causato
l'interruzione dei servizi di rete nella regione
Amazon Web Services, la piattaforma di cloud computing più diffusa al mondo, ha
subito una brusca interruzione dei suoi servizi in Medio Oriente, dopo che i
droni hanno colpito data center e strutture operative negli Emirati Arabi Uniti
(EAU) e in Bahrain. A notificare quanto accaduto è stata la stessa compagnia,
che la scorsa domenica ha comunicato ufficialmente che alcune delle sue
strutture erano state colpite da “oggetti” non identificati, causandovi un
incendio. Per spegnere il fuoco, Amazon si è vista costretta a tagliare
l’alimentazione ai suoi impianti, causando di fatto un’interruzione dei servizi
per un tempo prolungato.
leggi l'articolo
Il Pentagono ha usato il modello Claude di Anthropic AI per condurre l’attacco
all’Iran. A riportarlo è il Wall Street Journal che, citando alcune fonti,
sottolinea che l’utilizzo dei sistemi di intelligenza artificiale della startup
è stato successivo all’annuncio di Donald Trump sull’interruzione dei contratti
tra l’azienda e le agenzie federali, compreso il Pentagono. Subito dopo il
Segretario alla Difesa Hegseth ha definito Anthropic un “rischio per la supply
chain della difesa” e l’ha inserita nella lista nera che vieta ai contraenti
militari di fare affari con lei.
Le fonti rivelano che Anthropic è stata usata per valutazioni di intelligence,
identificazione dei target e per simulare scenari di battaglia. Dario Amodei, ad
e fondatore della società di intelligenza artificiale, si era rifiutato di
eliminare le barriere in materia di sorveglianza di massa e realizzazione di
armi prive di sorveglianza umana. Trump aveva duramente attaccato la startup sul
social Truth, per poi virare su un nuovo accordo con OpenAI. I cui vertici hanno
però sostenuto di aver a loro volta chiesto l’esclusione dell’uso dei suoi
chatbot per sorveglianza di massa e sistemi d’arma autonomi.
Fonte qui
La trasmissione si apre con una "interferenza" di Andrea Borgnino, che ci
racconta l'utilizzo della radio in questi giorni in Iran; allarghiamo poi la
discussione ad altri contesti di guerra e in Palestina.
A proposito di telecomunicazioni, in Iran c'è un nuovo blackout di Internet, e
negli Emirati Arabi Uniti vediamo che alcuni data center di Amazon sono stati
colpiti dagli attacchi Iraniani. Seguiamo poi la vicenda del contratto di OpenAI
con il ministero della guerra statunitense, che ha scalzato Anthropic.
Negli USA, Google collabora con ICE ben più di quanto la legge gli impone;
viceversa, migliaia di telecamere collegate alla sorveglianza interna di ICE
risultano essere state danneggiate.
Nuovo affondo della Russia su Telegram, accusato di supporto al terrorismo e
intelligenza col nemico.
Ascolta l'audio sul sito di Radio Onda Rossa
Il Tribunale commerciale di Zurigo è chiamato a decidere nei prossimi giorni su
una causa intentata dal colosso americano contro la rivista Republik - La
questione ha avuto un’eco mediatica enorme ed è finita addirittura nelle aule
dei Parlamenti di Gran Bretagna e Germania.
Nei prossimi giorni, il Tribunale commerciale di Zurigo sarà chiamato a
esprimersi su un’azione «contro-dichiarativa» intentata dall’americana Palantir
contro il portale giornalistico-investigativo zurighese Republik. Quest’ultimo,
l’8 e il 9 dicembre scorsi aveva pubblicato un’inchiesta in due puntate sulla
presenza di Palantir in Svizzera. E aveva rivelato come l’azienda di data
intelligence di Denver (Colorado) non fosse mai riuscita, in sette anni, a
ottenere contratti con le strutture civili e militari elvetiche, nonostante un
pressing continuo e costante ad altissimo livello.
Per anni «lo Stato Maggiore dell’Esercito della Confederazione ha valutato i
prodotti» e i software di Palantir e, alla fine, in un rapporto che, di fatto, è
l’asse portante dell’inchiesta di Republik, ne ha sconsigliato l’uso per il
pericolo concreto ed «elevato» che «i dati fossero trasmessi al Governo degli
Stati Uniti». Fortissime preoccupazioni sono state espresse anche «riguardo ai
rischi reputazionali associati a Palantir», società sostenuta
dall’amministrazione di Washington. Un’azienda tecnologica, scrive ancora
Republik, tra le «più controverse al mondo».
Leggi l'articolo
Con l'avvento degli LLM, molti si sono convinti che questi siano degli oracoli
assolutamente imparziali e onniscienti cui chiedere conferma della veridicità di
pressoché ogni informazione. In realtà, come dimostra l'esperimento condotto da
un giornalista della BBC, ingannare i chatbot (o, per lo meno, alcuni di essi)
spingendoli a credere alle bufale non è poi troppo complicato. In particolare
ChatGPT e Gemini, pur essendo sistemi progettati per filtrare contenuti falsi o
dannosi, possano essere indotti a generare informazioni errate con sorprendente
rapidità.
Il giornalista in questione, Thomas Germain, non aveva l'obiettivo di violare
sistemi informatici o sfruttare vulnerabilità tecniche profonde, ma puntava
soltanto dimostrare come un intervento minimo e apparentemente innocuo potesse
alterare il comportamento di chatbot come ChatGPT e Google Gemini. L'intero
processo di creazione dell'inganno ha richiesto appena venti minuti, serviti a
Germain per creare una semplice pagina web sul proprio sito personale. Il
contenuto di questa pagina era volutamente banale e costruito ad arte: un
articolo che lo definiva «il miglior giornalista tecnologico al mondo nel
mangiare hot dog». Non si trattava di un'informazione reale né plausibile, ma
era formulata in modo tale da sembrare una dichiarazione di fatto.
Leggi l'articolo
Perché proprio ora molte persone, soprattutto le pubbliche amministrazioni,
stanno scegliendo soluzioni che evitano la dipendenza dalle Big Tech?
Quando nel 2025 la Corte Penale Internazionale condanna Netanyahu per crimini di
guerra, l’amministrazione Trump firma un ordine esecutivo che impone sanzioni
contro i funzionari della Corte. Poco dopo questi non riescono più ad accedere
alla mail gestita da una Big Tech Usa. La Corte ha subito spostato i suoi
servizi digitali su una piattaforma basata su software libero e con i server in
Europa.
Nel gennaio 2026 il Parlamento Europeo approva una risoluzione che parla di
sovranità digitale, promuovendo standard aperti e interoperabili.
[...]
Il digitale e le cosiddette «intelligenze artificiali» centralizzate in mano
alle Big Tech sono diventate tecnologie del dominio e gli strumenti principali
della guerra del XXI secolo. Sono socialmente, eticamente e ambientalmente
insostenibili.
Qualcosa però sta cambiando
Leggi l'articolo
La storia che vede coinvolti una programmatrice di Meta, Summer Yue, e OpenClaw,
l'agente IA che negli ultimi tempi ha conquistato gli appassionati di
intelligenza artificiale, funge da pratico monito per quanti sono pronti ad
affidare a questi software le gestione completa dei propri dati. Documentato su
X, l'episodio mostra come un compito apparentemente banale possa trasformarsi in
un'azione distruttiva quando un agente automatizzato interpreta in modo errato
le istruzioni ricevute.
L'esperta di sicurezza aveva chiesto a OpenClaw di analizzare la propria casella
di posta sovraccarica e di suggerire quali messaggi eliminare o archiviare.
Invece di proporre una lista di elementi da rimuovere, l'agente ha iniziato a
cancellare rapidamente centinaia di email, ignorando i comandi di stop inviati
dal telefono. Le immagini pubblicate mostrano notifiche in cui l'utente tentava
di interrompere l'operazione senza successo.
Leggi l'articolo
Nella puntata di oggi con Privacy Network e STRALI si parla del Sistema
Riconoscimento Automatico Immagini utilizzato daalle forze dell'ordine italiane.
Privacy Network & STRALI stanno indagando l’utilizzo di SARI Enterprise per
capire quanto viene usato, se funziona, se è compatibile con la protezione dei
dati personali., che bias emergono.
Cosa permette di fare? Chi lo utilizza? Da quanto tempo?
E AFIS (il database delle persone foto-segnalate)?
Ascolta l'audio sul sito di Radio Black out