Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale:
i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La
corsa verso la vera AGI sembra più lontana che mai.
Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la
pubblicazione di un whitepaper che mette in discussione le fondamenta stesse
dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio
“The Illusion of Thinking: Understanding the Strengths and Limitations of
Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del
pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento
attraverso la lente della complessità dei problemi'', rappresenta una vera e
propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona,
imita
Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM),
quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta
sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono
semplicemente eccezionali nel riconoscere pattern e riprodurre risposte
plausibili, ma quando si tratta di affrontare problemi complessi, la loro
presunta intelligenza si sbriciola.
Leggi l'articolo
Tag - LLM
Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia,
una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti
dei modelli linguistici nell’ambito dell’intelligenza artificiale.
* Come definiamo una lingua,
* Cosa vuol dire un modello linguistico,
* Come avviene la costruzione di questi mitici modelli linguistici,
* Come definiamo l'addestramento su una lingua.
* E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large
Language Model) o c'è qualcosa che è cambiato negli ultimi anni?
* Cosa è cambiato negli ultimi anni?
Ascolta il podcast della trasmissione sul sito di Radio Blackout
La proprietà aperta e i suoi nemici: suicidi eccellenti nella Silicon Valley
Di Rattus Norvegicus
Considero il recente (presunto) suicidio del programmatore indiano ventiseienne
Suchir Balaji, un giovane che aveva alle spalle quattro anni di lavoro presso il
centro di ricerca di OpenAI, un evento di una tale gravità da richiedere un
ripensamento in merito al ruolo svolto dalla proprietà intellettuale negli
ultimi quarant’anni, sia all’interno della produzione informatica e di rete sia,
più in generale, nell’ambito dei complessi rapporti che questa peculiare forma
di proprietà privata ha stabilito con la libertà di opinione, con il diritto di
accesso all’educazione e alla formazione, con la cooperazione internazionale
allo sviluppo e, per estensione, con tutti i principali pilastri del diritto
nelle democrazie liberali, quelli che i paladini del libero mercato continuano a
invocare nei loro discorsi pubblici sebbene nelle realtà non se ne veda più
traccia da moltissimo tempo.
Ian Murdock (la cooperazione)
Aroon Swartz (la condivisione)
Suchir Balaji (la contraddizione)
Leggi l'articolo
Cassandra Crossing/ Perché un dettaglio tecnico delle false IA, per giunta di
tipo matematico, dovrebbe essere conosciuto da tutti?
Il collasso di un modello di LLM avviene quando un modello, addestrato sui dati
generati da generazioni precedenti di modelli, inizia a perdere informazioni,
particolarmente sulle code della distribuzione statistica dei dati originali, e
alla fine converge verso una stima a punto singolo, con poca varianza statistica
(in soldoni, fornisce sempre la stessa risposta a qualsiasi domanda).
Leggi l'articolo su ZEUS News