Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti
sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso
nuove incertezze.
Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT,
è uscita una seconda killer application per le false IA. Senza preavviso, un
virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben
fatto, perfettamente funzionante, installabile e configurabile con estrema
semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di
essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e
generato tramite LLM senza controllarlo.
Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si
installa e gira in locale sul computer dell'utente. Un agente Openclaw si
interfaccia con i servizi installati sul computer, ma è concepito principalmente
per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più
LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui
l'agente deve interagire; questo implica che l'agente possieda le credenziali
dell'utente, tutte le password, tutti i token per essere in grado di utilizzare
i servizi e le varie API. Cosa mai potrebbe andare storto?
Leggi l'articolo su ZEUS News
Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un
argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai
suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto
open source è un lavoro molto impegnativo per una sola persona, anche di
talento;
E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor
nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché
non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché
non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma,
possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di
cavalcare un successo assicurato, presentandolo come progetto aperto, o come
prodotto commerciale, o come qualsiasi cosa nel mezzo?
Leggi l'articolo ZEUS News
Tag - Cassandra Crossing
Lezioni di Cassandra/ L'alter ego di Cassandra ha fatto una chiacchierata
eretica sulle false IA in un paio di eventi pubblici, apparentemente con una
certa soddisfazione dei presenti; perché allora non trasformare gli appunti in
una esternazione vera e propria, salvandoli dall'oblio digitale?
Se oggi siamo in questa situazione è tutta colpa di Joseph Weizenbaum, noto
eretico dell'informatica. Anzi, è colpa di Joseph Weizenbaum e della sua
segretaria. Ma andiamo con ordine.
Nell'ambito dell'intelligenza artificiale, una delle pietre miliari più
conosciute è stato ELIZA, un programma informatico sviluppato appunto da
Weizenbaum nel 1966, che ha rivoluzionato la nostra comprensione delle
interazioni tra l'uomo e la macchina. Eliza, sebbene rudimentale rispetto agli
standard odierni, ha gettato le basi per molte delle tecnologie di chatbot e
assistenti virtuali che utilizziamo oggi.
[...]
In 70 anni di storia dell'IA sono stati sviluppati i motori di inferenza, le
reti neurali, le tecniche di apprendimento profondo: tutte cose che nei loro
ambiti funzionano benissimo. Se non li avete mai sentiti nominare, ricorderete
certo le notizie che l'IA referta le TAC meglio di un radiologo e che ha battuto
i campioni mondiali di scacchi e Go (dama cinese). Tre anni fa una tecnologia
già nota da tempo, gli LLM (Large Language Models — Grandi modelli di
Linguaggio) ha cominciato a funzionare. Perché? Per semplici motivi di scala,
cioè l'utilizzo di server più potenti per eseguirli e di più informazioni con
cui allenarli.
La speculazione finanziaria delle dotcom in cerca di nuove opportunità di far
soldi ci si è buttata a pesce. Improvvisamente ChatGPT e i suoi fratelli sono
diventati disponibili a chiunque gratuitamente: hanno cominciato ad affascinare
tutti esattamente come Eliza aveva fatto con la segretaria di Weizenbaum. Ma,
come Eliza, un LLM non sa niente, non comprende niente, non può rispondere a
nessuna domanda e nemmeno rispondere sempre nello stesso modo.
Leggi l'articolo su ZEUS News
Cassandra Crossing/ Quanto è probabile un collasso totale di Internet? E magari
non solo di Internet. Perché diavolo la situazione non è migliorata dagli anni
'90?
Gli anni '90 erano ancora una novità quando una allora inesperta Cassandra lesse
un articolo molto interessante sulla fragilità dell'infrastruttura tecnologica
di Internet.
L'articolo in effetti non distingueva tra fragilità e inaffidabilità,
confondendo i due termini, che sono in realtà diversi. Ma andiamo con ordine. Si
narrava del «Nodo più importante di Internet», oggi lo chiameremmo un MIX; cioè
un punto in cui i vari provider di connettività geografica (non di connessioni
ultimo miglio) avevano trovato conveniente installare un loro router, connesso
con tutti gli altri, in modo da smistare con la massima efficienza i pacchetti
da un provider all'altro.
Leggi l'articolo originale su ZEUS News
Cassandra Crossing/ Perché un dettaglio tecnico delle false IA, per giunta di
tipo matematico, dovrebbe essere conosciuto da tutti?
Il collasso di un modello di LLM avviene quando un modello, addestrato sui dati
generati da generazioni precedenti di modelli, inizia a perdere informazioni,
particolarmente sulle code della distribuzione statistica dei dati originali, e
alla fine converge verso una stima a punto singolo, con poca varianza statistica
(in soldoni, fornisce sempre la stessa risposta a qualsiasi domanda).
Leggi l'articolo su ZEUS News