Il crepitio dei tasti di un programmatore che scrive codice per comporre un
programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da
decenni, saper programmare significa avere pieno potere, avere la facoltà di far
fare quello che si vuole al computer o tablet o telefono che sia, poter creare
app, senza dover dipendere da nessuno.
Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di
programmazione, ciascuno con una sintassi e delle regole differenti, e per molte
persone questo non è facile o è semplicemente impossibile. Programmare resta
così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.
Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di
diventare programmatori o sviluppatori, o se siete genitori e pensate che far
studiare gli arcani incantesimi della programmazione sia la strada maestra per
una carriera informatica garantita per i vostri figli, ci sono due parole che vi
conviene conoscere: vibe coding.
[...]
1. Vibe coding: creare programmi senza saper programmare
2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
3. Si riducono tempi e costi, e tutto sembra funzionare
4. Se ci sono errori o vulnerabilità, sono guai seri
5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?
Leggi l'articolo di Paolo Attivissimo
Tag - Intelligenza Artificiale
Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e
preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto
forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce
istruzioni fuorvianti per la rimozione.
Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella
schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI,
l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema,
progettato per essere semplice e intuitivo, garantisce un accesso immediato alla
chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più
avanzata di AI di Meta, dotata di capacità multimodali.
Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte
della nostra quotidianità, su milioni di schermi, senza alcuna notifica
preventiva, né esplicito consenso.
Leggi l'articolo
Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia,
una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti
dei modelli linguistici nell’ambito dell’intelligenza artificiale.
* Come definiamo una lingua,
* Cosa vuol dire un modello linguistico,
* Come avviene la costruzione di questi mitici modelli linguistici,
* Come definiamo l'addestramento su una lingua.
* E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large
Language Model) o c'è qualcosa che è cambiato negli ultimi anni?
* Cosa è cambiato negli ultimi anni?
Ascolta il podcast della trasmissione sul sito di Radio Blackout
Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire
relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso
consiste nel processo mediante il quale si formulano inferenze a partire da un
insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale,
cioè esplicitabile, che consente di transitare dal già noto al non ancora noto,
dalla specificità alla generalità, o viceversa, assicurando coerenza e validità
in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o
qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.
Leggi l'articolo
Il luddismo, l'agire di quelle operaie e di quegli operai che agli inizi del
1800 prendevano a martellate o a zoccolate le macchine che toglievano loro
lavoro, è comunemente giudicato atteggiamento retrogrado ed infantile. Ad uno
sguardo più attento, il luddismo appare invece il primo passo, del tutto
comprensibile ed anzi necessario, di reazione ad una novità. L'energia
inizialmente indirizzata verso l'inutile attacco alla macchina trova negli anni
immediatamente successivi una destinazione costruttiva. Nascono così le mutue, i
sindacati, i partiti dei lavoratori. Oggi ci troviamo esattamente nella stessa
situazione: seguire i luddisti nel non subire passivamente, trovare vie per
rispondere costruttivamente. Questo articolo è stato rifiutato nel 2017 dalla
rivista 'Prometeo'. Il motivo: è pessimista, fosco. Ma come scrivo nella
conclusione "Credo che ci convenga essere turbati, spaventati, come lo erano i
luddisti". Il turbamento è il necessario passaggio iniziale verso una presa di
coscienza che si traduce in azione. Ripubblico qui l'articolo senza cambiare una
virgola.
Leggi l'articolo di Francesco Varanini
Apriamo la puntata parlando delle ultime svolte in maniera di Intelligenza
Artificiale, in particolare facendo il quadro dell'ingresso delle industrie
cinese nel mercato dei Large Language Models e provando a discutere dei
risultati del CHIPS Act: è servito, o i recenti sviluppi mostrano che era ormai
troppo tardi?
Ci spostiamo poi al mondo dei social media, segnalando la decisione di
ValigiaBlu di uscire, oltre che da X, anche dalle piattaforme di Meta.
Evidentemente il video di Zuckerberg che si inchina a Trump ha segnato un
precedente, per quanto ci sembra che le principali criticità fossero già insite.
Nuovo caso di Malware sviluppato da aziende israeliane, e diffuso tramite
Whatsapp. Molte le persone coinvolte, in decine di paesi, tra cui l'Italia.
L'unico nome che conosciamo è proprio quello di un giornalista italiano,
Francesco Cancellato, direttore di Fanpage.it.
Notiziole varie: dall'impatto delle sanzioni sul software libero, a come battere
il boss finale della Nintendo, passando per l'utilizzo dell'Intelligenza
Artificiale nelle indagini.
Ascolta la puntata sul sito di Radio Onda Rossa
Il capo di OpenAI ha annunciato a inizio anno che il suo nuovo modello di
intelligenza artificiale avrebbe ottenuto risultati simili a quelli umani in una
sorta di test del quoziente intellettivo. Un esito ottenuto però facendo
allenare la macchina sulle stesse domande e in modo poco trasparente, con costi
ecologici ed economici fuori scala. È ora di disertare questa agenda, fatta di
macchine mangia-soldi e mangia-risorse.
Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo
abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).
Il nuovo modello prodotto da OpenAI avrebbe infatti raggiunto risultati
comparabili con gli esseri umani nel risolvere il test ARC-AGI. Il video qui
sopra contiene un esempio delle domande contenute in tale test, che ricorda
molto da vicino i test del quoziente intellettivo (Qi) utilizzati in psicologia
per “misurare l’intelligenza” degli esseri umani. Sorvoleremo in questa sede su
due fatti chiave che richiederebbero invece una seria analisi: non esiste un
consenso scientifico su che cosa sia l’intelligenza umana e animale, ossia una
definizione condivisa e, anche fingendo di aver raggiunto un consenso, misurarla
resterebbe tutta un’altra faccenda. Dal punto di vista “teorico” ci limiteremo a
richiamare l’etimologia: “inter” più “ligere”, “leggere tra (le cose)”, leggere
in profondità.
Sam Altman (più in generale l’intero comparto dell’Ai) ci ha abituato a trucchi
degni degli artisti della truffa che giravano il suo Paese a inizi Ottocento,
usati a supporto di affermazioni-bomba come quella appena citata (e
immediatamente seguita da affermazioni ancora più esplosive sulla
“Superintelligenza”). Ricordiamo, a titolo d’esempio non esaustivo, la
figuraccia di Google alla presentazione del suo Gemini, quando i suoi padroni
raccontarono che il modello in questione sapeva riconoscere il gioco della morra
cinese al primo colpo (zero-shot), mentre -guardando il video completo- si
scopriva che la verità era molto diversa (e i dettagli, in questo campo, sono
molto importanti).
Leggi l'articolo di Stefano Borroni Barale
Con l'autrice Cristina Iurissevich presentiamo "E se i troll mangiassero i
cookie?" (Eris) un libro per sopravvivere nell'era digitale. Con lei ragioniamo
del senso dell'autodifesa digitale con un occhio, oltre che alla sorveglianza
statale e aziendale, alle relazioni con le persone a noi vicine. Parliamo quindi
di sexting, di diffusione non consensuale di immagini intime, di nudifier, di
fiducia nelle persone e nelle tecnologie.
Concludiamo un commento sulle recenti rivelazioni che mostrano un ruolo dello
stato francese nella trasformazione dell'AI Act in una direzione che desse
sempre più potere alle polizie e ai militari.
Ascolta l'intervista
Ascolta tutta la trasmissione sul sito di Radio Onda Rossa
Vai alla scheda del libro
Lunedì 3 febbraio alle ore 15.00 presso la sede Cobas di Terni, via Cesi 15/a,
presentazione di “L’intelligenza inesistente. Un approccio conviviale
all’intelligenza artificiale” di Stefano Borroni Barale. Ne parlano l'autore e
Franco Coppoli.
Intelligenza artificiale (Ai) è un termine che raggruppa tecnologie molto
diverse tra loro, con una lunga storia. I tifosi dell’Ai sostengono che questa
tecnologia abbia il potenziale di risolvere alcuni dei problemi più urgenti del
mondo, come il cambiamento climatico, la povertà e le malattie. I critici,
invece, sostengono che questa tecnologia sia pericolosa e ingannevole.
Ma perché tutti parlano di Ai? Perché è un’eccezionale operazione di marketing:
una delle meglio organizzate degli ultimi anni. Su questa le imprese della
Silicon Valley si stanno giocando il tutto per tutto, per invertire il trend
negativo fatto di tagli al personale e cambi drastici dei loro programmi di
sviluppo. Per comprendere quali siano le aspettative di queste aziende – e quali
dovrebbero essere le nostre – in questo libro si ricostruiscono le tappe, le
intuizioni e i paradossi che hanno attraversato la comunità scientifica,
provando a tracciare una linea che collega Alan Turing, primo sostenitore
dell’Ai forte, con i creatori di ChatGPT, il software in grado di sostenere un
dialogo credibile con un essere umano.
L’incontro sarà fruibile anche online usando il software Jitsi a questo link
https://meet.jit.si/altercobas
Guarda la scheda del libro
Impazza DeepSeek, nuova AI cinese: per gli Usa un nuovo "momento Sputnik. Made
in China 2025: per il progetto voluto da Xi è tempo di bilanci. E buon anno del
serpente :)
Allora: la nuova versione è uscita poco dopo Natale, pare sia all’altezza di
OpenAI e affini, è realizzata con solo una parte dei chip (ad esempio quelli
Nvidia) bloccati dagli Usa verso la Cina. E fa parlare di sé come la prima forma
di AI che riporta in qualche modo all’AGI (Artificial General Intelligence)
specie la release R1. Insomma in ogni caso un po’ tutti hanno detto la stessa
cosa: DeepSeek ha colmato un divario. E per gli Usa è arrivato un altro “momento
Sputnik”, quello nel quale ci si rende conto che un competitor è più avanti
(come capitò nel caso dello Sputnik sovietico, appunto, o come capitò alla Cina
dopo la vittoria delle AI di Google contro il campione del mondo di go, allora
si parlò di momento Sputnik, ma per la Cina)
Ora, ci sono molti tecnicismi al riguardo ma non solo perché DeepSeek ha segnato
l’inizio di una nuova era nell’AI cinese, quella del risparmio: “DeepSeek è
stato rapidamente soprannominato il "Pinduoduo dell'IA" e altri grandi giganti
della tecnologia come ByteDance, Tencent, Baidu e Alibaba non hanno potuto
trattenersi, tagliando i prezzi uno dopo l'altro. Una guerra dei prezzi per i
modelli di grandi dimensioni in Cina era imminente”. E a differenze di aziende
di stato “che bruciano soldi, in sussidi, DeepSeek è redditizia”.
Vediamo intanto di cosa stiamo parlando. DeepSeek è un'azienda cinese di
intelligenza artificiale che sviluppa modelli linguistici di grandi dimensioni
open-source. L'azienda è finanziata esclusivamente dal fondo speculativo cinese
High-Flyer. Sia DeepSeek che High-Flyer hanno sede a Hangzhou, Zhejiang.
DeepSeek è stata fondata nel maggio 2023 da Liang Wenfeng, un ex studente
dell'Università di Zhejiang che ha iniziato a fare trading durante la crisi
finanziaria del 2007-2008.
Leggi tutto