Dopo lo stop dello scorso anno, Meta inzierà presto ad addestrare i suoi modelli
di intelligenza artificiale in Europa sulla base dei post e dei commenti
pubblici degli utenti maggiorenni. L'obiettivo è insegnare all'IA a "comprendere
e riflettere meglio culture, lingue e storie" per "consentire di supportare
meglio milioni di persone e aziende in Europa", sottolinea la società di Mark
Zuckerberg.
Si può scegliere di opporsi compilando un modulo. Con tale modulo non si
disattiverà Meta AI (in molti in queste ore vorrebbero eliminarlo da WhatsApp o
dalle chat di Instagram e Facebook, ma non sembra possibile). Semplicemente
aderendo, i propri dati non dovrebbero più confluire tra quelli usati
dall’algoritmo per apprendere e migliorarsi.
C’è però un discrimine importante, come avverte Facebook: “Potremmo comunque
trattare le informazioni che ti riguardano per sviluppare e migliorare l’IA su
Meta, anche se ti opponi o non usi i nostri Prodotti. Ad esempio, questo
potrebbe accadere se tu o le tue informazioni: apparite in un’immagine condivisa
con tutti sui nostri Prodotti da qualcuno che li usa; siete menzionati nei post
o nelle didascalie che qualcun altro condivide sui nostri Prodotti”. Una deroga
che potrebbe aprire un nuovo fronte tra Meta e le autorità europee.
Approfondimenti qui e qui
Tag - AI
Meta inizierà ad addestrare la sua IA generativa usando contenuti pubblici
condivisi da utenti adulti in Europa. Gli utenti riceveranno notifiche non solo
per essere informati sulla novità, ma anche per esercitare il diritto di
opposizione.
Dopo lo stop dello scorso anno, Meta ha annunciato che anche in Europa inizierà
ad addestrare i suoi modelli linguistici sfruttando i contenuti pubblici
condivisi dagli utenti adulti sui social, insieme alle interazioni con Meta AI.
Una svolta che punta a rendere l'IA più vicina alle specificità culturali,
linguistiche e storiche del Vecchio Continente, ma che riaccende anche il
dibattito sulla privacy.
A partire da questa settimana, gli utenti maggiorenni dell'Unione Europea che
utilizzano piattaforme come Facebook, Instagram e WhatsApp inizieranno a
ricevere notifiche - via app ed email - per informarli su quali dati verranno
utilizzati e con quale scopo. Ogni notifica conterrà anche un link diretto a un
modulo per esercitare il diritto di opposizione: chi non desidera che i propri
dati vengano utilizzati per addestrare l'IA potrà negare il consenso.
Articolo completo qui
Il crepitio dei tasti di un programmatore che scrive codice per comporre un
programma è probabilmente uno dei suoni più caratteristici dell'informatica. Da
decenni, saper programmare significa avere pieno potere, avere la facoltà di far
fare quello che si vuole al computer o tablet o telefono che sia, poter creare
app, senza dover dipendere da nessuno.
Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di
programmazione, ciascuno con una sintassi e delle regole differenti, e per molte
persone questo non è facile o è semplicemente impossibile. Programmare resta
così un'arte praticata da pochi e ammirata a rispettosa distanza dai più.
Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di
diventare programmatori o sviluppatori, o se siete genitori e pensate che far
studiare gli arcani incantesimi della programmazione sia la strada maestra per
una carriera informatica garantita per i vostri figli, ci sono due parole che vi
conviene conoscere: vibe coding.
[...]
1. Vibe coding: creare programmi senza saper programmare
2. Abbandonarsi alle vibrazioni e programmare senza toccare la tastiera
3. Si riducono tempi e costi, e tutto sembra funzionare
4. Se ci sono errori o vulnerabilità, sono guai seri
5. Tutti sono entusiasti. Cosa mai potrebbe andare storto?
Leggi l'articolo di Paolo Attivissimo
Meta AI è comparsa su WhatsApp senza preavviso, generando polemiche e
preoccupazioni sulla privacy. Inoltre, l’assistente virtuale introdotto
forzatamente dal gruppo Zuckerberg non può essere disattivato e fornisce
istruzioni fuorvianti per la rimozione.
Avete notato quel pulsantino bianco con un cerchio blu comparso di recente nella
schermata di Whatsapp sul vostro smartphone? Si tratta dell’icona di Meta AI,
l’intelligenza artificiale sviluppata dal gruppo di Mark Zuckerberg. Il sistema,
progettato per essere semplice e intuitivo, garantisce un accesso immediato alla
chatbot, la finestra di conversazione alimentata da Llama 3.2, la versione più
avanzata di AI di Meta, dotata di capacità multimodali.
Violazione della privacy?
Nulla di male, in apparenza. Il problema è che Meta AI è entrato a far parte
della nostra quotidianità, su milioni di schermi, senza alcuna notifica
preventiva, né esplicito consenso.
Leggi l'articolo
Puntata monografica quella del 2 aprile, in cui abbiamo intervistato Giorgia,
una ricercatrice in linguistica riguardo alla definizione, applicazione e limiti
dei modelli linguistici nell’ambito dell’intelligenza artificiale.
* Come definiamo una lingua,
* Cosa vuol dire un modello linguistico,
* Come avviene la costruzione di questi mitici modelli linguistici,
* Come definiamo l'addestramento su una lingua.
* E' ancora valida la definizione di pappagalli stocastici per gli LLM (Large
Language Model) o c'è qualcosa che è cambiato negli ultimi anni?
* Cosa è cambiato negli ultimi anni?
Ascolta il podcast della trasmissione sul sito di Radio Blackout
"Qualche giorno fa, su LinkedIn, un recruiter dichiarava di scartare tutti i
candidati che non indicano competenze sull’intelligenza artificiale. Secondo
lui, chi oggi non sa usare (o non dichiara di usare) l’AI non è più
“occupabile”. Mi sono chiesto: cosa scriverei io, dopo trent’anni passati a
lavorare con le informazioni, a progettare conoscenza, senso, orientamento? Sono
forse meno competente solo perché non ho scritto “AI” nel curriculum? E allora
ho provato a rispondere. Non con uno slogan. Ma con un saggio. Un saggio che
parla di incertezza, di etica, di design cognitivo, di consapevolezza come forma
di libertà. Un saggio che collega filosofia, teoria dell’informazione,
architettura digitale e intelligenza artificiale. Perché non è l’AI che
definisce la competenza, ma la capacità di dare forma al sapere. Anche — e
soprattutto — quando è incerto.
Introduzione — Il valore euristico dell’incertezza
L’incertezza, lungi dall’essere un accidente della conoscenza, ne costituisce la
matrice originaria. Fin dalle prime speculazioni epistemologiche, dalla aporia
socratica alla sospensione del giudizio pirroniano, l’incertezza ha accompagnato
la riflessione umana come segno di vitalità del pensiero e non della sua
debolezza. In tempi più recenti, la filosofia della scienza ha sancito
definitivamente il primato del dubbio sull’assoluto, riconoscendo nella
fallibilità e nella revisione continua dei modelli conoscitivi l’unica via
percorribile per l’accesso alla verità, sempre provvisoria. In questo scenario,
l’informazione e le sue architetture assumono un ruolo cruciale, non tanto come
dispositivi di certezza, quanto come sistemi di orientamento nell’incertezza."
Leggi l'articolo
Il ragionamento è l’abilità dell’intelletto di elaborare informazioni, stabilire
relazioni tra esse e giungere a conclusioni coerenti e giustificate. Esso
consiste nel processo mediante il quale si formulano inferenze a partire da un
insieme di premesse o dati. In altre parole, si tratta di un meccanismo formale,
cioè esplicitabile, che consente di transitare dal già noto al non ancora noto,
dalla specificità alla generalità, o viceversa, assicurando coerenza e validità
in ciascuna tappa del percorso. Dunque potremmo dire ‘ragioni!‘ a chiunque (o
qualsiasi cosa) si mostri in grado di compiere tragitti di questo tipo.
Leggi l'articolo
Il luddismo, l'agire di quelle operaie e di quegli operai che agli inizi del
1800 prendevano a martellate o a zoccolate le macchine che toglievano loro
lavoro, è comunemente giudicato atteggiamento retrogrado ed infantile. Ad uno
sguardo più attento, il luddismo appare invece il primo passo, del tutto
comprensibile ed anzi necessario, di reazione ad una novità. L'energia
inizialmente indirizzata verso l'inutile attacco alla macchina trova negli anni
immediatamente successivi una destinazione costruttiva. Nascono così le mutue, i
sindacati, i partiti dei lavoratori. Oggi ci troviamo esattamente nella stessa
situazione: seguire i luddisti nel non subire passivamente, trovare vie per
rispondere costruttivamente. Questo articolo è stato rifiutato nel 2017 dalla
rivista 'Prometeo'. Il motivo: è pessimista, fosco. Ma come scrivo nella
conclusione "Credo che ci convenga essere turbati, spaventati, come lo erano i
luddisti". Il turbamento è il necessario passaggio iniziale verso una presa di
coscienza che si traduce in azione. Ripubblico qui l'articolo senza cambiare una
virgola.
Leggi l'articolo di Francesco Varanini
Secondo Meta, l'uso di Torrent per scaricare copie pirata dei libri non è
illegale, se non vengono distribuite tramite seeding dopo il download.
Emergono nuovi dettagli relativi al processo che vede Meta sul banco degli
imputati. L’azienda di Menlo Park, accusata di violazione del copyright da
diversi autori per aver addestrato i modelli Llama con copie digitali pirata di
numerosi libri, ha dichiarato che il torrenting senza seeding non è illegale.
I documenti depositati in tribunale hanno confermato che i dipendenti di Meta
sono stati autorizzati a scaricare circa 82 TB di dati tramite Torrent dal sito
Anna’s Archive. Le copie pirata dei libri sono state utilizzate per il training
dei modelli Llama. L’azienda californiana sostiene che il “fair use” è
consentito dalla legge.
Articolo completo qui
Il colosso ha rimosso dalle sue linee guida sull'intelligenza artificiale il
divieto di utilizzare la tecnologia a scopi potenzialmente dannosi.
Il 4 febbraio Google ha annunciato di aver aggiornato i principi che regolano
l'utilizzo della sua intelligenza artificiale e di altre tecnologie avanzate. Il
colosso ha eliminato i riferimenti in cui prometteva di non perseguire
"tecnologie che causano o possono causare danni", "armi o altre tecnologie il
cui scopo principale o la cui implementazione causa o facilita direttamente
lesioni alle persone", "tecnologie che raccolgono o utilizzano informazioni per
la sorveglianza violando norme accettate a livello internazionale", e ancora
"tecnologie il cui scopo contravviene a principi ampiamente accettati del
diritto internazionale e dei diritti umani".
Diversi dipendenti di Google hanno espresso la loro apprensione per le novità.
“È profondamente preoccupante vedere che Google abbandona il suo impegno per
l'uso etico della tecnologia AI senza alcun input da parte dei suoi dipendenti o
del pubblico in generale – dice Parul Koul, sviluppatore di software di Google e
presidente di un sindacato che rappresenta i lavoratori di Alphabet, la holding
che controlla l'azienda –, nonostante la posizione storica del personale sia che
l'azienda non dovrebbe entrare nel business della guerra”.
Link all'articolo qui