Zoe Hitzig, ricercatrice che ha lavorato negli ultimi due anni in OpenAI, ha
rassegnato le dimissioni nello stesso giorno in cui l'azienda ha iniziato a
testare gli annunci pubblicitari all'interno del chatbot. La decisione è stata
spiegata in un editoriale ospitato dal New York Times, in cui Hitzig collega
direttamente il lancio della pubblicità in ChatGPT a un cambio di rotta che, a
suo giudizio, allontana OpenAI dalle domande di sicurezza ed etica per cui aveva
scelto di unirsi all'azienda.
Al centro delle critiche di Hitzig non c'è la pubblicità in sé, che la
ricercatrice non definisce intrinsecamente immorale, ma la combinazione tra
annunci e natura dei dati raccolti da ChatGPT. Nel suo intervento, descrive le
interazioni con il chatbot come un "archivio di candore umano" senza precedenti,
costruito a partire da conversazioni in cui gli utenti condividono timori
medici, problemi di coppia, fragilità psicologiche e convinzioni religiose,
spesso nella convinzione di dialogare con uno strumento neutrale e privo di
interessi propri. Il timore è che un sistema di annunci inserito in questo
contesto possa evolvere verso forme di targeting profondamente personali,
difficili da comprendere e da controllare sia per gli utenti sia per i
regolatori.
Secondo Hitzig, la fase iniziale dei test potrebbe rispettare linee guida
relativamente prudenti, ma il problema emergerebbe nel lungo periodo, man mano
che si consolida il modello di business basato sulla pubblicità. La ricercatrice
richiama esplicitamente la traiettoria dei grandi social network, e in
particolare di Facebook, dove gli impegni iniziali sulla tutela della privacy
sarebbero stati progressivamente erosi dalla pressione di un motore economico
centrato su engagement, profilazione e microtargeting. Nel caso di ChatGPT, la
combinazione tra dati conversazionali intimi e ottimizzazione algoritmica degli
annunci potrebbe creare incentivi a spingere contenuti capaci di influenzare
decisioni sensibili, dagli acquisti alla salute, fino alle opinioni politiche,
sfruttando contesti emotivi particolarmente vulnerabili.
Articolo completo qui
Fonte originale New York Times qui
Tag - profilazione
Lo sostiene uno studio dell'Università della California, che rivela come le TV
LG e Samsung registrano i contenuti visualizzati e li usano per profilare gli
utenti.
Molti conosceranno Shazam, l'applicazione che è in grado di riconoscere una
canzone "ascoltando" pochi secondi di essa. Qualcosa del genere avviene con le
Smart TV e i programmi televisivi, solo che il funzionamento è automatico e
prescinde dalla volontà dell'utente.
A svelarlo è uno studio dell'Università della California, che ha analizzato i
televisori di LG e Samsung nel Regno Unito e negli Stati Uniti.
Leggi l'articolo su ZEUS News
All-In Plan lega gli utenti all'azienda per almeno due anni fornendo stampanti,
inchiostri e un numero massimo di pagine stampabili.
Con l'inizio del mese di marzo HP ha iniziato a realizzare il suo sogno di
imprigionamento degli utenti con il lancio del servizio HP All-In Plan.
Disponibile per ora nei soli Stati Uniti, è un piano in abbonamento dalle
ambizioni molto più ampie rispetto a quelle di Instant Ink: in cambio di una
quota mensile, infatti, fornisce non soltanto le cartucce, ma anche la
stampante. I prezzi vanno dai 6,99 dollari al mese necessari per sottoscrivere
per l'offerta base, che include una stampante HP Envy (attualmente, si tratta
della Envy 6020e) e consente di stampare un massimo di 20 pagine al mese, e
arrivano fino ai 35,99 dollari mensili dell'offerta più completa, che include
una HP OfficeJet Pro e consente di stampare fino a 700 pagine al mese.
Leggi l'articolo su ZEUS News