I chatbot con intelligenza artificiale possono proteggere malamente i tuoi dati personali e far trapelare le tue conversazioni. Ciò era stato dimostrato in passato con ChatGPT: oggi è il turno di Google Bard. Le sue conversazioni sono state trovate indicizzate su Google, permettendo a chiunque di visualizzarle.
Una questione di privacy
Le conversazioni tra gli utenti e Google Bard sono state pubblicate… su Google. Per un po’, il motore di ricerca ha indicizzato le conversazioni i cui utenti avevano creato un link di condivisione. Da allora tutto è tornato alla normalità, ma è una nuova controversia sui chatbot AI e sulla privacy.
Il confronto tra le IA generative
È stato il consulente SEO Gagan Ghotra a lanciare l’allarme su X (ex Twitter) il 26 settembre. Ha pubblicato uno screenshot di una ricerca su Google, trovando tutte le conversazioni con Google Bard condivise dagli utenti. Tuttavia, questi ultimi non ne avevano mai autorizzato l’indicizzazione su un motore di ricerca.
Infatti, una funzionalità di Bard ti consente di creare un collegamento contenente una conversazione. È utile per condividere i tuoi esperimenti con i tuoi cari o colleghi. In teoria, utilizzando parole chiave, potremmo trovare conversazioni su determinati temi e il loro contenuto potrebbe aiutare a identificare chi ha generato le risposte di Bard.
Le sfide della privacy online
In risposta a ciò, l’account Google SearchLiaison (dedicato al motore di ricerca) ha risposto su X che “Bard consente alle persone di condividere thread se lo desiderano. Inoltre, non intendiamo che queste discussioni condivise vengano indicizzate da Ricerca Google. Stiamo attualmente lavorando per impedirne l’indicizzazione.” Da allora la stessa ricerca non porta ad alcuna pagina, il che significa che il bug è stato corretto.
Le precedenti vulnerabilità dei chatbot
Questo non è il primo caso in cui i chatbot hanno avuto problemi. Lo scorso aprile abbiamo appreso che Samsung era venuta a conoscenza di una fuga di informazioni riservate a causa di ChatGPT. Gli ingegneri dell’azienda hanno utilizzato il chatbot nel loro lavoro. Sono state quindi adottate misure per evitare queste potenziali perdite. Più recentemente, ad agosto, una falla ha consentito una risposta casuale da parte di ChatGPT, dalla conversazione di un altro utente. La protezione dei dati personali di ChatGPT era così problematica che l’Italia ha vietato il servizio sul suo territorio per un mese, prima di autorizzarlo nuovamente.
La cautela è d’obbligo
La raccomandazione che possiamo fare è di non condividere alcuna informazione personale con i chatbot: Google Bard, ChatGPT, Bing Chat e altri. Innanzitutto perché i link di condivisione delle discussioni, sia su ChatGPT che su Bard, sono pubblici. Vale a dire, dall’indirizzo URL, chiunque può visualizzarne il contenuto.
L’articolo Chatbot e privacy: le insidie dell’intelligenza artificiale sembra essere il primo su Cellulare Magazine.