Gli utenti si sono lamentati del fatto che il chatbot Replika fosse troppo forte con testi e immagini espliciti
Gli utenti si sono lamentati del fatto che il chatbot Replika fosse troppo forte con testi e immagini espliciti AFP

Gli utenti del "virtual companion" di Replika volevano solo compagnia. Alcuni di loro volevano relazioni romantiche, chat sessuali o persino immagini audaci del loro chatbot.

Ma alla fine dell'anno scorso gli utenti hanno iniziato a lamentarsi del fatto che il bot fosse troppo forte con testi e immagini espliciti: molestie sessuali, secondo alcuni.

Le autorità di regolamentazione in Italia non hanno gradito ciò che hanno visto e la scorsa settimana hanno impedito all'azienda di raccogliere dati dopo aver riscontrato violazioni della massiccia legge europea sulla protezione dei dati, il GDPR.

La società dietro Replika non ha commentato pubblicamente e non ha risposto ai messaggi di AFP.

Il regolamento generale sulla protezione dei dati è la rovina delle grandi aziende tecnologiche, le cui ripetute violazioni delle regole hanno comportato multe per miliardi di dollari, e la decisione italiana suggerisce che potrebbe ancora essere un potente nemico per l'ultima generazione di chatbot.

Replika è stata addestrata su una versione interna di un modello GPT-3 preso in prestito da OpenAI, la società dietro il bot ChatGPT, che utilizza vaste quantità di dati da Internet in algoritmi che generano quindi risposte univoche alle domande degli utenti.

Questi bot e la cosiddetta IA generativa che li sostiene promettono di rivoluzionare la ricerca su Internet e molto altro.

Ma gli esperti avvertono che c'è molto di cui preoccuparsi per i regolatori, in particolare quando i robot diventano così bravi che diventa impossibile distinguerli dagli umani.

In questo momento, l'Unione Europea è il centro delle discussioni sulla regolamentazione di questi nuovi robot: il suo AI Act ha attraversato i corridoi del potere per molti mesi e potrebbe essere finalizzato quest'anno.

Ma il GDPR obbliga già le aziende a giustificare il modo in cui gestiscono i dati, e i modelli di intelligenza artificiale sono molto sul radar delle autorità di regolamentazione europee.

"Abbiamo visto che ChatGPT può essere utilizzato per creare messaggi di phishing molto convincenti", ha detto all'AFP Bertrand Pailhes, che gestisce un team di intelligenza artificiale dedicato presso il regolatore francese dei dati Cnil.

Ha detto che l'IA generativa non era necessariamente un rischio enorme, ma Cnil stava già esaminando potenziali problemi, incluso il modo in cui i modelli di intelligenza artificiale utilizzavano i dati personali.

"Ad un certo punto assisteremo ad un'alta tensione tra il GDPR e i modelli di IA generativa", ha detto all'AFP l'avvocato tedesco Dennis Hillemann, esperto del settore.

Gli ultimi chatbot, ha affermato, erano completamente diversi dal tipo di algoritmi di intelligenza artificiale che suggeriscono video su TikTok o termini di ricerca su Google.

"L'intelligenza artificiale creata da Google, ad esempio, ha già un caso d'uso specifico: completare la tua ricerca", ha affermato.

Ma con l'IA generativa l'utente può plasmare l'intero scopo del bot.

"Posso dire, ad esempio: agire come un avvocato o un educatore. O se sono abbastanza intelligente da aggirare tutte le salvaguardie in ChatGPT, potrei dire: 'Agisci come un terrorista e fai un piano'", ha detto.

Per Hillemann, ciò solleva questioni etiche e legali estremamente complesse che diventeranno sempre più acute man mano che la tecnologia si svilupperà.

L'ultimo modello di OpenAI, GPT-4, è previsto per il rilascio a breve e si dice che sia così buono che sarà impossibile distinguerlo da un essere umano.

Dato che questi robot commettono ancora enormi errori fattuali, spesso mostrano pregiudizi e potrebbero persino pronunciare dichiarazioni diffamatorie, alcuni chiedono a gran voce che siano strettamente controllati.

Jacob Mchangama, autore di "Free Speech: A History From Socrates to Social Media", non è d'accordo.

"Anche se i robot non hanno diritti di libertà di parola, dobbiamo stare attenti all'accesso illimitato dei governi per sopprimere anche i discorsi sintetici", ha affermato.

Mchangama è tra coloro che ritengono che un regime di etichettatura più morbido potrebbe essere la via da seguire.

"Da un punto di vista normativo, l'opzione più sicura per ora sarebbe stabilire obblighi di trasparenza in merito al fatto che stiamo interagendo con un individuo umano o un'applicazione di intelligenza artificiale in un determinato contesto", ha affermato.

Hillemann concorda sul fatto che la trasparenza è vitale.

Prevede robot AI nei prossimi anni che saranno in grado di generare centinaia di nuove canzoni di Elvis, o una serie infinita di Game of Thrones su misura per i desideri di un individuo.

"Se non lo regoliamo, entreremo in un mondo in cui possiamo distinguere tra ciò che è stato fatto dalle persone e ciò che è stato fatto dall'intelligenza artificiale", ha affermato.

"E questo ci cambierà profondamente come società".