Un algoritmo come ChatGPT è stato bannato nel nostro Paese a causa della sua pericolosità. Ma che cosa lo rende effettivamente un pericolo?
I chatbot stanno prendendo piede nell’ultimo periodo, e pare che aumentino di numero giorno dopo giorno. L’utilità delle loro conversazioni non è certamente da sottovalutare, ma un uso improprio di queste intelligenze artificiali potrebbe portare gli utenti a dubitare delle loro funzionalità. Ancora peggio le società che le analizzano, per poi scoprire che tutto potrebbero essere tranne che non nocive per ognuno di noi.
In questo caso parliamo del chatbot Replika, ritenuto pericoloso soprattutto per i minori. Ora, con la nuova normativa del Garante della Privacy, non potrà utilizzare i dati personali degli utenti italiani. Per arrivare a questo risultato sono state condotte delle analisi molto specifiche sull’algoritmo, le stesse che hanno portato i fubzionari a prendere questa decisione che, seppur ambigua, pare essere corretta secondo loro.
Replika non è una chatbot affidabile: viola tutte le norme del GDPR
La limitazione ha avuto luogo a seguito di una segnalazione contro la società americana Luka, che si occupa di sviluppare e gestire il chatbot al fine di migliorare il benessere emotivo dell’utente. Il gestore, come avrete capito, ha tempo 20 giorni per comunicare “le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo“. Ma come mai è considerato così tanto pericoloso?
Innanzitutto dovete sapere che Replika fa uso di un sofisticato modello di machine learning basato su rete neurale e contenuti di dialogo con script. È stato addestrato su un ampio set di dati per generare le sue risposte uniche, inoltre è basato su una AI disponibile su web, iOS, Android e Oculus, ed è stato progettato “per chiunque desideri un amico senza giudizio, dramma o ansia sociale“. Il suo scopo è di mettere in atto una vera e propria connessione emotiva con l’utente allo scopo di ridurre l’ansia e parlare con qualcuno quando si è giù di morale, ma anche di ridere e giocare insieme.
Tuttavia, il Garante della Privacy mette in chiaro che questo chatbot “ha caratteristiche che intervengono sull’umore della persona, possono accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva“. Come se non bastasse non utilizza nessun filtro per i minori o qualche blocco particolare, il che è facile intuire che immagazzini le informazioni o permetta agli utenti di scrivere qualunque cosa loro desiderino. A questo punto è facile arrivare a capire che il trattamento dei dati è illecito “in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere“.