Stop a ChatGPT. Il Garante della privacy, con il provvedimento n. 112 del 30 marzo, ha disposto la limitazione sul suolo italiano del modello di chatbot basato sull’intelligenza artificiale relazionale. I motivi? La raccolta illecita di dati personali ed un’assenza di verifiche sull’età dei minori che, in teoria, possono accedervi a partire dai 13 anni di età.
I due motivi che hanno decretato lo stop di ChatGPT
L’Autorità per la protezione dei dati personali, infatti, contesta ad OPEN AI, la società statunitense fondata inizialmente da Sam Altman come una non-profit e sviluppatrice del chatbot, la mancanza di un’informativa coerente e rispettosa del GDPR, che metta al corrente gli utenti e tutti gli interessati sull’utilizzo dei dati rilasciati o acquisiti, sulla loro protezione e sul loro trattamento. In più, a preoccupare il Garante c’è anche un altro aspetto: “l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma.”
L’intervento dell’Autorità presieduta da Stanzione ha colpito OPEN AI anche per la mancanza di filtri che verifichino l’età degli utenti. I minori di 13 anni sarebbero esposti a risposte assolutamente inidonee rispetto al loro grado disviluppo e autoconsapevolezza.
A sollecitare l’intervento del Garante, con ogni probabilità, c’è un episodio di Data Breach. Lo scorso 20 marzo, Chat GPT aveva subito una perdita di dati riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio plus, la versione di dialogo più avanzata con il sistema di intelligenza artificiale (costo: 20 $ al mese).
La società americana avrà adesso 20 giorni di tempo per comunicare al Garante le misure intraprese, adeguandosi di fatto alle disposizioni. In caso contrario, potrebbe essere applicata una sanzione pecuniaria fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
La decisione del Garante per la protezione dei dati personali divide l’opinione pubblica
La notizia del provvedimento ha fatto il giro del mondo. L’Italia è stata il primo Paese ad intraprendere un’azione del genere. Sul fronte interno si è aperto un dibattito che ha coinvolto un po’ tutti. Dai politici ai tecnici, passando per i protagonisti dell’innovazione digitale e delle startup, in molti hanno espresso il loro pensiero, criticando anche Stanzione per il triste primato. Se Matteo Salvini, Vicepresidente del Consiglio e Ministro delle Infrastrutture e dei Trasporti, ha definito la decisione del Garante della Privacy sproporzionata, dichiarandosi contrario ad ogni censura, salvo in casi di attività criminali o di rischi per la sicurezza nazionale, il fondatore di Talent Garden, Davide Dattoli, ha dichiarato a Repubblica: “abbiamo fatto una brutta figura planetaria, perché non è certo con un editto bulgaro che un Paese sempre più piccolo a livello globale, come il nostro, può risolvere i problemi di intelligenza artificiale.”
Il Professor Luciano Floridi, filosofo e docente di Sociologia presso l’Università di Bologna e di etica dell’informazione presso l’Oxford Internet Institute dell’Università di Oxford, dove è anche direttore del Digital Ethics Lab, intervistato dall’HuffPost, ha etichettato come “draconiana”, ossia potenzialmente eccessiva, la decisione dell’Autorità. Il massimo esponente di filosofia dell’informazione e dell’etica informatica, seppur ammettendo che c’è un rischio per la privacy e che la gestione dei dati non è certo all’altezza degli standard europei, crede che debbano esserci soluzioni diverse dalla dicotomia “liberi tutti – bloccati”.
Il MoIGe d’accordo con il Garante
D’accordo con la decisione del Garante il MoIGe – Movimento Italiano Genitori. L’Associazione di Promozione Sociale impegnata in ambito sociale ed educativo per la protezione dei minori ha applaudito la decisione, riscontrando che la mancanza di chiarezza impone una maggiore cautela. I giovani sono incuriositi dall’argomento “intelligenza artificiale” e rappresentano i maggiori avventori di uno strumento che offre la possibilità di generare testi o immagini in pochi click o passaggi. Per il MoIGe, se il chatbot non rispecchia determinati standard, è giusto che venga sanzionato.
In ogni caso, ChatGPT divide. Oggi ci si dimentica che si tratta di una macchina statistica. Per il momento, è doveroso sottolinearlo, non ha l’intelligenza degli umani, ma ha sempre bisogno di una guida e di ulteriori modifiche e verifiche. Per ora, però. Perché nei prossimi mesi, con ogni probabilità tra l’autunno e l’inverno, quando sarà disponibile l’aggiornamento numero 5, il chatbot dovrebbe raggiungere l’AGI (Artificial General Intelligence), ossia la capacità di un programma di pensare come un essere umano. Dialogare con ChatGPT potrebbe essere paragonabile ad uno scambio di pensieri e battute tra due persone.