Le autorità italiane hanno limitato l’uso del chatbot ChatGPT a causa di carenze nel trattamento dei dati personali. Anche l’operatore del dispositivo, la società americana OpenAI, è stato soggetto a una multa fino a 20 milioni di euro (470 milioni di CZK) o al quattro percento del fatturato globale, secondo le normative. Le autorità hanno anche criticato il fatto che il robot non verifichi l’età dell’utente. L’operatore può presentare ricorso contro la decisione in tribunale.
Condividi su Facebook
Condividi su Linkedin
Stampa
Copia l’indirizzo URL
Indirizzo breve
Vicino
Secondo il Garante per la protezione dei dati personali, non è chiaro a quali condizioni legali i bot raccolgano e raccolgano i dati personali dei propri utenti, che non sono nemmeno informati di tali condizioni. Sebbene l’operatore affermi che il robot può essere utilizzato da persone che hanno almeno 13 anni, il dispositivo non controlla in alcun modo l’età, secondo le autorità.
Il capo dell’azienda che gestisce ChatGPT è preoccupato per l’impatto dell’intelligenza artificiale su posti di lavoro, elezioni e disinformazione
Leggi articoli
Le autorità hanno deciso di vietare ai bot ChatGPT di utilizzare i dati personali degli utenti italiani fino al completamento del processo. OpenAI ha 20 giorni di tempo per attuare l’azione in risposta all’avvertimento delle autorità italiane. Se ciò non accade, l’operatore deve affrontare le multe salate di cui sopra.
Le autorità italiane hanno sottolineato che ChatGPT è il chatbot più utilizzato al mondo e le informazioni sui suoi utenti sono trapelate il 20 marzo. Allo stesso tempo, questa settimana l’organizzazione di polizia europea Europol ha avvertito che i criminali potrebbero utilizzare ChatGPT e altri chatbot per frodi e altre attività criminali.
Condividi su Facebook
Condividi su Linkedin
Stampa
Copia l’indirizzo URL
Indirizzo breve
Vicino