Insieme al divieto di servizio regolatore italiano avviato un’indagine. Tra i motivi per cui ha compiuto questo passo, le autorità citano la fuga di dati dello scorso anno dal database Open AI, inclusi, ad esempio, i dati di pagamento. Le autorità italiane affermano inoltre che non esiste una base giuridica per consentire “la raccolta massiccia di dati personali ai fini dell’addestramento degli algoritmi”.
In una dichiarazione, l’autorità ha sottolineato che Open AI non informa adeguatamente gli utenti su ciò che sta accadendo con i loro dati e, allo stesso tempo, i loro dati vengono elaborati in modo imperfetto, il che in alcuni casi porta a risposte errate dal workshop GPT Chat. Inoltre, secondo i funzionari italiani, la verifica dell’età dell’utente al momento della registrazione e dell’accesso all’interfaccia di chat è insufficiente, nonostante il servizio non sia destinato a persone di età inferiore ai diciotto anni e alcune risposte potrebbero non essere adatte ai bambini piccoli.
Secondo l’esperto di protezione dei dati personali Jan Vobořil dell’organizzazione Iuridicum Remedium, le procedure delle autorità italiane sono in ordine. “Il GDPR deve essere rispettato per qualsiasi elaborazione”, ha affermato. “Non riesco a trovare alcuna informazione sul trattamento dei dati personali sul loro sito web, è stato un problema. Pertanto, non sono noti parametri di elaborazione: chi, cosa, per quanto tempo e dove elaborare fisicamente, a quale scopo, titolo legale e simili”, ha spiegato Vobořil quale fosse il problema.
L’esperto aggiunge che l’Ufficio italiano per la protezione dei dati personali è una delle agenzie attive, ad esempio una delle prime a multare Clearview, che punta sul riconoscimento facciale
Open AI non ha un ufficio o un rappresentante nel continente europeo, sebbene abbia una scadenza di venti giorni, in cui deve, secondo la legge europea, commentare come risolverà eventuali problemi individuati.
La decisione di bloccare arriva dopo che una figura di spicco nel mondo della tecnologia ha scritto una lettera aperta raccomandando un congelamento di sei mesi sullo sviluppo dell’IA che è più avanzato del modello di linguaggio della chat GPT4. Secondo loro, dovrebbero essere stabilite regole che consentano l’ulteriore sviluppo sicuro dell’IA. La convocazione è firmata, ad esempio, da Elon Musk, dallo storico Yuval Noah Harari o dal direttore tecnologico delle startup ceche Rossum Petr Baudiš.
“Dovremmo permettere alle macchine di inondare i nostri feed di notizie con propaganda e falsità? Dovremmo automatizzare tutto il lavoro, compresi quelli che ci soddisfano? Dovremmo sviluppare cervelli non umani che alla fine potrebbero essere più numerosi, superarci in astuzia, diventare obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? chiedi sfida da Istituto Vita Futura.
“Se non lo facciamo, inizieremo a esporci al pericolo dell’intervento dello Stato e può accadere qualcosa di simile a quanto è successo con l’energia nucleare, ovvero lo Stato riorganizzerà il campo e quindi metterà in pericolo lo sviluppo”, ha spiegato Baudiš a sostegno di l’arresto durante lo sviluppo. “Non gioverà a nessuno, quindi è bene mostrare un certo livello di responsabilità”, ha aggiunto.
Secondo Baudiš, esiste il rischio di asimmetria informativa dovuta alla rapida adozione di nuove tecnologie. “Se sei mesi fossero usati solo per istruire le persone su ciò che l’IA può fare, ne varrebbe la pena. Dobbiamo anche pensare alla sicurezza in modo che non sia facilmente abusata”, ha affermato.
“Evangelista zombi malvagio. Esperto di pancetta. Fanatico dell’alcol. Aspirante pensatore. Imprenditore.”