Ciò era già stato dimostrato all’inizio di aprile, ora sta diventando reale: i funzionari tedeschi per la protezione dei dati vedono scappatoie normative e notevoli problemi di protezione dei dati nell’intelligenza artificiale di ChatGPT. Ora è stata aperta la procedura ufficiale.
Carico…
Vale a dire dalla cosiddetta task force AI degli stati federali. Il suo leader, Dieter Kugelmann, ha avviato un procedimento contro ChatGPT di OpenAI contro Mirror giornaliero confermato.
Nella prima fase dell’indagine, dovrebbe essere prima chiarito da dove OpenAI ottiene le sue informazioni e da cosa viene alimentata l’IA: “Dobbiamo sapere da dove provengono i dati”.
Se vengono utilizzati dati personali, è necessaria una base legale secondo i funzionari della protezione dei dati. Gli utenti dovrebbero sapere se i loro dati sono utilizzati nei programmi di formazione sull’intelligenza artificiale e dovrebbe pertanto esserci un’opzione per escludere i loro dati da tale valutazione e opporsi al loro utilizzo.
“Abbiamo redatto una lettera campione insieme a domande per OpenAI, che la maggior parte dei responsabili della protezione dei dati dello stato invierà al gruppo questa settimana”, ha spiegato il capo della task force a Tagesspiegel. Tuttavia, Kugelmann è stato molto critico nei confronti dell’approccio adottato dai responsabili della protezione dei dati in Italia. L’accesso a ChatGPT era stato limitato lì a marzo sotto minaccia di punizione.
Video su OpenAI
Legge AI perseguita
L’autorità italiana per la protezione dei dati, Garante per la Protezione dei Dati Personali, ha accusato ChatGPT, tra le altre cose, di non verificare l’età dei suoi utenti. ChatGPT inoltre non ha “alcuna base legale che giustifichi la raccolta e l’archiviazione massicce di dati personali” per l’addestramento dei chatbot. Tuttavia, il rapido sviluppo della tecnologia non solo ha attirato l’attenzione degli utenti, ma anche dei legislatori di tutto il mondo. Gli esperti chiedono ora una risposta rapida con nuove normative favorevoli all’IA.
- Le autorità per la protezione dei dati stanno indagando su ChatGPT OpenAI per scappatoie normative e problemi di privacy.
- Una task force AI di uno stato federale ha aperto la procedura e ha presentato domande a OpenAI.
- Gli utenti devono essere informati sull’uso dei propri dati, sulle opzioni di esclusione e sulle obiezioni.
- Critiche all’azione italiana contro ChatGPT: l’età non viene controllata, non esiste una base legale per la raccolta e l’archiviazione dei dati.
- Gli esperti chiedono una risposta rapida con nuove normative per l’IA.
Guarda anche:
argomenti correlati
“Specialista dell’alcol. Appassionato risolutore di problemi. Esperto di musica freelance. Pioniere del cibo malvagio. Appassionato di Twitter.”