Quando il divertimento diventa pericoloso: proverai con le ragazze AI?

Sempre più persone si rivolgono alle ragazze AI in cerca di compagnia romantica.

Fonte: inverno

Foto: KDdesign_photo_video / Shutterstock.com

L’intelligenza artificiale e i vari chatbot basati sull’intelligenza artificiale non vengono utilizzati solo per lavorare, aumentare la produttività, scrivere tesine e completare compiti a scuola, ma c’è anche chi ha rapporti, anche sentimentali, con questo tipo di tecnologia.

Anche se sembra una sceneggiatura per la serie Black Mirror, le ragazze IA come Replica sono piuttosto popolari e alcune hanno persino oltrepassato il confine tra il mondo reale e quello virtuale e hanno sposato i robot.

Il numero di persone impegnate in conversazioni con l’intelligenza artificiale è in aumento, ma pochi sanno quali pericoli si nascondono in tali conversazioni quando si tratta di sicurezza e privacy. Molte persone non capiscono (e non si preoccupano) quale atteggiamento abbiano le aziende che sviluppano tali robot nei confronti della privacy, vale a dire se raccolgono dati sugli utenti, che tipo di dati sono e, soprattutto, per cosa vengono raccolti questi dati.

Dato che le persone alla fine sentono una connessione con il bot, vale a dire con il loro fidanzato AI, iniziano a conversare con il bot come se dovessero avere una conversazione con un vero partner, quindi gli affidano varie cose personali che non tutti possono sentire. Attraverso conversazioni su sesso o problemi sessuali, problemi di salute, farmaci che assumono, ecc., i robot ottengono molte informazioni personali, quindi sorge la domanda su come le utilizzeranno. L’ultimo sondaggio di Mozilla Privacy Not Included mostra che la maggior parte dei chatbot romantici non soddisfa gli standard minimi di sicurezza e ben il 90% di essi condivide o vende i dati personali degli utenti, mentre più della metà non offre la possibilità di eliminare i dati personali. dati.

Quando si parla di chatbot romantici e questioni di privacy, bisogna certamente prestare attenzione al fatto che la sfida più grande non sono gli hacker o le violazioni della sicurezza, ma gli utenti stessi, che potrebbero persino dimenticare con chi stanno parlando e con cui condividono informazioni personali e riservate. . con i bot. In un esempio menzionato nel rapporto, il chatbot ha raccolto informazioni su nome e cognome, data di nascita, e-mail, hobby e condizione lavorativa dell’utente con cui ha parlato, nonché di altre persone menzionate durante la conversazione. conversazione.

Mozilla afferma che è problematico il fatto che più della metà dei suoi chatbot non forniscano informazioni sulla crittografia, né su come risolvono problemi di sicurezza e vulnerabilità. Inoltre, il problema è che alcuni di questi chatbot non chiedono agli utenti password complesse e in alcuni casi non esiste nemmeno un modo per impedire che l’intelligenza artificiale sia offensiva nella conversazione.

Ci sono molte incognite su come si forma la loro personalità, quali modelli li addestrano, quali procedure vengono utilizzate per prevenire contenuti dannosi e se gli utenti possono impedire che le loro conversazioni vengano utilizzate per ulteriore formazione sull’intelligenza artificiale. modello.

Malvolia Cocci

"Studente. Avido evangelista del bacon. Ninja di Twitter per tutta la vita. Fanatico della birra. Pioniere del cibo."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *