SAN FRANCISCO (Reuters) – Un gruppo di eminenti ricercatori preoccupati per i dannosi effetti sociali dell’intelligenza artificiale ha chiesto giovedì il divieto dell’analisi automatizzata delle espressioni facciali nelle assunzioni e in altre decisioni importanti.
L’AI Now Institute della New York University afferma che l’azione contro tale “riconoscimento dell’influenza” basato su software è la sua massima priorità perché la scienza non giustifica l’uso della tecnologia e c’è ancora tempo per fermare la sua diffusa adozione.
Un altro gruppo di professori e ricercatori cita l’esempio problematico dell’azienda HireVue, che vende sistemi di video colloquio a distanza ad aziende come Hilton e Unilever. Offre l’intelligenza artificiale per analizzare i movimenti facciali, il tono della voce e i modelli di discorso e non rivela i punteggi ai candidati al lavoro.
L’Electronic Privacy Information Center senza scopo di lucro ha presentato un reclamo su HireVue alla Federal Trade Commission degli Stati Uniti e AI Now ha già criticato la società.
HireVue ha affermato di non aver visto il rapporto AI Now e di non aver risposto alle domande sulla critica o sul reclamo.
“Molti potenziali dipendenti hanno beneficiato della tecnologia di HireVue per aiutare a eliminare significativi pregiudizi umani nei processi di assunzione esistenti”, ha affermato il portavoce Kim Paone.
AI Now, nel suo quarto rapporto annuale Qui sugli effetti degli strumenti di intelligenza artificiale, ha affermato che lo screening del lavoro è uno dei tanti modi in cui tale software viene utilizzato senza responsabilità e di solito favorisce i gruppi privilegiati.
Il rapporto cita una recente analisi accademica di studi su come le persone interpretano l’umore dalle espressioni facciali. quella carta Qui ha scoperto che la borsa di studio precedente mostrava tali percezioni come inaffidabili per vari motivi.
“Il modo in cui le persone comunicano rabbia, disgusto, paura, felicità, tristezza e shock varia ampiamente tra culture, situazioni e persino tra persone all’interno di una situazione”, ha scritto un team della Northeastern University e del Massachusetts General Hospital.
Le aziende, tra cui Microsoft Corp, stanno commercializzando la loro capacità di classificare le emozioni utilizzando il software, afferma lo studio. Microsoft non ha risposto a una richiesta di commento nella tarda serata di mercoledì.
AI Now ha anche criticato Amazon.com Inc, che offre analisi dell’espressione emotiva attraverso il suo software Rekognition. Amazon ha detto a Reuters che la sua tecnologia determina solo l’aspetto fisico del volto di una persona e non pretende di mostrare ciò che una persona sta realmente provando.
In una teleconferenza prima della pubblicazione del rapporto, i fondatori di AI Now Kate Crawford e Meredith Whittaker hanno affermato che l’uso distruttivo dell’IA si sta moltiplicando nonostante un ampio consenso sui principi etici perché non ci sono conseguenze per la loro violazione.
Segnalato da Giuseppe Menn. A cura di Gerry Doyle

“Specialista dell’alcol. Appassionato risolutore di problemi. Esperto di musica freelance. Pioniere del cibo malvagio. Appassionato di Twitter.”
