La legge sulla distorsione dell’IA, punto di riferimento di New York, suscita incertezza

Le aziende ei loro fornitori di servizi sono alle prese con il modo di ottemperare al mandato di New York City per gli audit dei sistemi di intelligenza artificiale utilizzati nelle assunzioni.

Una legge di New York City che entrerà in vigore a gennaio richiederà alle aziende di condurre audit per valutare i pregiudizi, anche in termini di razza e genere, nei sistemi di intelligenza artificiale che utilizzano nelle assunzioni. Secondo la legge di New York, la società di assunzione è in ultima analisi responsabile, e può incorrere in sanzioni, per le violazioni.

Ma il requisito ha posto alcune sfide di conformità. A differenza degli audit finanziari familiari, affinati in decenni di esperienza contabile, il processo di audit dell’IA è nuovo e senza linee guida chiaramente stabilite.

“C’è una grande preoccupazione, ovvero che non è chiaro esattamente cosa costituisca un audit di intelligenza artificiale”, ha affermato Andrew Burt, managing partner dello studio legale BNH incentrato sull’intelligenza artificiale. “Se sei un’organizzazione che utilizza alcuni tipi di questi strumenti… può creare confusione”.

La legge comunale avrà un potenziale impatto su un gran numero di datori di lavoro. New York City nel 2021 aveva poco meno di 200.000 aziende, secondo il Dipartimento del lavoro dello Stato di New York.

Un portavoce di New York City ha affermato che il suo Dipartimento per la protezione dei consumatori e dei lavoratori ha lavorato su regole per attuare la legge, ma non aveva una tempistica per quando potrebbero essere pubblicate. Non ha risposto alle domande sul fatto che la città avesse una risposta alle lamentele sulla presunta mancanza di guida.

Kevin White, co-presidente del team del lavoro e dell’occupazione presso Hunton Andrews Kurth LLP.


Foto:

Hunton Andrews Kurth LLP

Al di là dell’impatto immediato a New York City, i datori di lavoro sono fiduciosi che i requisiti di audit saranno presto richiesti in molte più giurisdizioni, ha affermato Kevin White, co-presidente del team del lavoro e dell’occupazione presso lo studio legale Hunton Andrews Kurth LLP.

L’intelligenza artificiale si è costantemente insinuata nei dipartimenti delle risorse umane di molte aziende. Secondo una ricerca pubblicata all’inizio di quest’anno dalla Society for Human Resource Management, quasi uno su quattro utilizza l’automazione, l’IA o entrambi per supportare le attività delle risorse umane. Il numero sale al 42% tra le aziende con più di 5.000 dipendenti.

Altri studi hanno stimato livelli di utilizzo ancora più elevati tra le imprese.

La tecnologia AI può aiutare le aziende ad assumere e inserire i candidati più rapidamente nel mezzo di una “guerra per i talenti”, ha affermato Emily Dickens, capo degli affari di governo di SHRM.

Emily Dickens, capo degli affari di governo della Società per la gestione delle risorse umane.


Foto:

Società per la gestione delle risorse umane

I potenziatori della tecnologia hanno affermato che, se usata bene, può anche potenzialmente impedire che pregiudizi ingiusti si insinuino nelle decisioni di assunzione. Una persona potrebbe, ad esempio, schierarsi inconsciamente con un candidato che ha frequentato lo stesso college o radici per una certa squadra, mentre i computer non hanno alma mater o squadre sportive preferite.

Una mente umana con le sue motivazioni nascoste è “l’ultima scatola nera”, a differenza di un algoritmo le cui risposte a input diversi possono essere sondati, ha affermato Lindsey Zuloaga, chief data scientist di HireVue Inc. HireVue, che elenca Unilever PLC e Kraft Heinz co.

Tra i suoi clienti, offre software in grado di automatizzare le interviste.

Ma, se le aziende non stanno attente, l’IA può “essere molto parziale su larga scala. Il che è spaventoso”, ha detto la sig. Zuloaga ha detto, aggiungendo che sostiene il controllo che i sistemi di intelligenza artificiale hanno iniziato a ricevere.

I sistemi di HireVue vengono regolarmente controllati per rilevare eventuali errori e l’azienda vuole assicurarsi che i clienti si sentano a proprio agio con i suoi strumenti, ha affermato.

Lindsey Zuloaga, chief data scientist di HireVue.


Foto:

Assumi Vue

Un audit degli algoritmi di HireVue pubblicato nel 2020, ad esempio, ha rilevato che i candidati delle minoranze tendevano a fornire risposte brevi alle domande del colloquio, dicendo cose come “Non lo so”, il che comporterebbe che le loro risposte venissero contrassegnate come umane revisione. HireVue ha cambiato il modo in cui il suo software gestisce le risposte brevi per affrontare il problema.

Le aziende sono preoccupate per “l’opacità e la mancanza di standardizzazione” riguardo a ciò che ci si aspetta dall’audit dell’IA, ha affermato la Camera di commercio degli Stati Uniti, che fa pressioni per conto delle imprese.

Ancora più preoccupante è il possibile impatto sulle piccole imprese, ha affermato Jordan Crenshaw, vicepresidente del Technology Engagement Center della Camera.

Molte aziende hanno dovuto affrettarsi per determinare fino a che punto utilizzano i sistemi di intelligenza artificiale nel processo di assunzione, ha affermato Mr. disse il bianco. Le aziende non hanno adottato un approccio uniforme su quale funzione esecutiva “possiede” l’IA. In alcuni, le risorse umane guidano il processo e in altri è guidato dal chief privacy officer o dalla tecnologia dell’informazione, ha affermato.

“Si sono resi conto abbastanza rapidamente che devono mettere insieme un comitato in tutta l’azienda per capire dove potrebbe essere seduta tutta l’IA”, ha detto.

Poiché New York non offre linee guida chiare, si aspetta che ci possa essere una serie di approcci adottati negli audit. Ma le difficoltà nel conformarsi non stanno riportando le aziende ai processi di un’era pre-AI, ha affermato.

“È troppo utile per riporlo sullo scaffale”, ha detto.

Alcuni critici hanno sostenuto che la legge di New York non va abbastanza lontano. Il Surveillance Technology Oversight Project, la New York Civil Liberties Union e altre organizzazioni hanno notato la mancanza di standard per gli audit dei bias, ma hanno spinto per sanzioni più severe in una lettera inviata prima dell’approvazione della legge. Hanno affermato che le aziende che vendono strumenti affermano di essere di parte se stesse potenzialmente affrontando una punizione, tra gli altri suggerimenti.

Anthony Habayeb, amministratore delegato di Monitaur.


Foto:

Monitauro

I regolatori non cercheranno necessariamente la perfezione nei primi giorni.

“Lo sforzo in buona fede è davvero ciò che le autorità di regolamentazione stanno cercando”, ha affermato Liz Grennan, co-leader del digital trust di McKinsey & Co. “Francamente, i regolatori impareranno man mano che procedono”.

SM. Grennan ha affermato che alcune società non stanno aspettando la data di entrata in vigore di gennaio per agire.

Le aziende in parte sono motivate tanto dal rischio reputazionale quanto dal timore che un regolatore intervenga. Per le grandi aziende con marchi di alto profilo, le preoccupazioni per l’impatto sociale e le questioni ambientali, sociali e di governance potrebbero superare le preoccupazioni di essere “schiaffeggiate da un regolatore”, ha affermato Anthony Habayeb, amministratore delegato della società di software di governance AI Monitaur Inc.

“Se sono un’impresa più grande… voglio essere in grado di dimostrare che so che l’IA potrebbe avere problemi”, ha affermato il Sig. ha detto Habayeb. “E invece di aspettare che qualcuno mi dicesse cosa fare… ho creato controlli attorno a queste applicazioni perché so che come con qualsiasi software, le cose possono e vanno male.”

New York sta lanciando una nuova legge che richiede ai datori di lavoro di elencare le fasce salariali sugli annunci di lavoro. Leggi simili in luoghi come il Colorado mirano a persino il campo di gioco per i candidati. Ma non tutti stanno abbracciando i cambiamenti. Illustrazione: Adele Morgan

Altro dal diario di rischio e conformità

Scrivere a Richard Vanderford a richard.vanderford@wsj.com

Copyright ©2022 Dow Jones & Company, Inc. Tutti i diritti riservati. 87990cbe856818d5eddac44c7b1cdeb8

.

Leave a Comment