Ho domande ispirate al recente scandalo sul reclutamento di Amazon, in cui sono state accusate di discriminazione nei confronti delle donne nel loro processo di reclutamento. Maggiori informazioni qui :
Gli specialisti dell'apprendimento automatico di Amazon.com Inc hanno scoperto un grosso problema: al loro nuovo motore di reclutamento non piacevano le donne.
La squadra era stata la costruzione di programmi informatici dal 2014 a rivedere i candidati di lavoro riprende con l'obiettivo di meccanizzare la ricerca di migliori talenti ...
... strumento di assunzione sperimentale dell'azienda usato l'intelligenza artificiale per dare posti di lavoro candidati punteggi che vanno da una a cinque stelle ...
... Ma entro il 2015, la società ha capito che il suo nuovo sistema non stava valutando i candidati per i lavori di sviluppo di software e altri posti tecnici in modo neutro rispetto al genere.
Questo perché i modelli di computer di Amazon sono stati addestrati per i veterinari osservando i modelli nei curriculum presentati alla società per un periodo di 10 anni. La maggior parte proveniva da uomini, un riflesso del dominio maschile nell'industria tecnologica. (Per un grafico sulle disaggregazioni di genere nella tecnologia, vedi: qui ) In effetti, il sistema di Amazon si è insegnato che i candidati maschi erano preferibili. Ha penalizzato i curriculum che includevano la parola "femminile", come in "capitano del club di scacchi femminile". E ha declassato i laureati di due college per sole donne, secondo le persone che hanno familiarità con la questione. Non hanno specificato i nomi delle scuole.
Amazon ha modificato i programmi per renderli neutri a questi termini particolari. Ma questa non era una garanzia che le macchine non avrebbero escogitato altri modi per selezionare i candidati che potevano rivelarsi discriminatori, ha detto la gente.
La società di Seattle alla fine ha sciolto il team all'inizio dello scorso anno perché i dirigenti hanno perso la speranza per il progetto ...
... L'esperimento della società ... offre un caso di studio sui limiti dell'apprendimento automatico.
... scienziati informatici come Nihar Shah, che insegna apprendimento automatico alla Carnegie Mellon University, affermano che c'è ancora molto lavoro da fare.
"Come garantire che l'algoritmo sia corretto, come assicurarsi che l'algoritmo sia davvero interpretabile e spiegabile - è ancora abbastanza lontano", ha detto.MASCULINE LANGUAGE
[Amazon] ha costituito un team nel centro ingegneristico di Edimburgo di Amazon che è cresciuto fino a una dozzina di persone. Il loro obiettivo era sviluppare un'intelligenza artificiale in grado di eseguire rapidamente la scansione del Web e individuare candidati che meritassero di essere reclutati.
Il gruppo ha creato 500 modelli di computer focalizzati su funzioni e posizioni di lavoro specifiche. Hanno insegnato a ciascuno di riconoscere circa 50.000 termini che sono comparsi sui curriculum dei candidati passati. Gli algoritmi hanno imparato ad assegnare poca importanza alle competenze che erano comuni tra i candidati IT, come la capacità di scrivere vari codici informatici ...
Invece, la tecnologia favoriva i candidati che si descrivevano usando i verbi più comunemente trovati sui curriculum degli ingegneri maschi, come "eseguito" e "catturato", ha detto una persona.
Diciamo che voglio costruire un modello statistico per prevedere alcuni output dai dati personali, come una classifica a cinque stelle per aiutare a reclutare nuove persone. Diciamo che voglio anche evitare la discriminazione di genere, come un vincolo etico. Dati due profili strettamente uguali a parte il genere, l'output del modello dovrebbe essere lo stesso.
Dovrei usare il genere (o qualsiasi dato correlato ad esso) come input e provare a correggerne l'effetto, o evitare di usare questi dati?
Come posso verificare l'assenza di discriminazione contro il genere?
Come posso correggere il mio modello per dati statisticamente discriminanti ma che non voglio essere per motivi etici?