DOJ varnar för att missbruk av algoritmiska anställningsverktyg kan bryta mot tillgänglighetslagar – TechCrunch

DOJ varnar för att missbruk av algoritmiska anställningsverktyg kan bryta mot tillgänglighetslagar – TechCrunch

[ad_1]

AI-verktyg för anställningsprocessen har blivit en het kategori, men justitiedepartementet varnar för att vårdslös användning av dessa processer kan leda till brott mot amerikanska lagar som skyddar lika tillgång för personer med funktionshinder. Om ditt företag använder algoritmisk sortering, ansiktsspårning eller andra högteknologiska metoder för att sortera och betygsätta sökande, kanske du vill ta en närmare titt på vad de gör.

Avdelningens Equal Employment Opportunity Commission, som bevakar och ger råd om branschtrender och åtgärder som hänför sig till eponyma frågor, har utfärdade vägledning om hur företag på ett säkert sätt kan använda algoritmbaserade verktyg utan att riskera ett systematiskt utanförskap av personer med funktionsnedsättning.

”Ny teknik ska inte bli nya sätt att diskriminera. Om arbetsgivare är medvetna om hur AI och annan teknik kan diskriminera personer med funktionshinder, kan de vidta åtgärder för att förhindra det, säger EEOC-ordföranden Charlotte A. Burrows i pressmeddelande tillkännage vägledningen.

Den allmänna meningen med vägledningen är att tänka hårt (och inhämta åsikter från berörda grupper) om huruvida dessa filter, tester, mätvärden och så vidare mäter kvaliteter eller kvantiteter som är relevanta för att utföra jobbet. De ger några exempel:

  • En sökande med synnedsättning måste genomföra ett test eller en uppgift med en visuell komponent för att kvalificera sig för en intervju, till exempel ett spel. Såvida jobbet inte har en visuell komponent, minskar detta orättvist blinda sökande.
  • En chatbot-screener ställer frågor som är dåligt formulerade eller utformade, som om en person kan stå i flera timmar i sträck, med “nej” svar som diskvalificerar den sökande. En person i rullstol skulle säkert kunna göra många jobb som vissa kan stå för, bara från sittande.
  • En AI-baserad tjänst för CV-analys nedrankar en ansökan på grund av en lucka i anställningen, men den luckan kan bero på ett funktionshinder eller tillstånd som det är olämpligt att straffa för.
  • En automatisk röstbaserad screener kräver att de sökande svarar på frågor eller testar problem med rösten. Naturligtvis utesluter detta döva och hörselskadade, liksom alla med talstörningar. Såvida jobbet inte innebär mycket tal är detta olämpligt.
  • En ansiktsigenkänningsalgoritm utvärderar någons känslor under en videointervju. Men personen är neurodivergent, eller lider av ansiktsförlamning på grund av en stroke; deras poäng kommer att vara extremvärden.

Därmed inte sagt att inga av dessa verktyg eller metoder är felaktiga eller i grunden diskriminerande på ett sätt som bryter mot lagen. Men företag som använder dem måste inse sina begränsningar och erbjuda rimliga anpassningar i fall en algoritm, maskininlärningsmodell eller någon annan automatiserad process är olämplig att använda med en given kandidat.

Att ha tillgängliga alternativ är en del av det, men också att vara transparent om anställningsprocessen och deklarera i förväg vilken kompetens som kommer att testas och hur. Människor med funktionsnedsättning är de bästa domarna av vad deras behov är och vilka boenden, om några, att begära.

Om ett företag inte tillhandahåller eller inte kan tillhandahålla rimliga anpassningar för dessa processer – och ja, det inkluderar processer som byggts och drivs av tredje part – kan det stämmas eller på annat sätt hållas ansvarigt för detta misslyckande.

Som vanligt, ju tidigare den här typen av saker tas i beaktande, desto bättre; Om ditt företag inte har rådfrågat en tillgänglighetsexpert i frågor som rekrytering, åtkomst till webbplatser och appar, och interna verktyg och policyer, ta dig till det.

Under tiden kan du läs hela vägledningen från DOJ härmed en kort version riktad till arbetstagare som känner att de kan bli diskriminerade häroch av någon anledning finns det en annan trunkerad version av vägledningen här.

[ad_2]

Leave a Reply

Your email address will not be published.