En bias bounty för AI kommer att hjälpa till att fånga orättvisa algoritmer snabbare

En bias bounty för AI kommer att hjälpa till att fånga orättvisa algoritmer snabbare

[ad_1]

EU:s nya lag om innehållsmått, den lagen om digitala tjänster, inkluderar årliga revisionskrav för de data och algoritmer som används av stora tekniska plattformar, och EU:s kommande AI-lag skulle också kunna tillåta myndigheter att granska AI-system. US National Institute of Standards and Technology också rekommenderar AI-revisioner som en guldstandard. Tanken är att dessa revisioner ska fungera som den sortens inspektioner vi ser i andra högrisksektorer, som kemiska fabriker, säger Alex Engler, som studerar AI-styrning vid tankesmedjan Brookings Institution.

Problemet är att det inte finns tillräckligt många oberoende entreprenörer där ute för att möta den kommande efterfrågan på algoritmiska revisioner, och företag är ovilliga att ge dem tillgång till sina system, hävdar forskaren Deborah Raji, som är specialiserad på AI-ansvar, och hennes medförfattare i en papper från juni förra året.

Det är vad dessa tävlingar vill odla. Förhoppningen i AI-gemenskapen är att de ska leda fler ingenjörer, forskare och experter att utveckla kompetensen och erfarenheten för att utföra dessa revisioner.

Mycket av den begränsade granskningen i AI-världen hittills kommer antingen från akademiker eller från teknikföretag själva. Syftet med tävlingar som denna är att skapa en ny sektor av experter som är specialiserade på revision av AI.

“Vi försöker skapa ett tredje utrymme för människor som är intresserade av den här typen av arbete, som vill komma igång eller som är experter som inte arbetar på teknikföretag”, säger Rumman Chowdhury, chef för Twitters team för etik, transparens och ansvarighet inom maskininlärning, ledaren för Bias Buccaneers. Dessa personer kan inkludera hackare och datavetare som vill lära sig en ny färdighet, säger hon.

Teamet bakom Bias Buccaneers’ bounty-tävling hoppas att det blir den första av många.

Tävlingar som denna skapar inte bara incitament för maskininlärande community att göra revisioner utan främjar också en delad förståelse för “hur man bäst granskar och vilka typer av revisioner vi bör investera i”, säger Sara Hooker, som leder Cohere för AI, ett ideellt AI-forskningslabb.

Insatsen är “fantastisk och absolut välbehövlig”, säger Abhishek Gupta, grundaren av Montreal AI Ethics Institute, som var domare i Stanfords AI-revisionsutmaning.

“Ju fler ögon du har på ett system, desto mer sannolikt är det att vi hittar platser där det finns brister”, säger Gupta.

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *