Mitmesugust

Autonoomsed autod ei tunne tumedama nahatooniga jalakäijaid ära

Autonoomsed autod ei tunne tumedama nahatooniga jalakäijaid ära

Uus aruanne näitab, et süsteemidel, mis on loodud selleks, et aidata autonoomsetel autodel jalakäijaid ära tunda, võib olla probleeme tumedama nahatooniga inimeste äratundmisega. Murettekitav uurimus on üles laaditud eeltrükiserverisse arxiv.

VAATA KA: KUNSTILISES ARUTUSES OLEVAD BIASAD NÕUTAVAD HARIDUST JA KAASTunnet

Juba eksisteerisid tõendid selle kohta, et mõni näotuvastustarkvara üritas töötada tumedamate nahatoonidega. Kuid autonoomsete autode uuringu tulemustel on potentsiaalselt surmav tulemus.

Maailmad näitavad kõige paremini kallutatust

Georgia Techi teadlased uurisid uuringu lõpuleviimiseks kaheksat tehisintellektide mudelit, mida kasutati kaasaegsetes objektide tuvastamise süsteemides. Need süsteemid võimaldavad autonoomsetel sõidukitel teedel liiklemisel tuvastada liiklusmärke, jalakäijaid ja muid objekte.

Nad testisid neid süsteeme, kasutades kahte erinevat kategooriat Fitzpatricku skaala põhjal. Skaala, mida tavaliselt kasutatakse inimese nahavärvi klassifitseerimiseks.

Tumedam nahk suurema riskiga

Üldiselt vähenes süsteemi täpsus 5 protsenti, kui sellele esitati tumedama nahatooniga jalakäijate pildirühmad. Ja avaldatud artikli järgi näitasid mudelid, kui nad seisid silmitsi skaalal kolme tumedama varjundiga jalakäijatega, ühtlaselt kehvema jõudlusega.

Need tulemused tulevad pärast tulemuse kohandamist, et võtta arvesse, kas foto on tehtud päeval või öösel. Kokkuvõtteks võib öelda, et tumedama nahatooniga inimestel on autonoomsete sõidukitega domineerivate teede läheduses vähem ohutu kui heledama nahaga.

Eelarvamuste kõrvaldamine algab uurimistöö mitmekesisusest

Õnneks antakse aruandes lühidalt, kuidas seda mõistetamatut tegelikkust parandada. See algab lihtsalt tumedanahaliste jalakäijate piltide arvu suurendamisest süsteemide treenimiseks kasutatavates andmekogumites.

Nende süsteemide väljatöötamise eest vastutavad insenerid peavad selle grupi jaoks suuremat rõhku pöörama süsteemide koolitamisele suurema täpsusega.

Aruanne, mille autorid loodavad loodetavasti anda piisavalt kaalukaid tõendeid selle kriitilise probleemi lahendamiseks enne nende tunnustamissüsteemide kasutuselevõttu maailmas, on veel üks meeldetuletus üldisest mitmekesisuse puudumisest tehisintellekti maailmas.

Kahjuks pole see esimene teade tehisintellektiga töötavate süsteemide potentsiaalselt surmava rassismi kohta. Eelmise aasta mais teatas ProPublica, et tarkvara, mida kasutatakse kohtunike abistamiseks kurjategija kuriteo sooritamisega kaasneva riski väljaselgitamisel, oli mustanahaliste suhtes kallutatud.

Rassiline profileerimine on surmav

Süsteemi kasutavad kohtunikud kriminaalkaristustes, see annab hinnangu selle põhjal, kas isik tõenäoliselt kuritegu teeb. Kõrge hinne viitab sellele, et nad hakkavad uuesti toime panema, madal skoor - vähem tõenäoline.

Uurivad ajakirjanikud hindasid 2013. ja 2014. aastal Floridas Browardi maakonnas enam kui 7000 inimesele määratud riskiskoori ja vaatasid seejärel, kas samu inimesi süüdistatakse järgmise kahe aasta jooksul uutes kuritegudes.

Algoritm osutus mitte ainult ebausaldusväärseks, vaid 20 protsenti vägivaldsete kuritegude ennustanud inimestest tegi seda. See oli ka rassiliselt kallutatud.

Mustanahalised süüdistatavad märgistati tõenäolisemalt tulevaste kurjategijatena, sildistades nad valesti peaaegu kaks korda rohkem kui valged kohtualused. Kui valged kohtualused märgistati vale märgistusena madala riskina sagedamini kui mustanahalised.

Tehisintellekti arendamise kogukond peab kokku tulema ja võtma sellise massiliselt kahjustava kallutatuse vastu avaliku seisukoha.


Vaata videot: Kit auto Katie 2 - Puksiirauto Tom Autolinnas Multifilm lastele (August 2021).