Mitmesugust

Tehisintellekt ei ole hea valetajate tuvastamisel nende näoilmete kaudu

Tehisintellekt ei ole hea valetajate tuvastamisel nende näoilmete kaudu

Tehnoloogiaid kasutatakse üha enam avaliku poliitika, ettevõtluse ja inimeste elu kujundamiseks. Tehisintellekti kohtunikud aitavad otsustada kurjategijate karistusi ning tehisintellekti kasutatakse mõrvas kahtlustatavate tabamiseks ja isegi teie kindlustuspoliisi kujundamiseks.

Seetõttu peaks muret tekitama asjaolu, et arvutid pole valede tuvastamisel suurepärased.

USC loovate tehnoloogiate instituudi teadlased panid hiljuti proovile AI võime valede tuvastamiseks ja testi tulemused jätsid palju soovida.

SEOTUD: Tehisintellektid jätkavad tegutsemist ettenägematutel viisidel, kas me peaksime paanikasse minema

Algoritmide proovile panek

USC loovate tehnoloogiate instituudi uurimisrühm testis hiljuti algoritme, kasutades tõedetektorite põhikatsetusi, ja leidis, et tehisintellektid ebaõnnestusid nendes testides.

Esiteks käsitles meeskond tõsiasja, et meie näoilmed ei pruugi paljastada nii palju meie mõtlemist, kui inimesed usuvad:

"Nii inimesed kui ka nn emotsioonide lugemise algoritmid toetuvad rahvatarkusele, et meie emotsioonid on meie näole kirjutatud," ütles IKT virtuaalsete inimeste uurimise direktor Jonathan Gratch pressiteate vahendusel.

"See pole tõest kaugel. Inimesed naeratavad, kui on vihased või ärritunud, varjavad oma tõelisi tundeid ja paljudel väljendustel pole midagi pistmist sisetundega, vaid need peegeldavad vestluslikke või kultuurilisi tavasid."

Gratch ja tema kolleegid tutvustasid oma uurimistulemusi eilsel 8. rahvusvahelisel afektiivse arvutamise ja aruka interaktsiooni konverentsil Inglismaal Cambridge'is.

Kahepalgelisuse lugemine

Muidugi me kõik teame, et inimesed võivad valetada ilma, et nad näol sellest ilmseid märke näitaksid. Võtame näiteks oma keskmise poliitiku - see on praktiliselt töö nõue.

Inimesed väljendavad sageli vastupidist sellele, mida tunnevad, et konventsioonidest kinni pidada või kedagi otseselt petta.

Probleem on selles, et algoritmid pole selle kahepalgelisuse püüdmiseks nii suured, hoolimata sellest, et neid kasutatakse üha enam inimeste emotsioonide lugemiseks.

Algoritme kasutatakse tänapäeval fookusgruppides, turunduskampaaniates, laenutaotlejate sõelumiseks või inimeste tööle võtmiseks. Siseturvalisuse osakond investeerib potentsiaalsete riiklike ohtude ennustamiseks isegi sellist tüüpi algoritmidesse.

"Püüame õõnestada rahvapsühholoogia arvamust, et inimestel on see, et kui me suudaksime ära tunda inimeste näoilmeid, võiksime öelda, mida nad mõtlevad," ütles Gratch, kes töötab ka psühholoogiaprofessorina.

"Me kasutame nende tehnikate kohta naiivseid oletusi, sest väljendite ja selle vahel, mida inimesed nende testide põhjal tegelikult tunnevad, pole mingit seost."

Kuidas nad seda tõestasid?

IKT-s osalenud Gratch ning Su Lei ja Rens Hoegen koos Oxfordi ülikooli Brian Parkinsoni ja Danielle Shore'iga viisid läbi spontaansete näoilmete uurimise erinevates sotsiaalsetes olukordades.

Ühes uuringus kasutas meeskond mängu, mille nad kujundasid 700 inimest mängis raha eest. Katsealused mängisid, kuidas nad pildistasid, kuidas inimeste väljendusviisid mõjutasid nende otsuseid ja kui palju raha nad võiduks läksid.

Järgmisena palus uurimisrühm katsealustel vastata küsimustele nende käitumise kohta. Näiteks küsisid nad katsealustelt, kas nad bluffivad sageli, kas nad kasutavad eeliseid saamiseks näoilmeid ja kas nende ilmed vastavad nende tunnetele.

Seejärel uuris meeskond spontaansete näoilmete ja võtmemomentide vahelisi seoseid mängu jooksul. Naeratused olid kõige tavalisem näoilme, olenemata sellest, mida osalejad tegelikult tundsid. Samuti olid mängijad üksteise emotsioonide lugemisel üsna ebatäpsed.

"Need avastused rõhutavad tehnoloogia kasutamise piire tunnete ja kavatsuste ennustamiseks," ütles Gratch. "Kui ettevõtted ja valitsused nendele võimalustele pretendeerivad, peaks ostja valvel olema, sest sageli on nende tehnikate sisse ehitatud lihtsustatud eeldused, mida pole teaduslikult testitud."

Teadlased väidavad, et tavaliselt kasutatavad emotsioonide lugemise algoritmid dekontekstualiseerivad selle, mida nad vaatavad.

Tundub, et tehisintellektis on valede tuvastamine peavoolust minekust kaugel.


Vaata videot: Veebikursuse Elements of AI kogukonnapäeva paneelarutelu (Mai 2021).