Alexandria Ocasio-Cortez ütleb, et algoritmid võivad olla rassistlikud. Siin on põhjus, miks tal on õigus.

Pin
Send
Share
Send

Eelmisel nädalal tegi vastvalitud USA esindaja Alexandria Ocasio-Cortez pealkirju, kui ütles neljanda iga-aastase MLK Now ürituse osana, et näotuvastustehnoloogial ja -algoritmidel "on alati need rassilised ebavõrdsused, mis tõlgitakse, kuna algoritme tehakse endiselt inimeste poolt, ja need algoritmid on endiselt seotud inimese põhiliste eeldustega. Nad on lihtsalt automatiseeritud. Ja automatiseeritud eeldused - kui te ei paranda eelarvamust, siis lihtsalt automatiseerite eelarvamusi. "

Kas see tähendab, et algoritmid, mis teoreetiliselt põhinevad matemaatika objektiivsetel tõdedel, võivad olla "rassistlikud"? Ja kui jah, mida saab selle eelarvamuse eemaldamiseks teha?

Selgub, et algoritmide väljund võib tõepoolest anda kallutatud tulemusi. Andmeteadlaste sõnul töötavad arvutiprogrammid, närvivõrgud, masinõppe algoritmid ja tehisintellekt (AI), kuna nad õpivad neile antud andmete põhjal käituma. Tarkvara kirjutavad inimesed, kellel on eelarvamusi, ja treenimisandmeid genereerivad ka eelarvamusi omavad inimesed.

Masinõppe kaks etappi näitavad, kuidas see eelarvamus võib hiilida näiliselt automatiseeritud protsessiks. Esimeses koolitusetapis õpib algoritm andmete kogumi või teatud reeglite või piirangute põhjal. Teine etapp on järeldusetapp, milles algoritm rakendab õpitu praktikas. See teine ​​etapp näitab algoritmi nihkeid. Näiteks kui koolitatakse algoritmi, millel on ainult pikkade juustega naised, siis arvatakse, et kõik, kellel on lühikesed juuksed, on mees.

Google sattus kurikuulusalt tule alla 2015. aastal, kui Google Photos nimetas mustad inimesed gorilladeks, tõenäoliselt seetõttu, et need olid treeningkomplekti ainsad tumedanahalised olendid.

Ja eelarvamused võivad sisse hiilida paljude võimaluste kaudu. "Levinud viga on algoritmi koolitamine, et teha ennustusi, mis põhinevad erapoolikute inimeste varasematel otsustel," rääkis Sophie Searcy, andmeteaduste koolituse alglaadimiskambri Metis vanemteadur Live Science'ile. "Kui ma teen algoritmi laenuametnike grupi poolt varem tehtud otsuste automatiseerimiseks, võin ma minna kergelt edasi ja koolitada algoritmi nende laenuametnike varasemate otsuste kohta. Aga kui muidugi need laenuametnikud olid kallutatud, siis minu loodud algoritm jätkab neid kallutusi. "

Searcy tõi näite COMPAS-ist - ennustusvahendist, mida kasutatakse kogu USA kriminaalõigussüsteemis karistuste määramisel ja millega üritatakse ennustada, kus kuritegevus aset leiab. ProPublica viis läbi COMPAS-i analüüsi ja leidis, et pärast muude statistiliste selgituste kontrollimist hindas tööriist mustanahaliste kohtualuste korduvkuritegevuse riski ja alahindas järjekindlalt valgete süüdistatavate ohtu.

Algoritmiliste eelarvamuste vastu võitlemiseks ütles Searcy Live Science'ile, et insenerid ja andmeteadlased peaksid uute probleemide jaoks koostama mitmekesisemaid andmekogumeid, samuti püüdma mõista ja leevendada olemasolevate andmekogumite sisseehitatud eelarvamusi.

Ennustava analüüsi ettevõtte Anodot andmeteadlane Ira Cohen ütles, et inseneridel peaks olema koolituskomplekt, mis esindaks kõigi elanikkonnatüüpide suhteliselt ühtlast esindatust, kui nad koolitavad algoritmi etniliste või sooliste tunnuste tuvastamiseks. "Oluline on esindada igast elanikkonnarühmast piisavalt näiteid, isegi kui nad moodustavad kogu uuritava elanikkonna vähemuse," rääkis Cohen Live Science'ile. Lõpuks soovitab Cohen kontrollida kõigi nende rühmade inimesi hõlmava testi komplekti nihkeid. "Kui teatud võistluse korral on täpsus statistiliselt oluliselt madalam kui teistel kategooriatel, võib algoritmil olla nihke ja ma hindaksin selle jaoks kasutatud treeningandmeid," rääkis Cohen LiveScience'ile. Näiteks kui algoritm suudab õigesti tuvastada 900-st valgest näost 900-st, kuid tuvastab õigesti vaid 600-st Aasia-näost vaid 600, siis võib algoritm olla aasialaste suhtes kallutatud, lisas Cohen.

Eelarvamuste eemaldamine võib olla AI jaoks uskumatult keeruline.

Isegi Google, keda peetakse kaubandusliku AI eelkäijaks, ei suutnud ilmselt alates 2015. aastast oma gorillaprobleemile kõikehõlmavat lahendust leida. Wired leidis, et selle asemel, et leida oma algoritmidele viis eristada värvilisi inimesi gorilladest, blokeeris Google lihtsalt selle pildi tuvastamise algoritmid gorillade tuvastamiseks üldse.

Google'i näide on hea meeldetuletus, et AI-tarkvara koolitamine võib olla keeruline ülesanne, eriti kui tarkvara ei katseta ega koolita esinduslik ja mitmekesine inimrühm.

Pin
Send
Share
Send