En av forfatterne kaller denne mangelen på bevissthet for alarmerende, ifølge Kilden.
Sammen med Aisha Iqbal, Gilda Seddighi og Rudolf Andersen har seniorforsker og forskningsleder ved Vestlandsforskning Hilde G. Corneliussen skrevet rapporten «Bruk av kunstig intelligens i offentlig sektor og risiko for diskriminering».
Kunstig intelligens er definert som teknologier som bruker algoritmer til å behandle data.
Corneliussen sier at dette gjør KI til både et kraftig og skummelt verktøy, og at det derfor er viktig at man er bevisst på risikoen for diskriminering når man bruker KI i offentlig sektor.
Vil ha søkelys på KI-diskriminering
Spørreundersøkelsen ble sendt til nær 500 institusjoner i både kommunal og statlig sektor. Generelt er det liten bevissthet rundt risikoen for diskriminering ved bruk av KI, sier forskerne.
– Noen svarte at diskriminering kanskje ville komme opp som et tema senere i utviklingen av KI-verktøyene. Da vi spurte om hvilke diskrimineringsgrunnlag som kunne være relevant, var det flest som pekte på kjønn, alder og etnisitet, sier hun.
Corneliussen sier at søkelys på diskriminering må være med i refleksjonene helt fra starten for at man skal kunne motvirke diskriminering i KI.
– Diskriminering kan ikke være en refleksjon man legger til på slutten, sier hun.
Lite mangfold i teknologiutvikling
Petter Bae Brandtzæg er professor ved institutt for medier og kommunikasjon ved Universitetet i Oslo. Han påpeker at ikke bare data, men også den digitale teknologien inneholder skjevheter.
– Minoriteter og kvinner kan bli diskriminert av KI fordi mye av data som ligger ute gjenspeiler hvordan hvite menn ser på og fortolker verden. For eksempel er brorparten av artiklene på Wikipedia skrevet av hvite menn.
Likevel er det viktig å påpeke at samfunnets institusjoner og eliter generelt også mangler mangfold, mener han.
– Kanskje kan til og med KI på sikt bidra til å styrke mangfold og redusere diskriminering sier han.
Ekstremistisk chatbot
Forskernes bekymring rundt kunstig intelligens og algoritmer er ikke nytt. I 2016 skapte Microsofts chatbot Tay overskrifter da chatbotens Twitter-konto i løpet av kort tid gikk fra normal kommunikasjon og interaksjon til å poste rasistiske og nynazistiske tweets.
Flere analytikere mente chatbotens innebygde gjentakelsesalgoritmer, og Twitter-interaksjon med trollkontoer fikk Tay “omvendt”. Micosoft så seg til slutt nødt til å deaktivere Tay grunnet stadige rasistiske, homofobiske og kvinnefiendtlige tweets.
Kontroversen rundt Tay skapte debatt om farene rundt kunstig intelligens, og hvordan den nye teknologien kunne påvirkes i negativ retning.