Sunday, 28 Nov 2021

Diversitet og bias i kunstig intelligens

Kunstig intelligens er baseret på historiske data, som forstærker vores stereotype billede af verden. Foto: Possessed photography, Unsplash
Kunstig intelligens er baseret på historiske data, som forstærker vores stereotype billede af verden. Foto: Possessed photography, Unsplash

Dette er et debatindlæg. Indlægget er udtryk for skribentens egen holdning.

Vores verden påvirkes i højere og højere grad af kunstig intelligens. Men er vi i knibe, når algoritmerne bygger på vores stereotype billede af verden? Ja det er vi, og de fejl der opstår kan blive endnu større med kunstig intelligens. Derfor er der store krav til, hvordan vi vælger og træner vores algoritmer, så vi kan reducere bias og gøre dem mere fair.

Af Niklas Hall stifter af virksomheden Acumex, der udvikler kunstig intelligens til forhandlinger imellem virksomheder

“Vi ser ikke verden, som den er. Vi ser verden, som vi er.”

Citatet tilskrives ofte forfatteren Anaïs Nin, men tanken trækker tråde langt tilbage i tiden i både filosofi og religion. Filosoffen Immanuel Kant talte således om ”Das Ding an sich” (tingen i sig selv) i modsætning til ”Das Ding für mich” (tingen for mig), hvorved han skelnede mellem en objektiv sandhed og en oplevet sandhed.

Dette er ikke et filosofisk debatindlæg, men når talen falder på kunstig intelligens, så møder en ydre teknologisk virkelighed nogle dybe menneskelige grundvilkår. Vi bliver konfronteret med, hvad det vil sige at være menneske. Det er ret imponerende af en teknologi, som er den seneste ”So ein Ding skal vi også have”-teknologi.

Det lille ord med den store betydning er bias.

Omtalen af kunstig intelligens, spænder det fra det banale til det apokalyptiske. Det er faktisk muligt både at undervurdere og overvurdere kunstig intelligens på samme tid. Det siger noget om, hvor vidt feltet spænder. Der er næppe den store modstand mod, at spamfiltrene fjerner næsten al spammail korrekt eller at vi får anbefalet relevante film eller musik, men vi skal ikke langt ud ad stien med kunstig intelligens, før vi møder problemer. Det lille ord med den store betydning er bias.

De diskriminerende algoritmer

Algoritmer kan diskriminere, altså udvise bias. Faktisk er det nok mest rigtigt at sige, at de vil udvise bias, ikke bare at de kan. Der er grumme eksempler på algoritmer, der nedprioriterer kvinder i jobansøgninger til chefstillinger, eller som udpeger alle med en mørk hudfarve som kriminelle. Når det sker, kommer der af gode grunde højlydte protester, fordi diskriminationen er åbenlys. Algoritmerne er ikke fair.

Hvordan kan det ske? Der er nogle tekniske forklaringer, som har at gøre med den måde algoritmerne lærer på. Algoritmerne lærer af den data, vi giver dem, og de trænes typisk med historiske data. Hvis den historiske data viser, at chefer er mænd, så lærer algoritmen det. Algoritmerne har ingen mening eller intention. De finder det mønster, der er i data, og laver forudsigelser på baggrund af det.

Det stiller altså store krav til, hvordan vi vælger at træne vores algoritmer, så vi kan reducere bias og gøre dem mere fair. Det stiller også krav til, hvordan vi tester og godkender dem. Hvilket fører os frem til ”Terkel i knibe”-spørgsmålet: ”Og hvad med dig selv?”

Hvad med dig selv?

Bag algoritmer står mennesker. Der ligger ikke nødvendigvis skumle intentioner bag de diskriminerende algoritmer. Tværtimod. De er oftest udviklet med de bedste intentioner. Alligevel går det galt. Der bliver udvalgt data, som er fyldt med historisk bias. Algoritmen bliver testet. Måske endda godkendt på ledelses-niveau. Alt ser fint ud, algoritmen offentliggøres og det hele ramler.

Mennesker har også bias. Vi træffer hele tiden valg og fravalg på baggrund af vores erfaringer, vores kultur, vores viden og holdninger. Hvis det bliver meget ensidigt, kaldes det fordomme eller det, der er værre. Når noget passer i vores erfaringsmønster giver det mening. Hvis vi ikke har erfaring med et emne, bliver vi blinde for problemet. Antallet af mænd, der har søgt chefstillinger som kvinder, er stærkt begrænset. Så hvad sker der, når det er mænd der har udviklet rekrutterings-algoritmen, testet den og godkendt den? Så passerer den lige forbi alle de blinde punkter. De kan ikke se problemet. Vi ser verden, som vi er.

Læs også indlægget om kønsrigt design og hvordan vi kan få flere piger i STEM.

Verden, som den er

Albert Einstein citeres for meget og noget af det, har han faktisk sagt (resten har Winston Churchill sagt). Albert Einstein har angiveligt sagt, at problemer skal løses på et andet bevidsthedsniveau end det, der skabte problemet. Den ide kan vi tage videre til vores bias problem.

Diversitet på alle poster i organisationer reducerer effekten af den enkeltes bias og derved kan vi forebygge fejl og samtidig skabe bedre løsninger.

Vi kommer ikke af med vores bias, men ved at blive opmærksomme på problemet, kan vi træne os i at opdage, hvornår vi skal være ekstra på vagt. Det lærer vi ved at få mest muligt input fra folk med andre erfaringer end os selv. De har også blinde punkter, men med fælles erfaring kan man komme tættere på verden, som den er. Diversitet på alle poster i organisationer reducerer effekten af den enkeltes bias og derved kan vi forebygge fejl og samtidig skabe bedre løsninger.

Det gælder uanset, om man arbejder med kunstig intelligens eller ej. Det er menneskeligt at fejle, hvilket er en måde at sige, at vi ikke er ufejlbarlige guder. Men det betyder også, at vi ved, vi kommer til at fejle. Forskellen med kunstig intelligens er, at de fejl, der tidligere havde begrænset effekt, nu forstærke og spredes i hidtil uset grad.

Einsteins tanke kan også bruges på algoritmerne selv. De kan suppleres med andre algoritmer, som holder øje med om output er fair og hvis ikke, i hvilken retning bias bevæger sig. Algoritmer udvikler sig dynamisk med tiden, så man kan ikke løse problemet en gang for alle. Man er nødt til løbende at arbejde med at sikre kvaliteten af output, så den ønskede balance bevares.

Ud af kniben

Kunstig intelligens har et enormt potentiale for at løse nogle af vores allerstørste problemer (det er ikke at kende forskel på hunde og katte, hvis der skulle være tvivl). Vi er kun ved begyndelsen, og udviklingen går stærkt. Vi bruger alle kunstig intelligens, og det bliver endnu mere i fremtiden. I takt med at det bliver normalt, vil vi ikke længere tænke over det, som noget specielt. Men bias forsvinder ikke. Vores blinde vinkler forsvinder ikke. Behovet for at kunne se kritisk på data både som input og output bliver endnu vigtigere, så vi kan sige ”Bullshit”, når nogen f.eks. omgås citater lemfældigt, laver tvivlsomme grafer eller gør hele befolkningsgrupper usynlige.

Viden kommer i stigende grad til at ligge i fællesskabet, hvor ingen ved alt, men vi har alle en interesse i, at dette fællesskab bliver robust mod fejl og styrket i kreativitet. Diversitet er vejen frem og ud af kniben. Vi kan ikke være diverse alene, men vi kan alle skubbe på en udvikling, hvor diversitet prioriteres på alle poster.

Om Niklas Hall

Niklas Hall, CEO hos Acumex, foto: Helle Moos

Niklas Hall, civilingeniør (kemi), MBA og stifter af virksomheden Acumex, der udvikler kunstig intelligens til forhandlinger imellem virksomheder.

Aktiv i Fonden For Entreprenørskabs evalueringskomité for Mikrolegater og dommer ved DM i Entreprenørskab i fondens Start Up Programme.

Tidligere mentor i Multicultural Business Women netværket og i bestyrelsen for Female Founders of the Future foreningen. Frivillig i organisationen Coding Pirates.

Logo_innovatorQ_RGB

Få Innovator Q’s nyhedsbrev
-og bliv den heldige vinder af en lækker d’herrer canvastaske. Vi trækker lod mellem månedens tilmeldte!

Vi hader også spam! Så det sparer vi dig for.