Oversigt
I takt med udviklingen og udbredelsen af kunstig intelligens er der kommet en opmærksomhed på de uønskede bias, der kan finde vej ind i IT-systemer. Det er bias, der i anvendelsen af det konkrete IT-system kan have konsekvenser for forskellige befolkningsgrupper alt efter køn, hudfarve, alder, funktionsdygtighed, social klasse, m.m.
De uønskede bias, der kan findes i IT-systemer, er resultatet af det komplekse krydsfelt mellem IT, mennesker og processer - organisatoriske så vel som tekniske - som IT-systemer udvikles i. Denne specifikation omhandler IT-systemer, der udfører eller bidrager til beslutninger vedrørende grupper af mennesker, herunder specifikt IT-systemer baseret på kunstig intelligens. Tilblivelsen af IT-systemer indbefatter også en række menneskelige beslutninger: i alle faser af udviklingsprocessen bliver der taget beslutninger, og i disse menneskelige beslutningsprocesser kan bias komme til udtryk.
Specifikationen har til formål at vejlede i, hvordan man kan skabe gennemsigtighed om disse bias og deres mulige konsekvenser. Herefter er det op til læseren selv at vurdere, hvilke bias der er ønskede, uønskede og neutrale.
Specifikationen vejleder ikke i, hvordan man tager stilling til, hvad der er retfærdigt, men vil i stedet hjælpe læseren med at skabe et grundlag, som der herefter kan tages oplyst stilling til ud fra gældende lovgivning samt egne holdninger, værdier og ønsker om retfærdighed.
Det er håbet, at specifikationen vil få bred anvendelse og finde vej til en bred målgruppe af IT-udviklere, jurister, HR-afdelinger og interne beslutningstagere, såvel som indkøbere, myndigheder og borgere. På den måde kan specifikationen være med til at skabe almen bred bevidsthed om, at en kunstig intelligens næsten uundgåeligt vil indeholde bias, der er et resultat af menneskelig bias i udviklingen af IT-systemet, og det derfor er vigtigere at kunne identificere og håndtere uønsket bias fremfor at prøve helt at undgå bias.