Ærede robot

07.09.2021

Robotenes inntog i domstolene innebærer heldigvis ikke at du møter på Arnold Schwarzenegger som Terminator, ikledd dommerkappe, skriver Thale C. G. Gjerdsbakk og Kristin H. Førde i Bull & Co.

Det er sannsynlig at vår rettssikkerhet i fremtiden vil bli utfordret av kunstig intelligens. Men robotenes inntog i domstolene innebærer heldigvis ikke at du møter på Arnold Schwarzenegger som Terminator, ikledd dommerkappe.

I Domstolskommisjonens NOU fra 2020, om forbedrede arbeidsprosesser i domstolene, ble kunstig intelligens omtalt som et verktøy som kan brukes for å forbedre domstolenes beslutningskvalitet og sikre likebehandling. Kunstig intelligens skal bidra til at dommere treffer bedre avgjørelser. Blant annet ble risikovurderingsverktøy som beslutningsstøtte for dommerne foreslått.

Denne typen beslutningsstøtte er allerede i bruk i en rekke stater i USA, og brukes blant annet for å vurdere risiko for gjentagelse av kriminelle handlinger og sannsynlighet for å møte opp til rettsmøter. Dommeren gis en risikoscore, og kan benytte dette for eksempel for å vurdere om den siktede skal i varetekt eller ikke.

Flere av beslutningsstøtteverktøyene som brukes i USA har imidlertid vist seg å være diskriminerende, blant annet overfor folk med mørk hudfarge. Studier fra 2016 og 2019 viste at personer med mørk hudfarge langt oftere enn hvite ble vurdert til å representere en høy risiko for gjentagelse, uten at dette stemte. Samtidig viste det seg at langt flere personer med hvit hud enn personer med mørk hudfarge begikk en ny kriminell handling, selv om de hadde fått en lav risikoscore. Risikovurderingsverktøyet ble utviklet basert på historiske data, og opptøyene i USA de siste årene, med etterfølgende rettssaker, kan vise at disse dataene antagelig inneholder store skjevheter med hensyn til hudfarge. 

Innføringen av kunstig intelligens i norske domstoler forutsetter at rettssikkerheten og uavhengighet for domstolene blir sikret. Domstolskommisjonen har trukket frem viktigheten av å forhindre diskriminering og å sikre upartiskhet, samt å sikre en tilstrekkelig åpen beslutningsprosess.

Studier viser at mennesker lar selv irrelevante faktorer påvirke sin dømmekraft. Eksempelvis viste en studie der dommere trillet et tall på en terning før de skulle avgjøre en fengselsstraff, at dette tilfeldige tallet gjorde store utslag på lengden på fengselsstraffen. Selv dommere som har det siste ordet, kan dermed potensielt bli påvirket av risikovurderingsverktøyet. 

I EU-kommisjonens forslag til ny lov om kunstig intelligens som kom i sommer, vil kritiske områder som beslutningsstøtteverktøy for bevisvurdering falle under kategoriseringen «høy risiko», og være underlagt streng kontroll. I struktureringen av historiske data og bruken av disse, må prinsippene i den nye loven etterleves. Disse, sammen med åpenhet om bruken av kunstig intelligens og størst mulig grad av åpenhet rundt koder som ligger til grunn for automatisering eller beslutningstøtte, kan gjøre at domstolene lykkes. Det er forskjell på om kunstig intelligens blir et verktøy for å foreslå domsavgjørelser, enn å la kunstig intelligens avgjøre dommen. Det heter tross alt «Ærede rett», og ikke «Ærede robot».

Skrevet av Thale Cecilia Gautier Gjerdsbakk, stipendiat i Bull & Co, avdelingen for teknologi og Kristin Haram Førde, personvernadvokat og partner i Bull & Co.

Artikkelen ble først publisert i Finansavisen, både i papirutgaven og på nett, den 06.09.21.