Hvorfor skal vi dog være etiske?

Fordi det er etikken som binder os sammen så vi kan vokse. Du kan ikke vokse alene. Hvad ville du vokse af alene?

Dataetik & AI

Book en AI-Konsulent
– Ring på 7022 1655

Der skal være en voksen til stede når der bruges AI

For at forstå det ansvar du påtager dig når du udvikler en AI, så vil jeg sammenligne det med at bruge en kniv.

En kniv er et fantastisk værktøj – men en kniv kan bruges til både ondt og godt. Og en kniv er jo ekstrem farlig, selvom intentionen er klar og god.

Hvor mange har ikke skåret sig på en kniv mens der hakkes grøntsager?

Knive er ikke for børn – det samme kan du sige om AI. Der skal være en voksen til stede når der bruges knive, lige som der skal være en voksen til stede når du tager AI op af køkkenskuffen.

Nok om knive, det handler om data. Mange data og ofte meget personlige data. Eller data som rent faktisk kan bruges til at manipulere folk ubevidst.

Derfor er lovgivning ikke nok. Det vil også kræve en dybere respekt for data og de personer en AI vil have indflydelse på – det vil kræve en grundlæggende etik – dataetik.

Kun en tåbe frygter ikke AI

Hvad er dataetik?

Dataetik er noget vi gør oven på den lovgivning der allerede finder sted. Dataetik er ikke en erstatning for den aktuelle lovgivning. Det er vigtigt at vi afstemmer de dataetiske værdier inden vi går i gang med et AI-projekt.

At arbejde med dataetik, er altid at gøre noget ekstra for dem data beskriver, gøre noget ekstra for de mennesker som en AI-model får indflydelse på. Kan du efterleve dataetikken og lovgivningen, så er det også etisk at tjene penge på data.

Så dataetik er ikke lovgivning. Dataetik er det vi gør ekstra, for at være med til at skabe en tryggere verden, en mere gennemsigtig verden.

Mennesker er fulde af bias – vi har bare svært ved at erkende det.

Dataetiske principper

Her er nogle principper du bør have som ledetråde i alle AI-projekter.

Personen i centrum

Det er fint at du gør noget for at optimere eller spare penge, bare det ikke fratager værdi for de berørte mennesker. AI skal være til gavn for de berørte mennesker.

Individuel datakontrol

Giv hver enkelt person kontrollen over deres egne data.

Gennemsigtighed
  • Giv brugeren adgang til et interface hvor brugeren har et forståeligt overblik over sine data. En form for lægejournal der er skrevet i et sprog modtageren forstår.
  • Kom med en forklaring på hvorfor en given algoritme eller AI-model, fravælger en person til f.eks. et job. Hvilke data gjorde udfaldet?
  • Gør det tydeligt at der er brugt AI på brugerens data, samt hvilke data der er brugt og hvilket output AI-modellen har leveret.
  • Giv brugeren mulighed for at justere de data som sendes til AI-modellen, så brugeren kan teste og få et overblik over hvad brugeren manglede for at får et bedre output fra AI-modellen.
  • Giv også brugeren muligheden for at fravælge AI-behandling, således at deres data behandles af mennesker. Hvis ikke dette er muligt, så bed om tydeligt samtykke fra alle personer til at deres data må behandles af en AI-model.
Ansvarlighed

At opbevare andres data er et stort ansvar. Her skal du hele tiden sørge for at det er det mest optimale sted du gemmer data, og ikke det billigsted eller mest praktiske sted.

Ligeværdighed

Alle data er fyldt med bias, så oplys om hvilke kendte bias der er i data som der er brugt til at bygge den benyttede AI-model. Informer om hvilke datakilder er brugt til at skabe den brugte AI.

Kryptering

Data skal være krypteret

Klagesager

At lade mennesker behandle klagesager. Og hvis ikke, så gør det klart hvilke algoritmer der benyttes til klagesager.

Dataetik er også datakontrol

Det er vigtigt at vi ikke bruger ordet ”ejerskab” når vi taler om persondata. Ejerskab tolker vi tit som en varer vi kan handle med, sælge videre, kopiere og give ejerskabet videre.

Men persondata er ikke en varer vi må sælge videre, ikke uden at personen dataerne handler om giver, samtykke til dette. Og den enkelte person skal altid kunne tilbagekalde denne samtykke, tilbagekalde at andre må bruge data om personen.

Personen skal altid have kontrol og kunne tilbagekalde egne data, på en nem og overskuelig måde som personen forstår. Det vil sige, at den infrastruktur du bruger til at bygge dine AI-modeller, skal understøtte at alle persondata kan slettes 100% i alle datakilder og modeller. Hvordan gør du det?

Vi tager dataetik seriøst og dataetik danner grundlag for al vores arbejde med persondata.

Ubevidst diskrimination gennem data

Du kan skabe en diskriminerende effekt, selvom du f.eks. ikke bruger køn, alder og etnicitet i en AI-model.

Hvis du benytter postnummer i din AI-model, så er der måske områder i Danmark hvor etniciteten kan spores gennem et postnummer. Der er også chance for at spore etnicitet ud fra blot et navn. Du kan måske også spore en persons køn, gennem personens antal af sygedage m.v.

Så når du begynder at samle data ind til at bygge din AI-model, så bør du være bevidst om, at du helt sikkert ubevidst diskriminere. Det er ikke muligt at samle data uden bias, og derfor er det også vigtig at du er opmærksom på dette samt at du tydeligt oplyser de berørte personer om denne bias.

MIT 6.S191: AI Bias and Fairness

Her finder du mere information om dataetik

Hvem er Max Schrems?
Hvis du interesserer sig blot en smule for dataetik bør du også kende til Max Schrems og hans klage til EU over Facebooks behandling af hans personoplysninger.

Hvis du vil læse op på sagen, kan jeg anbefale dette blogindlæg: Stor Schrems II-guide: Status og svar på de 17 vigtigste spørgsmål

Seniorforsker Rikke Frank Jørgensen: AI, risici og regulering

Seniorforsker Rikke Frank Jørgensen: AI, risici og regulering

5-trins guide fra Dataetisk råd

  • Trin 1 – Identificer hvordan du håndterer data i dit projekt, og hvad dit overordnede formål er
  • Trin 2 – Analysér hvilke hensyn der taler for og imod din databehandling
  • Trin 3 – Afvej modstående hensyn
  • Trin 4 – Beslut hvilke hensyn der vejer tungest
  • Trin 5 – Evaluer de dataetiske konsekvenser løbende

Læs mere om de enkelte trin på denne side.

Med AI bliver vores bias mere tydelig
og det er ikke altid lige sjovt.