Ensidig tro på AI riskerar integriteten

Sju av tio svenskar ser negativt på den ökade insamlingen och användandet av personlig digital information.

I Moskvas tunnelbana ska fler ansikten läsas av utan rimliga skäl.

I Moskvas tunnelbana ska fler ansikten läsas av utan rimliga skäl.

Foto: Pavel Golovkin/AP Photo/TT

Ledare2021-03-05 07:00
Det här är en krönika. Åsikterna i texten är skribentens egna.

Georgij Malets kom aldrig fram.

Han greps av polis i Moskvas tunnelbana på väg till en demonstration till stöd för den fängslade oppositionspolitikern Aleksej Navalny.

Tunnelbanans övervakningssystem, med runt 5 000 kameror för ansiktsigenkänning, matchade resenärens utseende mot en databas med bilder på folk som misstänks frekventera demonstrationer.

Sådan övervakning lär eskalera. Runt 100 miljoner kronor är avsatta för att förse 85 nya stationer med auktoritära linser.

Det är enkelt att avfärda Ryssland som en repressiv och odemokratisk stat.

Men då riskerar man att missa sina egna problem. Enligt den färska undersökningen ”Delade meningar”, genomförd av bland andra Arbetsförmedlingen, Skatteverket och Karlstad universitet, växer oron även i Sverige.

Sju av tio svenskar ser negativt på den ökade insamlingen och användandet av personlig digital information i samhället. Bara 16 procent ser positivt på saken.

Samtidigt är varannan svensk orolig för att informationen används i syften de inte är bekväma med.

En fördubbling sedan den första undersökningen 2015.

Det har skett i tandem med en annan fördubbling under samma period.

Varannan person tror i dag att ens digitala fotspår avslöjar allt från sexuell och politisk läggning, vem man umgås och arbetar med, till ens boende, mående, fritidsintressen och köpvanor.

Paradoxalt nog är ett av världens mest öppna länder ett samhälle där folk känner sig övervakade, ofria och oroliga.

Och paradoxalt nog kan folk i diktaturer, genom att kunna peka på det styre som begränsar friheten, se en större chans till förändring än svenskar, vars kulturella ofrihet är bortom politikernas maktsfär.

Transparens kan minska oron. Enligt en ny studie från Kungliga Tekniska högskolan (KTH) och det statliga forskningsinstitutet RISE (Research Institutes of Sweden AB) är sex av tio personer villiga att byta till en tjänst om den är mer öppen med hur personlig information används.

Men bara var tredje är vill att betala för det. Det rider företagen på.

Ansiktsigenkänning och insamling av digital information bygger på artificiell intelligens (AI).

Företag och offentliga aktörer överlämnar fler rutinuppgifter till AI. De flesta får dock aldrig veta hur eller varför AI används. Det kallas inom forskningen för svarta lådan.

KTH-forskarna intervjuade därför åtta chefer från fyra svenska försäkringsbolag för att förstå hur de ser på sitt ansvar.

Transparens är ”en potentiell konkurrensfördel”, men ingenting ”tyder på att transparens och öppenhet ännu används strategiskt i branschen”, summerar forskarna.

Med andra ord är det inte lönsamt. Frågan delar även byråkratin.

I januari förklarade exempelvis Lunds kommun att deras tvååriga automatiseringsprojekt sparat in över 7 000 mantimmar och tagit bort över 1,5 miljoner manuella moment. Det låter som god kommunal förvaltning.

Ett liknande initiativ i Trelleborg, där algoritmer snarare än socialsekreterare tog beslut om försörjningsstöd, anmäldes till Justitieombudsmannen.

Nyttoargumentet för artificiell intelligens är kraftfullt. Men det är ensidigt.

Kommuner och försäkringsbolag kan hävda att AI och automatiserat beslutsfattande skapar bättre tjänster.

När det inte går att se vad som går in i den svarta lådan är det omöjligt att värdera.

Inte undra på att folk oroas.