Överallt snackas det om AI, även inom socialtjänsten. Hur mycket ska vi släppa in robotar när det gäller känsliga beslut? Annika Andersson, professor i informatik, har forskat på automatiserat beslutsfattande och AI.
– Just nu säger man AI om allt lite slentrianmässigt. Men egentligen handlar det ju om automatisering, det tycker jag förklarar bättre vad det handlar om. Och det är något som har pågått i flera år, att vi automatiserar sådant som vi gör för att det ska gå mycket snabbare. Genom AI kan vi automatisera mänskliga tankemönster, men AI kan inte tänka själv, den bara gör det vi ber om, säger Annika Andersson.

Hon är professor i informatik vid Örebro universitet och en av årets talare på SSIL Utbildningsdagar. Annika Andersson tycker att vi ska se AI som ett system bland alla andra system som vi använder.
– Vi har kundsystem som interagerar med olika verksamhetssystem. Det man kan låta AI göra är enligt SKR att till exempel hantera och godkänna ansökningar för ekonomiskt bistånd. Fördelen är att det går väldigt snabbt och den som uppfyller vissa krav får godkänt. Inga fördomar eller andra saker spelar någon roll. Klienten slipper komma in till socialkontoret och stå där med mössan i hand.
Andra användningsområden för AI är orosanmälningar, identifiera riskgrupper, risk- och skyddsbedömningar, sammanställa journalanteckningar och rapporter, chattbottar och sortering av ärenden.
Det kan bli lite tokigt
– Det som man behöver tänka på när man använder AI är att datorer är fyrkantiga. Om man ber om en sammanfattning så kan det bli lite tokigt när den tar med allt, även om till exempel personen tar tillbaka det denne har sagt. Då noteras även det och allt hamnar ändå i sammanfattningen. En dator kan inte känna och tänka vad saker och ting landar heller.
Annika Andersson berättar om en utredare i Helsingborg som brukar spela in ett samtal och låta ett AI-verktyg dokumentera en sammanfattning. Sedan läser hon igenom och kollar så allt stämmer innan texten läggs in i journalen.
I Linköping, Strängnäs och Norrtälje har man börjat med prediktiva riskmodeller (PRM). De provar att använda AI för att upptäcka mönster som föregår placeringar av barn och unga.
– AI söker av tidigare orosanmälningar som jämförs med nya för att upptäcka mönster när det gäller tecken på våld och liknande. Arbetssättet blir alltså att orosanmälningarna kommer in digitalt, de registreras av AI-verktyget, sedan hanteras de av en medarbetare som kan göra en skyddsbedömning. Därefter får AI göra en slagning i registret för att se om det finns likheter i tidigare anmälningar. Efter det hanterar medarbetaren ärendet, bjuder in till möten och tar ett beslut. AI informerar om beslutet.
Norrtälje vill att AI rekommenderar insatser
I Norrtälje har man gått ett steg längre och vill att AI rekommenderar vilken typ av hjälp personen skulle behöva.
AI skulle också kunna vara ett stöd med att prognosticera placeringar för att bättre kunna planera för framtida behov. Internationellt används AI till exempel för att förutspå vilka barn som ligger i risk för att behöva omhändertas och vilka brottslingar med störst risk för återfall.
Orosanmälningarna till socialtjänsten har ökat kraftigt över hela landet. Det kan ha att göra med att det blivit väldigt enkelt att digitalt fylla i en orosanmälan anonymt. Men det kan också ha att göra med den ökade risken för unga att hamna i kriminalitet och drogmissbruk.
Så, vad innebär AI för socialtjänsten? Kommer AI att ta jobben från oss?
– Jobben försvinner inte, men professionen förändras. Handläggningen kommer att gå mycket snabbare, vi kan jobba mer effektivt och få mer tid över till klientnära arbete. Det är det vi vill med framtidens socialtjänst. Likabehandlingen ökar också, liksom rättssäkerheten. Som sagt; AI gör det vi ber om, men det innebär också att individanpassningar och ”skönsmässiga bedömningar” blir svårt att göra. Datorer har ingen magkänsla och kan inte se mellan fingrarna. Det är ganska mycket som går förlorat där. Alla ska behandlas lika, men också individuellt. Hur ska det gå ihop? Och om en dator har tagit beslutet, vem klagar man till då? På vilka grunder har beslutet tagits?
Och kan man ge medbestämmande till klienten? Det står i LSS 6§ att ”den enskilde ska i största möjliga utsträckning ges inflytande och medbestämmande över insatser som ges.”
Människan behövs för individuella bedömningar
Annika Andersson har träffat många enhetschefer som arbetar med AI och de säger att utan rutinärenden så skulle man inte klara av uppdraget. En vanlig åsikt är att vissa saker kan automatiseras, men människan behövs för individuella bedömningar.
– Många har gjort felet att införa AI som ett projekt. Som om det inte hade med verksamheten att göra. När projektet är genomfört då? AI ska ju in i verksamheten som vilket system som helst. Jag har sett AI-satsningar som har stoppats för att projekttiden tagit slut.
Prediktiva algoritmer kommer att vara vanligt förekommande hos socialtjänsten inom de närmaste åren. Johan Magnusson, professor på Göteborgs universitet, tycker därför att det är brådskande med en nationell strategi för evidensbaserade AI-beslutssystem, särskilt inom socialtjänstens arbete med utsatta barn och unga.
Det krävs också kunskap i verksamheterna. Sedan är det de som arbetar i verksamheten som behöver avgöra vilken data som ska användas i beslut och profileringar.
– Den stora utmaningen är att inte glömma bort klienterna. Vi behöver fundera på hur vi kan utveckla AI och samtidigt behålla det sociala arbetets värderingar, avslutar Annika Andersson.
Tips för AI-användning
- Tänk verksamhetsutveckling, inte projekt.
- Teknikperspektiv – AI är ett system bland andra.
- Verksamhetskunskap behövs för att utveckla systemutvecklingsprocesser och upphandling av tekniska lösningar, men också i val av vilken data som ska användas i beslut och profileringar. Ni bestämmer vad ni vill ha hjälp med.
- Glöm inte bort brukarna/klienterna.