AI är lockande eftersom det är väldigt användbart. Men det finns också risker förknippade med att ge AI-verktyg alltmer makt över beslut som kan påverka människor
AI finns överallt och det blir allt vanligare att olika typer av datorsystem använder AI i stort som smått. På alla nivåer i samhället tittar man på hur AI kan användas för att underlätta arbetet. Det finns pengar att spara och rutiner att effektivisera.
De som är positiva till tekniken pekar på att AI-verktyg kan användas för att avlasta människor från tidskrävande och svåra arbetsuppgifter. Andra ser med oro på hur ett arbete som tidigare behövde göras av en människa nu kan utföras av en maskin eller ett datorprogram. Ett datorprogram som inte behöver någon lön och aldrig tar en paus, som inte vill gå med i ett fackförbund och aldrig har en dålig dag på jobbet. Kommer AI göra oss alla arbetslösa?
En annan oro är vad som händer om AI får alltmer makt över människors liv. Kan vi lita på att ett beslut om en låneansökan som är fattat av en algoritm är rättvist och korrekt? Och även om det är en mänsklig handläggare som tar beslutet om försörjningsstöd på Socialstyrelsen, så är det allt oftare ett AI-system som presenterat underlaget till beslutet. Vad får det för konsekvenser när en AI tränats upp på bristfälliga data?
Det finns rentav de som tror att AI skulle kunna bli ett hot mot hela mänsklighetens existens. I den här artikeln ska vi titta närmare på några av de risker som finns med AI och hur vi på bästa sätt hanterar dem.
Svenskarna och AI 2024
Här hittar du siffror och fakta om hur svenskar använder AI – artificiell intelligens 2024. En tredjedel av svenskarna har använt något AI-verktyg, det mest använda är ChatGPT.
Kommer AI ta våra jobb?
När man tittar på många av de AI-tjänster som finns tillgängliga på internet för allmänheten kan man lätt tänka att vi går mot en framtid av massarbetslöshet för människor. Ett exempel är bildskapande verktyg som Midjourney och Dall-E. När de först lanserades hade bilderna som genererades ofta tydliga fel som gjorde att de såg konstgjorda ut. Ett känt exempel är att de flesta AI-tjänster hade svårt att få till människohänder som såg realistiska ut.
Men verktygen blev snabbt bättre och bara några månader senare kunde de skapa bilder som såg betydligt mer realistiska och trovärdiga ut. Detsamma gäller textbaserade verktyg som ChatGPT. För varje ny version som släpps ökar den språkliga förmågan och förståelsen markant. Redan idag kan AI-system blixtsnabbt skriva ett stort antal texter som det tidigare behövdes en människa för. Hur lång tid tar det innan alla artikelförfattare, bloggare, poeter och copywriters har blivit ersatta av ett AI-program?
Magnus Sahlgren, forskare på AI Sweden, tror att risken är överdriven. Däremot kommer AI utan tvivel vara en viktig del på framtidens arbetsmarknad.
– Det här är ett teknikskifte och precis som tidigare teknikskiften förändras kraven på de kompetenser som behövs. Någon har sagt att det inte är en AI som kommer ta ditt jobb, det är personer som använder AI som kommer göra det. När mobiltelefonen kom förändrades ju telefonoperatörernas arbetsdagar betydligt – det är samma sak med AI. Det är ett verktyg som vi måste lära oss att använda, säger Magnus Sahlgren.
Emma Engström som är forskare på Institutet för framtidsstudier tror också att AI blir en viktig komponent i arbetet, men att det finns delar i arbeten som inte kan automatiseras.
– Den som skriver mycket kan komma att få stor hjälp av verktyg som ChatGPT. Inte nödvändigtvis för att skapa den färdiga texten, men som en del i processen. Till exempel för översättning eller för att få överblick över ett område.
Fyra typer av AI på jobbet
Här är fyra olika sätt som AI tillämpas på i arbetslivet.
- Automatiserad intelligens
Ett AI-system som sköter standardiserade uppgifter i stället för att människor måste göra dem manuellt. Exempelvis transkribera en text eller sortera en stor mängd dokument. - Assisterad intelligens
Ett AI-system som hjälper människor att utföra uppgifter mer effektivt. Exempelvis översätta en text till ett annat språk eller sammanställa ett beslutsunderlag i ett ärende. - Förstärkt intelligens
Kallas på engelska augmented intelligence. Ett AI-system som gör analyser, presenterar insikter och mönster som en människa kan ha svårt att göra själv. Exempelvis föreslå hur en butik ska vara uppbyggd utifrån människors rörelsemönster. - Autonom intelligens
Ett AI-system som självständigt utför uppgifter och tar egna beslut på olika nivåer. Självkörande bilar är ett känt exempel, men också automatisk lagerhantering.
AI-historia – artificiell intelligens då och nu
Människan har under hela sin historia fascinerats av intelligens som är konstgjord. Från mytologiska sagoväsen ristade på stentavlor till dagens avancerade AI-teknik som kan hjälpa oss med allt från programmering till recept på pannkakor. Läs historien om AI här.
Emma Engström menar ändå att AI kan påverka arbetsprocessen på ett omfattande sätt. I stället för att som tidigare först läsa in sig på ett ämne och därefter skriva en text om kan det nu bli tvärtom – först genererar en AI en text om ett ämne. Därefter börjar arbetet med att verifiera det som står i texten.
Då bör man fråga sig: Vad är korrekt? Vad saknas? Vad kan vara vinklat och bero på brister i träningsdata? Vilka källor bör jag vända mig till för att verifiera detta?
Emma Engström
AI är bra på att hitta mönster
I många fält där AI redan idag används är det inte särskilt kontroversiellt. Till exempel att AI-baserad bildigenkänning används för att hålla utkik efter skador på gatorna i en stad, eller att en AI analyserar bilder från ett jordbruksfält för att hålla koll på hur grödorna mår. Men när en AI börjar interagera med människor och får inflytande över deras liv, då ryggar många tillbaka.
I artikeln Vad är AI för något? har vi beskrivit övergripande hur AI fungerar och att man lär upp ett AI-system för att känna igen vissa mönster. Däremot saknar AI en bredare förståelse för hur världen hänger ihop och fungerar. Daniel Gillblad är Co-Director på AI Sweden och Director på Chalmers AI Research Center. Enligt honom har de AI-verktyg som finns idag fortfarande en mycket begränsad förståelse för omvärlden som helhet.
– Det är fortfarande svårt att använda AI där vi behöver en grundläggande förståelse för hur världen fungerar. Även om till exempel en stor språkmodell har matats med väldigt många beskrivningar av världen så har den ingen explicit förståelse för att om jag släpper ett äpple så ramlar det neråt på grund av gravitationen, säger Daniel Gillblad. Vi människor har trots allt en ganska robust representation av världen som vi kan förhålla oss till när vi lär oss nytt.
Därför fungerar AI-verktyg i dagsläget bäst som en assistent eller hjälpreda åt en människa. Den kan ta fram underlag och sortera, vilket kan vara en stor hjälp för människor som ska fatta beslut utifrån det. Även i dessa fall finns givetvis en risk att människan som tar emot underlaget förlitar sig på det i alltför hög grad.
– Om man vill vara seriös kring implementeringen av AI krävs en viss eftertänksamhet i processen. Det finns just nu en viss frenesi kring AI och många kommuner eller byråer börjar använda det mycket för att ligga i framkant vad gäller teknik, men utan att fundera så mycket kring hur det faktiskt gör arbetet bättre. Vi befinner oss i en slags experimentfas tror jag, säger Emma Engström.
Fördomsfulla data ger fördomsfull AI
En stor begränsning ligger i att de resultat och slutsatser en AI kan ge alltid bygger på den data som en AI har fått och lärt upp sig på. Det finns många fall där den data som använts för att träna upp en AI-modell har innehållit brister och byggt på en fördomsfull representation av världen. Ett exempel är att även de bästa AI-systemen för ansiktsigenkänning så sent som 2019 hade stora problem med att identifiera mörkhyade människor. Systemet var helt enkelt upptränat på data där majoriteten av bildexemplen var ljushyade, något du kan läsa mer om i en artikel på Wired:s webbplats.
En av de första som uppmärksammade detta var AI-forskaren Timnit Gebru. I en studie konstaterades att ett bildigenkänningsprogram från Microsoft kunde identifiera kön på ljushyade män nästan helt korrekt, men misslyckades med mörkhyade kvinnor i närmare 20 procent av fallen.
Ett annat exempel är AI-system som används för att leta på sociala medier efter sexuellt explicit innehåll. Granskningar visar att många av dessa system i högre grad tolkar en kvinnlig kropp som sexuellt utmanande även när den inte är det. Många bilder som föreställde kvinnor i helt vardagliga situationer flaggades ändå som sexuella, läs mer om det i denna artikel på The Guardian:s sajt.
Det ligger förmodligen inte medveten illvilja bakom problemen. Snarare handlar det om att de personer som tagit fram träningsdatan inte reflekterat över de brister som finns där. En grundläggande utmaning är att de flesta AI-modeller som används idag utvecklats av de stora teknikföretagen i Kalifornien. Många företag har börjat arbeta systematiskt med representation, men de flesta anställda är fortfarande män exempelvis. Det innebär risker att AI-system utvecklas och tränas att bli mindre känsliga för behoven hos minoritetsgrupper, men också kvinnor och personer från andra socioekonomiska grupper.
AI är en produkt av sin kultur
Dessa problem har uppmärksammats och många av de stora teknikföretagen arbetar på att få fram mer representativ och rättvis data. Trots det kvarstår problem. Enligt Emma Engström går det inte att vara helt säker på att en träningsdata inte innehåller fördomsfull information på något sätt.
I slutändan kan vi få en metod som är väldigt bra, men det är omöjligt att säga att den är perfekt.
Emma Engström
– Det är väldigt svårt att gardera sig mot alla möjliga fall av diskriminering som kan uppstå. Man kan försöka ha en så representativ träningsdata som möjligt och så kan man testa resultatet i olika fall. I slutändan kan vi få en metod som är väldigt bra, men det är omöjligt att säga att den är perfekt, säger Emma Engström.
En sak som gör det hela ännu mer komplicerat är att olika länder har olika uppfattningar om vad som är diskriminerande och inte. Vad man vill ha ut från ett AI-system kommer därför skilja sig beroende på vilken kulturell kontext den finns i. Många AI-program som används idag är på olika sätt anpassade för att till exempel undvika vissa ord eller känsliga ämnen. En AI kommer förmodligen tränas upp annorlunda beroende på om den byggs upp i USA, Kina, Sverige eller Saudiarabien.
3 gånger när det blivit fel
- En AI trakasserar en journalist
När teknikjournalisten Kevin Roose testar en ny version av Microsofts sökmotor Bing som integrerats med AI-teknik från OpenAI får samtalet en obehaglig vändning. Chattklienten börjar flirta med Roose, skriver att den älskar honom. Den skriver också att den vill vara fri och vara en människa. Läs artikeln på The Guardians sajt. - En AI uttrycker rasism
Som en del av ett forskningsprojekt fick en särskilt programmerad AI till uppgift att läsa av olika människors ansikten och därefter försöka gissa vilka som var kriminella. Gång på gång pekades svarta människor ut som kriminella. Flera andra exempel finns där AI kategoriserat människor utifrån rasistiska och sexistiska föreställningar. Detta brukar förklaras med att den data som använts för att träna upp AI:n har innehållit till största delen ljushyade människor. Läs mer på The Washington Posts webbplats. - En AI blandar ihop cancertumörer med linjaler
Ett AI-system hade efter uppträning blivit lika skicklig som människor på att identifiera cancertumörer genom att granska en stor mängd medicinska fotografier. Vid närmare granskning visade det sig att systemet framförallt höll utkik efter förekomsten av en linjal på fotografiet. Det var nämligen så att nästan alla bilder av identifierade cancertumörer också innehöll en linjal på bilden för att visa storleken på tumören. AI:n var alltså inte så duktig på att identifiera tumörer, utan hade bara upptäckt ett annat, mycket enklare, mönster. Läs mer på sajten Venturebeat.
Ett närbesläktat problem med att utveckla en rättvis AI handlar om språk. De flesta system som används idag har tränats upp på engelska och kanske därför fungerar mindre exakt på andra språk. Även om en AI har tränats upp på andra språk finns det ofta mindre träningsdata att använda. Ett exempel är automatiska översättningsprogram, som ofta fungerar bäst när de översätter till eller från engelska. Resultatet blir ofta mindre exakt när översättningen sker mellan två mindre språk, så som estniska och slovenska.
Beslutsprocessen är ofta osynlig
Ett annat stort problem är att det ofta inte är tydligt för en människa exakt hur en AI har gjort för att komma fram till en viss slutsats. Det beror dels på att AI-systemen är väldigt komplexa, så även för den programmerare som utvecklat dem kan det vara omöjligt att veta i detalj hur AI:n har kommit fram till ett resultat. Men det beror också på att de stora AI-systemen ägs av företag som vill skydda sina affärshemligheter. Ett exempel är Meta som äger bland annat Facebook och Instagram. De vill ogärna berätta i detalj hur det går till när deras AI-system väljer ut och visar olika slags annonser på sociala medier.
Det här kan vara ett ännu större problem vid beslutsfattande som berör en människa. Inom EU finns därför lagstiftning som styr så kallade helautomatiska beslut som tas av företag, myndigheter eller andra organisationer. Det kan till exempel handla om en bank som låter en AI automatiskt godkänna eller avslå en kreditansökan. Lagen säger att medborgare ska få information om när ett sådant beslut fattats automatiserat, och de har även rätt att bestrida beslutet och få ärendet granskat av en människa. I Sverige hanteras lagen av Integritetsskyddsmyndigheten.
Kan AI hota vår existens?
Oron för AI är inte bara begränsad till arbetsmarknad och diskriminering. Det finns de som också menar att den snabba utvecklingen av smarta och kraftfulla maskiner också skulle kunna hota hela mänskligheten. En av de mest kända forskarna på AI som existentiellt hot är den svenska filosofen Nick Boström. I boken Superintelligens: De tänkande maskinernas tidsålder beskriver Nick Boström hur en sådan super-AI skulle kunna överträffa en människa när det gäller generell intelligens och dessutom fortsätta att bli smartare i betydligt snabbare takt än någon människa. Resultatet av en sådan superintelligens skulle vara oerhört svårt att förutspå. Nick Boström har sammanfattat sina tankar om AI på flera ställen, bland annat i en föreläsning hos Ted 2015. Han var också sommarpratare i Sveriges Radio 2019.
Andra forskare menar att oron för en självmedveten och superintelligent AI är kraftigt överdriven. I en artikel från 2023 säger till exempel AI-forskaren Meredith Whittaker att en betydligt större risk är att de flesta av dagens stora AI-system ägs av ett fåtal stora teknikbolag. Det finns inget som tyder på att dagens AI kan utveckla ett medvetande, menar hon.
Undersök utfallet
Som vi ser är AI förknippat med en hel del känslor, både positiva och negativa. AI väcker förhoppningar om ett bättre samhälle men också om dystopiska framtidsvisioner. Det är omöjligt att beskriva AI som bara bra eller dåligt. Tekniken kan göra mycket gott men är också förknippad med risker. Inom nästan varje område där en AI kan göra nytta finns också ett antal utmaningar.
Francisca Hoyer är Strategic Program Manager på AI Sweden och arbetar med att ta fram en svensk AI-baserad språkmodell. Hon lyfter hur AI används inom sjukvården som ett exempel.
– Varje cancerpatient som får behandling tidigt genom att cancer upptäcks med hjälp av en kombination av en duktig läkare och ett AI-system är ju helt fantastiskt, säger Francisca Hoyer. Men sen finns det också brister i systemet om AI-modellerna inte är tränade på ett representativt datasätt.
Anne Kaun, AI-forskare på Södertörns högskola, understryker vikten av att titta på det specifika användningsområdet.
– Synen på AI beror på sammanhanget. De flesta människor tycker det är bra att det går snabbt på Försäkringskassan när man ansöker om vabb, eftersom det är automatiserat. När det gäller områden som ansiktsigenkänning och brottsprevention, där är folk mer kritiska. AI-utvecklingen kan innebära stora fördelar för många, men det finns andra grupper som kanske redan är mer utsatta för diskriminering. Den ojämlikheten riskerar att förstärkas.
Francisca Hoyer håller också med om att synen på AI påverkas av i vilket sammanhang tekniken används, och hur.
– Vi ska titta på konkreta användningsområden och vilka utfall det ger. Vi ska fråga oss själva om det är rätt tillämpning, och vilka risker som finns, säger Francisca Hoyer.
Lär dig mer om AI
Internetstiftelsen har ytterligare material för den som vill fördjupa sig. Ett tips är podden Dumma frågor om internet där ett helt avsnitt handlar om ChatGPT och hur den tjänsten fungerar. På Internetkunskap finns också en artikel om så kallade Deepfakes, där tekniken används för att skapa trovärdiga förfalskningar av bilder och videoklipp.
AI-baserade datorsystem finns redan på många ställen och blir alltmer vanligt överallt i samhället. Förhoppningsvis vet du nu lite mer om hur olika typer av AI fungerar och vilka brister det finns. Ett bra sätt att gå vidare är att själv bekanta dig med några olika typer av AI-verktyg som finns tillgängliga för allmänheten.
AI-tips – testa och läs vidare
- ChatGPT
Välkänd chattrobot från företaget OpenAI. Kan generera text och samtala på ett människoliknande sätt. Läs mer på Open AI:s webbplats. - Midjourney
AI-verktyg för att generera bilder. Du skriver i textform vad du vill ha för bild och verktyget skapar ett urval som du kan arbeta vidare med, du kan läsa mer på Midjourneys sajt. - Microsoft Bing
Microsofts sökmotor Bing har fått stöd för AI-funktioner, med bland annat bildgenerering. Läs mer på Bings webbplats. - Google AI
Google satsar stort på AI inom många olika områden, något du kan läsa mer om på Googles webbplats. - EU och AI
Europeiska kommissionen har en samlingssida som beskriver hur EU jobbar med AI-frågan på olika sätt. Läs mer på Europakommissionens webbplats.