facebookpixel

AI ger snabbt och tydligt värde. Det är lockande att köra på – särskilt när produktiviteten rusar och beslutsstöd blir bättre. Men just där, när nyttan känns självklar, behöver vi ibland stanna upp och ställa en annan fråga än ”får vi?” Nämligen: ”bör vi?” I detta inlägg reflekterar vi kring AI-etik.

”Etik är mellanrummet mellan får och bör.”

Den enkla formuleringen rymmer en avgörande poäng: mycket som är juridiskt möjligt är inte alltid klokt, ansvarsfullt eller i linje med organisationens värderingar. Därför behöver etiken flytta in i vardagens AI‑användning – inte bara i samhällets stora frågor som övervakning eller vapen, utan i våra egna processer, verktyg och beslut.

Gör AI-etiken konkret

Etik blir hanterbar när vi gör den synlig och prövbar. Ett enkelt sätt är att pröva en tänkt AI‑användning mot återkommande principer. I våra dialoger använder vi exempelvis en övning med tolv etik‑kort för att bedöma en lösning ur flera perspektiv. Två av korten fångar mycket av de frågeställningar man brukar ha gällande AI-etik, nämligen:

  • Integritet: Personlig integritet ska skyddas. Data ska hanteras säkert och respektfullt.
  • Värdighet: Människors värdighet ska alltid respekteras.

Det intressanta är att nästan alla organisationer håller med om detta i teorin – men i praktiken kan effekterna vara svåra att se innan man aktivt prövar dem. Övningen blir därför en ögonöppnare: den avslöjar konsekvenser man inte tänkt på, både i stora och små användningar av AI.

Du behöver inte pausa inför varje litet prompt. Men någon gång är det klokt att göra en genomlysning – så att tänket sitter där när det väl gäller.

Två tydliga exempel

1) AI-etik i vården: analysera röntgenbilder och föreslå diagnoser

Här känns etikfrågorna självklara – och just därför är exemplet pedagogiskt:

  • Säkerhet: Felaktiga bedömningar kan skada människor.
  • Transparens och spårbarhet: Om AI:n föreslår något, måste det gå att förstå varför.
  • Ansvar: Vem står till svars om något går fel? Här ska en människa – exempelvis en läkare – bära ansvaret.
  • Dataskydd: Känslig patientdata måste hanteras tryggt och respektfullt.

När användningsfallet är kritiskt är det lätt att se etiken. Utmaningen är att ta med samma tänk även när användningen känns ”vardaglig”.

2) AI-etik i rekrytering: låta ett verktyg sålla CV:n

Värdet är frestande: många ansökningar in, en första shortlist ut – snabbt och effektivt. Men stanna upp en stund:

  • Integritet: Hur hanteras persondata?
  • Rättvisa: Väljer vi bort på fel grunder?
  • Ansvar: AI får inte ta beslutet. Besluten måste landa hos en människa.
  • Förklarbarhet: Kan vi – i efterhand – förklara att användningen var rimlig och rättvis?

Poängen är inte att säga ”nej” per automatik, utan att kunna säga ett medvetet ja – där ni förstår riskerna, sätter ramar och behåller mänskligt omdöme där det behövs.

AI-etik: Från princip till policy

Etiken blir verklig när den märks i styrningen. Därför tjänar många organisationer på att formulera detta i sin AI‑policy:

  • Värdegrund och principer: Vad står vi för när vi använder AI?
  • Riktlinjer för användning: Hur ska vi göra i praktiken för att leva upp till våra principer?
  • Begränsningar: Finns användningar vi aktivt avstår från – till exempel där vi vill framhäva det mänskliga?

En enkel policy gör det lättare att fatta konsekventa beslut och motivera dem – både internt och externt.

Ett arbetssätt som håller över tid

Du behöver inte starta etikrond varje gång du öppnar ett AI‑verktyg. Men inför större införanden eller processförändringar är det klokt att stanna upp och gå igenom en kort check:

  • ”Bör vi?” – inte bara ”får vi?”.
  • Vem ansvarar? – landar beslutet hos en människa?
  • Kan vi förklara? – hur motiverar vi användningen i efterhand?
  • Hur skyddas data och integritet?
  • Hur påverkas människors värdighet?
  • Finns risk för orättvisa effekter?

Målet är inte perfektion – utan riktning. Du och din organisation ska kunna känna att ni är på rätt väg, med ryggrad nog att stå för hur AI används.

AI skapar enorm nytta. Just därför är det viktigt att inte tappa bort etiken i farten. Om vi regelbundet stannar upp, prövar våra användningsfall mot principer som integritet, värdighet, transparens, ansvar och rättvisa – och förankrar detta i en enkel policy – ökar chansen att vi använder AI på ett sätt vi kan stå för, idag och imorgon.

Denna blogg baseras på podden 7 minuter AI. >>Lyssna på podden. Och läs gärna om hur vi på JSC arbetar med applicerbar AI.