Guide för dig som vill använda AI
Den här guiden hjälper dig som vill testa AI i ditt arbete. Du får tips och stöd – från idé till användning, med checklistor och exempel.
Den här guiden hjälper dig som vill testa AI i ditt arbete. Du får tips och stöd – från idé till användning, med checklistor och exempel.
✅ Att skapa text, bilder eller rapporter innebär generellt låg eller begränsad risk, och är så gott som alltid tillåtet. Du skulle kunna använda en öppen AI-tjänst så som ChatGPT, Gemini eller CoPilot.
✅ Att komma på idéer (brainstorma) innebär generellt låg eller begränsad risk, och är så gott som alltid tillåtet. Du skulle kunna använda en öppen AI-tjänst så som ChatGPT, Gemini eller CoPilot.
✅ Att analysera anonym data innebär generellt låg eller begränsad risk, och är så gott som alltid tillåtet. Du skulle kunna använda en öppen AI-tjänst så som ChatGPT, Gemini eller CoPilot.
✅ Att omvärldsbevaka eller kartlägga något innebär generellt låg eller begränsad risk, och är så gott som alltid tillåtet. Du skulle kunna använda en öppen AI-tjänst så som ChatGPT, Gemini eller CoPilot.
⚠️ Att skriva ut tal till text automatiskt (automatisk transkribering) kan innebära en hög risk som kräver extra kontroll och avtal.
✅ Att automatisera administrativa uppgifter (t.ex. bokningar, utskick) som inte innehåller personuppgifter innebär generellt låg eller begränsad risk, och är så gott som alltid tillåtet. Om det däremot förekommer personuppgifter måste en juridisk bedömning göras i det enskilda fallet.
⚠️ Du kan fortsätta, men eftersom rekrytering eller urval av personer är hög risk måste du säkerställa avtal, dataskydd och manuell granskning innan AI-resultatet används.
⚠️ Du kan fortsätta, men eftersom fördelning av uppgifter eller mätning av prestationer är hög risk måste du säkerställa avtal, dataskydd och manuell granskning innan AI-resultatet används.
⚠️ Du kan fortsätta, men eftersom bedömning av rätt till stöd (vård, försörjning, bidrag) är hög risk måste du säkerställa avtal, dataskydd och manuell granskning innan AI-resultatet används.
⚠️ Du kan fortsätta, men eftersom anpassning av undervisning efter varje person är hög risk måste du säkerställa avtal, dataskydd och manuell granskning innan AI-resultatet används.
⚠️ Du kan fortsätta, men eftersom rådgivning som påverkar människors rättigheter är hög risk måste du säkerställa avtal, dataskydd och manuell granskning innan AI-resultatet används.
🚫 Det är förbjudet att använda sig av AI-tjänster som möjliggör ansikts- eller känsloigenkänning i Helsingborgs stad.
🚫 Det är förbjudet att använda sig av AI-tjänster som möjliggör automatiskt poängsystem för invånare i Helsingborgs stad.
🚫 Det är förbjudet att använda sig av AI-tjänster som gör det möjligt att förutse om någon kommer att begå ett brott i Helsingborgs stad.
✅ Inga personuppgifter: det går bra att använda helt anonymiserad data eller fiktiva exempel.
⚠️ Personuppgifter (ej känsliga) så som namn, titel och mejladress får endast matas in om staden har avtal med leverantören. Personuppgifter får aldrig matas in i allmänt öppna AI-tjänster så som ChatGPT eller Gemini.
⚠️ Känsliga personuppgifter så som hälsa, biometriska data, barnuppgifter kräver en säker IT-miljö, avtal med leverantören samt godkännande från chef. Personuppgifter får aldrig matas in i allmänt öppna AI-tjänster så som ChatGPT eller Gemini.
🚫 Känsliga personuppgifter får aldrig matas in i allmänt öppna AI-tjänster så som ChatGPT eller Gemini.
⚠️ Data som omfattas av sekretess så som ärenden hos socialtjänst eller uppgifter från elevakter kräver en säker IT-miljö, sekretessavtal med leverantören samt godkännande från chef.
🚫 Sekretessbelagd information får aldrig matas in i allmänt öppna AI-tjänster så som ChatGPT eller Gemini.
✅ Det går bra att använda AI för att ta fram utkast eller generera idéer som eget arbetsmaterial. Granska materialet och radera eventuell känslig rådata.
✅ Det går bra att använda AI för att ta fram material som ska delas vidare internt, exempelvis genom att skicka till din kollega eller chef. Granska + märk ”framtaget med AI” om det delas vidare.
✅ Det går bra att använda AI för att ta fram material som ska publiceras externt, exempelvis ett pressmeddelande eller på en webbsida. Granska, märk AI-ursprung, säkerställ korrekthet.
⚠️ Du kan använda AI för att ta fram underlag för formellt beslut, exempelvis om du ska bereda ett ärende. Du måste kunna förklara och försvara beslutet.
Det ska vara möjligt att förklara beslut som staden fattar. Den som påverkas av ett beslut ska kunna förstå hur och varför det fattades. Du ska kunna stå för och motivera beslutet även om AI varit inblandad. Det ska även vara möjligt för domstolar och tillsynsmyndigheter att granska beslutsunderlag i efterhand.
🚫 Det är inte tillåtet att låta AI fatta beslut. AI ska inte ersätta ditt mänskliga omdöme. Ett sätt att minska riskerna med AI är att låta det finnas mänsklig kontroll (human in the loop) när systemet används och att betrakta AI som ett hjälpmedel som inte ersätter ditt mänskliga omdöme.
✅ Det är tillåtet att behandla data på stadens egna servrar, så länge du följer alla övriga regler.
✅ Det är tillåtet att använda en svensk leverantör med avtal, under förutsättning att avtalet täcker dataskydd och sekretess.
⚠️ Du får lagra data inom EU/EES, men du måste kontrollera att personuppgifter hanteras enligt GDPR och stadens krav.
🚫 Det är förbjudet att lagra eller behandla person- eller känsliga uppgifter på servrar utanför EU/EES.
⚠️ Stoppa användningen tills du vet var datan lagras och kan säkerställa att reglerna uppfylls.
Titel | Länk | |
---|---|---|
1. Typ av AI-tjänst | ||
⚠️ Rekrytering / urval | ||
• Gör DPIA + riskbedömning | ||
• Använd endast stadens upphandlade rekryterings-AI | ||
• Logga varje AI-förslag och gör manuell granskning | ||
⚠️ Fördela uppgifter / övervaka prestation | ||
• Säkerställ kollektivavtal och arbetsrätt | ||
• Dokumentera algoritmens kriterier | ||
• Informera berörd personal om AI-användningen | ||
⚠️ Bedöma rätt till stöd | ||
• Kontakta förvaltningsjurist | ||
• Kräv full transparens + manuell kontroll | ||
• Säkra spårbarhet för varje beslut | ||
⚠️ Utvärdera läranderesultat | ||
• Validera att modellen är objektiv | ||
• Kommunicera till elever/vårdnadshavare hur AI används | ||
🚫 Ansikts- eller känsloigenkänning i realtid: Stoppa – användningen är inte tillåten i kommunen | ||
🚫 Automatiskt social poängsystem: Stoppa – användningen är inte tillåten i kommunen | ||
🚫 Prediktion av brottslighet på individnivå: Stoppa – användningen är inte tillåten i kommunen | ||
2. Information som matas in | ||
⚠️ Personuppgifter (ej känsliga) | ||
• Använd endast interna/avtalade AI-tjänster (ej ChatGPT) | ||
• Se till att avtalet täcker dataskydd | ||
⚠️ Känsliga personuppgifter | ||
• Använd säker miljö på kommunserver | ||
• Informera DSO innan start | ||
• Dokumentera laglig grund (GDPR art. 9) | ||
🚫 Sekretessbelagd information i öppen AI: Förbjudet – välj annan tjänst eller upphandla sekretesskyddad lösning | ||
⚠️ Vet inte | ||
• Identifiera om uppgifterna är personliga eller känsliga | ||
• Kontakta AI-gruppen för vägledning | ||
3. Hur AI-resultatet används | ||
⚠️ Dela internt | ||
• Märk “Framtaget med stöd av AI” | ||
• Kvalitetsgranska innan delning | ||
⚠️ Publicera externt | ||
• Märk AI-innehåll offentligt | ||
• Faktagranska | ||
• Spara version som bevis | ||
⚠️ Underlag för beslut | ||
• Logga källor och parametrar | ||
• Dokumentera mänsklig granskning och motivering | ||
🚫 AI fattar beslut själv: Stoppa – AI får inte fatta självständiga beslut om invånare | ||
4. Var datan körs / lagras | ||
⚠️ EU/EES-leverantör | ||
• Kontrollera att personuppgiftsbiträdesavtal finns | ||
• Säkerställ rätten till radering + åtkomstloggar | ||
🚫 USA / utanför EU | ||
• Lagra inte person- eller känsliga uppgifter här | ||
• Välj EU-baserad tjänst eller kommunintern drift | ||
⚠️ Vet inte | ||
• Ta reda på serverplatsen | ||
Innehållet är skapat med stöd av AI-verktyg. Allt har granskats och färdigställts av medarbetare.