EU AI Act möter LGR22: vad svenska skolor måste veta

En värderingsstyrd, praktisk guide till regelefterlevnad för AI i vardagen

En svensk lärare som granskar ett AI-verktyg med en enkel checklista för regelefterlevnad

Varför detta spelar roll i Sverige

AI är redan invävt i skolvardagen: att skriva utkast till brev till vårdnadshavare, anpassa lektionsförklaringar, sammanfatta anteckningar från elevhälsomöten och snabba upp administrativt skrivande. EU AI Act kommer samtidigt som LGR22 ber skolor att leva sina värden i en digital värld. Resultatet kan kännas som en klämma: förnya, men också bevisa att ni är säkra, rättvisa och följer lagen.

Den goda nyheten är att ”regelefterlevnad” inte behöver bli ett juridiskt projekt. För de flesta användningsfall i skolan är det praktiska målet att undvika riskfylld automatisering, behålla människor vid rodret och vara ärlig med var AI används. Om ni redan gör en årlig genomgång av acceptabel användning kan ni väva in mycket av detta arbete i den rytmen i stället för att skapa en parallell process. Strukturen i en årlig uppdatering av policyn för acceptabel AI-användning är en hjälpsam modell för att hålla styrningen lätt men verklig.

EU AI Act på enkel svenska

EU AI Act är riskbaserad. Den behandlar inte all AI likadant; den frågar vad systemet används till och vilka skador som kan följa. För skolor är uttrycket som får ögonbryn att höjas ”högrisk”, eftersom viss AI som används i utbildning kan påverka elevers möjligheter, tillgång till stöd eller hur de blir bemötta.

I skolvardagliga termer är ”högrisk” mer sannolikt när AI används för att göra eller starkt styra beslut om något av följande: antagning, gruppindelning, progression, särskilt stöd, eskalering kopplad till trygghet/skydd, eller formella bedömningsutfall. Även om ett verktyg marknadsförs som ”bara rekommendationer” kan det bli högpåverkande om personal känner sig pressad att följa det, eller om det blir standardunderlaget för beslut.

Däremot är många vanliga klassrums- och administrativa användningar lägre risk om de hanteras väl: att skapa övningsfrågor, omformulera texter, översätta kommunikation eller skriva utkast till återkoppling som en lärare redigerar innan den delas. Risken förändras med sammanhanget. Ett verktyg som används för att brainstorma lektionsstarter är inte samma sak som ett verktyg som förutspår måluppfyllelse och knuffar fram listor över insatser.

LGR22 som ett praktiskt test

LGR22:s grundläggande värden är inte en affisch på väggen; de kan vara ett fungerande test för AI-användning. När personal är osäker på om ett verktyg ”räknas som förenligt” ger värdena ett gemensamt språk som är meningsfullt i skolan.

Demokrati

Demokrati i AI-användning ser ut som informerat deltagande och möjlighet att ifrågasätta. Elever och vårdnadshavare ska inte känna att beslut fattas av en osynlig maskin. Personal ska kunna förklara, med vardagliga ord, vad verktyget gör och vad det inte gör. I praktiken betyder det att ni undviker ”svart låda-auktoritet”: om ett verktyg ger en rekommendation kan skolan ifrågasätta den, åsidosätta den och dokumentera varför.

Ett enkelt klassrumsexempel är att använda AI för att skapa differentierade läsfrågor. Demokratin stärks när läraren väljer vilka frågor som ska användas, anpassar formuleringar för klassen och bjuder in elever att kritisera frågorna. Demokratin undergrävs när AI-resultatet behandlas som ”rätt” och omöjligt att ifrågasätta.

Mänskliga rättigheter

Mänskliga rättigheter i skolans AI-användning handlar om värdighet, icke-diskriminering och skydd av personuppgifter. I vardagen innebär det att ni minimerar känslig information, är försiktiga med uppgifter om sårbara elever och undviker system som systematiskt kan missgynna grupper.

Ett vanligt riskmönster är ”profilering av bekvämlighet”: personal klistrar in elevvårdsanteckningar i en chatbot för att ”få råd”. Även om avsikten är stödjande kan det exponera känsliga data och skapa en skuggjournal utanför skolans kontroll. Ett annat riskmönster är partiskt språk i AI-genererade omdömen. Om ett verktyg tenderar att beskriva vissa elever mer negativt blir skadan kumulativ och verklig.

Om er skola förbättrar sitt arbetsflöde för omdömen och rapporter, titta på hur granskningsspår och dataskydd kan byggas in i processen i stället för att skruvas på i efterhand. Tankarna i AI-stött rapportskrivande med granskningsspår går att överföra väl till svenska sammanhang, även om era mallar skiljer sig.

Etik

Etik är där LGR22 blir praktisk: det handlar inte bara om ”lagligt eller olagligt”, utan ”rätt eller fel för våra elever”. Etisk AI-användning i skolan betyder proportionerlig användning, tydliga gränser och professionellt omdöme. Om AI sparar tid men minskar relationsbaserad förståelse är det inte automatiskt en vinst.

En bra etisk vana är att fråga: ”Om det här resultatet blev fel, vem skulle skadas?” Om svaret är ”en elevs stöd, möjligheter eller rykte” behöver arbetsflödet starkare mänsklig tillsyn och bättre dokumentation.

Tre icke förhandlingsbara principer

Det mesta av skolans AI-styrning kan organiseras kring tre icke förhandlingsbara principer som passar väl ihop med både EU AI Act:s intention och LGR22:s värden: transparens, mänsklig tillsyn och dataminimering.

Transparens

Transparens betyder att ni kan berätta för människor när AI används, vilka data som gick in och vad som kom ut. Det betyder också att ni kan förklara begränsningar. I praktiken kan skolor införa korta ”transparensnotiser” på AI-stödda texter, till exempel en rad i ett system för rapportskrivande eller en sidfot i ett utkast till brev som personal tar bort eller behåller beroende på sammanhang.

Transparens är också intern. Personal behöver en gemensam förståelse för vilka verktyg som är godkända och vad ”godkänd användning” betyder. Ett lättviktigt verktygslådeupplägg, med tydliga integritetsstandarder och rutiner, kan hjälpa. Minsta möjliga AI-verktygslåda inför skolstart är en användbar referenspunkt för att organisera detta utan att överväldiga kollegor.

Mänsklig tillsyn

Mänsklig tillsyn betyder att AI inte fattar beslut om elever. Den kan föreslå, skriva utkast, sammanfatta eller erbjuda alternativ, men en professionell person är fortsatt ansvarig för det slutliga omdömet. Tillsyn är lättast att visa när arbetsflöden är utformade så att personal måste granska och redigera innan något sparas, delas eller omsätts i handling.

I vardagliga termer kan det vara så enkelt som: ”AI skriver utkast; personal godkänner.” För områden med högre insats kan det vara: ”AI föreslår; en namngiven roll granskar; en andra kontroll för sådant som rör trygghet/skydd.” Nyckeln är att arbetsflödet tvingar fram en paus för omdöme i stället för att förlita sig på god vilja.

Redo att revolutionera din undervisningsupplevelse?

Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.

Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.

🎓 Registrera dig GRATIS!

Dataminimering

Dataminimering är den mest direkt handlingsbara principen. Den betyder att ni bara använder de data ni behöver, under kortast möjliga tid, med minsta möjliga identifierbarhet. I skolan betyder det också att motstå impulsen att klistra in hela dokument ”för att det går snabbare”.

Ett praktiskt exempel: om ni vill ha AI-hjälp att skriva om ett mejl till en vårdnadshavare behöver ni sällan namn, personnummer, medicinska uppgifter eller en fullständig beteendelogg. Ni kan använda platshållare och hålla prompten fokuserad på ton och tydlighet. Med tiden blir detta en personalvana, stödd av mallar och ”klistra aldrig in”-listor.

Bevis i vardagliga arbetsflöden

Skolor skriver ofta starka policydokument, men har sedan svårt att visa vad som händer en tisdag eftermiddag när någon är trött och har bråttom. Bevis behöver inte vara tungt; det behöver vara konsekvent.

Börja med att välja två eller tre vanliga AI-arbetsflöden och göra dem till ”modellarbetsflöden”. Till exempel: skriva utkast till veckobrev, ta fram lektionsstöd/scaffolds och skriva utkast till elevnära återkoppling. För varje arbetsflöde, definiera tillåtna indata (helst anonymiserade), den mänskliga kontroll som krävs och var resultatet får lagras. Om ni redan har studiedagar kan ni lära ut dessa arbetsflöden som rutiner snarare än regler. En praktisk struktur beskrivs i en AI-workshop på en INSET day med mikrorutiner, som kan anpassas till er kontext.

Håll sedan ett enkelt verktygsregister och en kort beslutsanteckning för varje nytt verktyg. Syftet är inte byråkrati; det är att visa att ni har tänkt igenom risker, värden och skyddsåtgärder.

Automated Education som exempelarkitektur

Ett sätt att ligga i linje med EU AI Act:s logik om ”högrisk i utbildning” är att välja arkitekturer som minskar risken för dold profilering och automatiserade beslut.

Med Automated Education som exempelarkitektur är de regelefterlevnadsvänliga designvalen enkla att förklara för personal och intressenter. Systemet kan användas utan bestående elevprofiler, så att elever inte tyst spåras över tid. Det kan konfigureras så att det inte fattar automatiserade beslut; det stödjer utkast och organisering, men personalen förblir beslutsfattare. Indata och utdata är tydliga, vilket stödjer transparens och granskning. Human-in-the-loop är inbyggt i arbetsflödet: personal genererar, redigerar och godkänner innan något delas. GDPR-anpassade standardinställningar stödjer dataminimering genom att styra användare mot anonymiserade eller begränsade prompts och undvika onödig lagring.

Poängen är inte att en produkt ”löser regelefterlevnad”. Poängen är att skolor bör föredra verktyg vars design gör god praxis enklare än dålig praxis.

Leverantörschecklista för svenska skolor

Upphandlingsfrågor behöver inte juridiskt språk; de behöver tydlighet. När ni pratar med leverantörer letar ni efter tecken på att de förstår utbildningsrisk och kan stödja er dokumentation.

Be leverantörer att visa, inte bara säga, hur produkten hanterar identitet, lagring och tillsyn. Ni kan använda en kort checklista som:

  • Vilka data lagras, var och hur länge? Kan vi styra lagringstid?
  • Används någon elevprofilering eller bestående spårning som standard?
  • Kan verktyget användas med anonymiserade indata och ändå vara användbart?
  • Fattar verktyget någonsin automatiserade beslut eller rangordnar elever på sätt som kan styra utfall?
  • Vilket granskningsspår finns för personalens åtgärder och AI-resultat?
  • Hur hanterar ni modelluppdateringar och förändringar som påverkar kvaliteten på resultaten?
  • Kan vi få tydlig vägledning för personal om ”säkra prompts” och förbjudna indata?

Varningsflaggor inkluderar vaga svar om lagringstid, ”vi förbättrar modellen med era data som standard”, oförmåga att förklara underbiträden och påståenden om att verktyget är ”GDPR compliant” utan detaljer. Om en leverantör inte kan stödja transparens och tillsyn kommer er skola att bära den bördan ensam.

Dokumentationspaket

Ett lättviktigt dokumentationspaket hjälper er att visa god styrning utan att göra det till ett juridiskt projekt. Håll det kort, återanvändbart och kopplat till verkliga arbetsflöden.

För upphandling, dokumentera verktygets syfte, avsedda användare, datakategorier, lagringstid och en sammanfattning av risker och åtgärder. För piloter, lägg till en kort utvärderingsnotis: vad som fungerade, vad som gick fel och vilka skyddsåtgärder som behövdes. För löpande användning, håll en ändringslogg: nya funktioner, nya användningsfall och eventuella incidenter.

Om ni vill ha en rytm för att granska dessa dokument, anpassa den till befintliga cykler. Många skolor tycker att det är lättare att köra en kort ”AI-grund sprint” i slutet av terminen, så att september startar lugnt och organiserat. Strukturen i en AI-grund sprint under sommarterminen kan få detta att kännas som skolutveckling snarare än regelefterlevnadsteater.

En 30-dagarsplan

Första veckan: välj era tre viktigaste AI-användningsfall och skriv ”godkända arbetsflödeskort” för varje: tillåtna indata, obligatoriska kontroller och var utdata får sparas. Skapa samtidigt en transparensnotis på en sida som personal kan använda när AI har stöttat kommunikation eller återkoppling.

Andra veckan: bygg ert verktygsregister och lägg in verktygen som redan används. Det är ofta nu ni upptäcker ”skugg-AI”-konton. Behandla det som ett lärandetillfälle, inte en skuldbeläggning. Kom överens om vilka verktyg som pausas tills de har granskats.

Tredje veckan: kör ett kort personalpass som tränar på att anonymisera prompts och göra mänskliga kontroller. Använd verkliga exempel: skriva om ett känsligt mejl, skriva ett stycke till en stödplan utan identifierare eller skapa differentierade frågor utifrån en generell text.

Fjärde veckan: gör en mini-granskning: ta ett urval av några AI-stödda texter och kontrollera om era tre icke förhandlingsbara principer syns. Uppdatera era arbetsflödeskort utifrån det ni lär er och sätt sedan ett datum för nästa översyn.

Bilaga: kopiera-och-anpassa-mallar

Ett verktygsregister kan vara så enkelt som en delad tabell med fält för verktygsnamn, ansvarig, syfte, användargrupp, datakategorier, lagringstid, underbiträden, godkända användningsfall, förbjudna användningsfall och granskningsdatum. Lägg till en kolumn för ”LGR22-värdekoll”, där ni noterar eventuella frågor kring demokrati, rättigheter eller etik och hur ni hanterade dem.

En transparensnotis kan vara ett kort stycke som personal kan klistra in i intern dokumentation eller, där det är lämpligt, extern kommunikation: ”AI användes som stöd för utkast och språklig tydlighet. En medarbetare granskade och redigerade den slutliga texten. Inga automatiserade beslut fattades.” Håll det enkelt och håll det ärligt.

En ”klistra aldrig in”-lista för personal bör vara kort nog att komma ihåg. Ta med personnummer, fullständiga namn i känsligt sammanhang, hälsoinformation, uppgifter kopplade till trygghet/skydd och alla dokument som innehåller särskilda kategorier av personuppgifter. Para ihop den med ett positivt alternativ: använd platshållare, sammanfatta utan identifierare eller använd godkända interna verktyg som är utformade för skyddade data.

Mot en stadigare, mer värderingsstyrd AI-användning i er skolvardag. The Automated Education Team

Innehållsförteckning

Kategorier

Administration

Taggar

Lgr22 Eu ai act Ai governance

Senaste

Alternativa språk