
Varför januari 2025 spelar roll
Första halvan av 2025 är då AI i utbildning slutar vara ett sidoprojekt och börjar framstå som ett ledningsansvar. Generativ AI är nu inbyggd i vanliga verktyg, från kontorssviter till lärplattformar, och regeringarna håller på att komma ikapp.
Du har kanske redan ett enkelt AI‑uttalande inskrivet i din digitala policy eller din policy för undervisning och lärande. Men med uppdaterad vägledning från Department for Education (DfE), EU:s AI‑förordning på väg in i viktiga genomförandefaser och tillsynsmyndigheter som skärper fokus på dataskydd och trygghetsskapande arbete kommer inspektörer och styrelser att förvänta sig något mer konkret.
Den här artikeln erbjuder en “policyradar” vid terminsstart för januari–juli 2025. Den fokuserar på vad som faktiskt behöver ändras i år, hur du visar att ni använder AI ansvarsfullt och hur det kan göras genom att förfina det ni redan har i stället för att börja om. För bredare kontext kring trender kan vår rapport om AI-läget i brittisk utbildning också vara till hjälp.
Den nya spelplanen i korthet
Över olika system är det tre huvudspår som formar förväntningarna på skolor och högskolor:
För det första nationell vägledning, såsom DfE:s AI‑vägledning för utbildningsverksamheter och relaterade uppdateringar om digitalisering och dataskydd. Dessa dokument föreskriver inte specifika verktyg, men de anger principer och förväntningar kring riskbedömning, styrning och personalens kompetens.
För det andra EU:s AI‑förordning, som klassificerar AI‑system efter risk och ställer särskilda krav på “högrisk”‑användningar, inklusive många utbildningsrelaterade system. Även för brittiska verksamheter spelar det roll om ni använder plattformar baserade i EU eller stödjer elever/studenter i EU, och förordningen påverkar vad leverantörer lovar i sina avtal.
För det tredje befintliga ramverk, särskilt dataskydd, trygghetsskapande arbete och upphovsrätt. Tillsynsmyndigheter är tydliga med att AI inte är en separat kategori; det ryms inom era befintliga skyldigheter. Om ett AI‑verktyg behandlar elevdata måste det uppfylla samma standarder som alla andra system.
Budskapet är konsekvent: ni behöver inte en separat AI‑byråkrati, men ni behöver visa att AI är invävt i era befintliga processer för risk, undervisning och styrning.
DfE och uppdateringar i Storbritannien
För skolor och högskolor i Storbritannien kan DfE:s AI‑vägledning och relaterade uppdateringar kokas ned till några förväntningar som är realistiska att hantera den här terminen.
Ledare bör kunna beskriva, med vardagligt språk, hur AI används i verksamheten och varför. Detta omfattar både avsiktliga användningar, såsom AI‑skrivstöd för personal, och oavsiktliga användningar, såsom inbyggda AI‑funktioner i kontorsprogram. Ett kort register över centrala AI‑användningar, ägt av en senior ledare, är nu en rimlig miniminivå.
Policyer bör visa att AI beaktas i trygghetsskapande arbete, ordningsfrågor och bedömning. Det betyder inte att AI‑genererat arbete förbjuds, utan att det är tydligt när AI‑stöd är acceptabelt, hur akademisk integritet upprätthålls och hur AI‑möjliggjorda innehållsrisker (till exempel deepfakes eller skadliga uppmaningar) hanteras.
DfE betonar också personalens kompetens. Inspektörer och styrelser kommer i allt högre grad att fråga hur ni stöttar personalen att använda AI säkert och effektivt, inte om varje lärare är expert. En enkel årlig utbildningscykel, i linje med ert digitala trygghetsarbete och er bedömningspraxis, är oftast tillräcklig.
För en bredare förberedelselista kan du återvända till vår checklista för AI‑beredskap i september och anpassa den för en genomgång mitt i läsåret.
EU:s AI‑förordning på enkel svenska
EU:s AI‑förordning är komplex, men för skolor och högskolor finns tre nyckelidéer.
AI‑system som används i utbildning kan klassas som “högrisk” om de i betydande grad påverkar tillgången till utbildning eller bedömningsresultat. Exempel är automatiserad tentamensbevakning, antagningsverktyg eller analysverktyg som påverkar beslut om progression. Högrisk‑system måste uppfylla strikta krav på transparens, mänsklig översyn och robusthet.
General-purpose AI (GPAI)‑modeller, såsom large language models, regleras främst på leverantörsnivå, men verksamheter har fortfarande skyldigheter när de integrerar dessa verktyg i undervisning och administration. Du bör förvänta dig att leverantörer ger tydligare dokumentation om hur deras AI‑funktioner fungerar och vilka skyddsmekanismer som finns.
Även om du befinner dig utanför EU kan du använda plattformar baserade i EU eller ha elever/studenter i EU. I praktiken innebär detta att dina upphandlings- och dataskyddsdiskussioner bör inkludera frågor om AI‑riskklassificering, leverantörens efterlevnad av AI‑förordningen och hur de stödjer era skyldigheter kring trygghet och likvärdighet.
Den viktigaste implikationen för ledare är inte att själva klassificera verktyg, utan att se till att avtal och due diligence speglar dessa nya förväntningar.
Dataskydd, trygghet och upphandling
De mest omedelbara förändringarna för januari–juli 2025 ligger i era risk- och upphandlingsprocesser snarare än i klassrummet.
När ni genomför eller uppdaterar konsekvensbedömningar avseende dataskydd (DPIA) behöver ni nu uttryckligen beakta AI‑funktioner. Det inkluderar var data lagras, om den används för att träna modeller och hur länge den sparas. Många befintliga DPIA:er kan uppdateras med ett extra avsnitt i stället för att skrivas om helt.
Trygghetsskapande policyer bör erkänna risker med AI‑genererat innehåll och möjligheten till missbruk, såsom AI‑assisterad mobbning eller fejkade bilder. Detta hanteras bäst genom att integreras i ert befintliga ramverk för nätmobbning, onlinesäkerhet och digitalt medborgarskap, snarare än som en separat fråga. Vår artikel om digitalt medborgarskap och AI erbjuder praktiska klassrumsperspektiv.
Upphandlingsprocesser behöver en lätt men tydlig AI‑lins. När ni tar in nya system, be leverantörer förklara vilka delar av deras produkt som använder AI, vilka data som behandlas och hur de följer relevanta regler, inklusive EU:s AI‑förordning om den är tillämplig. Detta kan fångas i en enkel AI‑riskchecklista som bifogas er vanliga upphandlingsdokumentation.
Att omsätta policy i praktik
Prioriteten för skolledare den här terminen är att översätta dessa förväntningar till synliga, hanterbara åtgärder.
Många verksamheter väljer att lägga till ett kort AI‑avsnitt i en befintlig digital strategi eller dataskyddspolicy i stället för att ta fram en helt ny AI‑policy. Detta avsnitt beskriver vanligtvis verksamhetens principer för AI‑användning, såsom mänsklig översyn, likvärdighet, transparens och dataminimering, och hänvisar vid behov till mer detaljerade rutiner.
I praktiken kan ni till exempel pilottesta AI för några tydligt definierade administrativa uppgifter, såsom att formulera brev eller sammanfatta dokument, samtidigt som ni sätter tydligare ramar kring mer känsliga användningar, såsom bedömning eller beslut om stödinsatser. Nyckeln är att visa att AI‑användningen är ändamålsenlig, genomgången och proportionerlig.
I klassrummen kan ni rama in AI som ytterligare ett verktyg som stödjer lärande, inte som en ersättning för tänkande. En högskola kan till exempel tillåta studenter att använda AI för att skapa utkast till dispositioner men kräva att de kommenterar och kritiskt granskar resultatet och gör sitt eget resonemang tydligt.
Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.
Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.
🎓 Registrera dig GRATIS!
Att arbeta med personal, elever/studenter och vårdnadshavare
Policy fungerar bara om människor förstår den. Målet för 2025 är inte att utbilda alla till AI‑specialister, utan att ge varje grupp tillräcklig tydlighet för att agera säkert och med självförtroende.
För personal är korta, scenariobaserade pass mer effektiva än långa föreläsningar om reglering. Ni kan till exempel utforska hur man bör agera om en elev lämnar in AI‑genererat arbete, hur man upptäcker AI‑hallucinationer i innehåll eller hur man använder AI‑planeringsverktyg utan att klistra in känsliga uppgifter i prompts. Att koppla detta till era bedömnings- och trygghetspolicyer gör det konkret.
Elever och studenter behöver tydlig vägledning om när AI är acceptabelt, hur de ska redovisa sin användning av AI och hur de kan tänka kritiskt kring AI‑genererad information. Att bygga in detta i befintliga lektioner i digital kompetens eller handledningstid är oftast bättre än att skapa en separat AI‑modul. Ni kan utgå från samma principer som ni använder för internetkällor och plagiat.
Vårdnadshavare oroar sig ofta både för överanvändning och för missade möjligheter. En sammanfattning på en sida, delad via era vanliga kanaler, kan förklara ert arbetssätt med enkla ord: vilka AI‑verktyg elever/studenter kan möta, hur ni hanterar risker och hur familjer kan stödja en sund användning hemma.
Underlag för inspektörer och styrelser
Inspektörer och styrelser förväntar sig inte perfektion, men de kommer att förvänta sig att ni tänker på AI på ett strukturerat sätt.
Ni bör kunna visa en enkel karta över var AI används i verksamheten, vem som ansvarar för översyn och hur risker bedöms. Detta kan vara ett kort register som listar centrala system, deras syfte, vilka data som behandlas och datum för genomgång.
Protokoll från lednings- eller styrelsemöten som visar att AI har diskuterats, med tydliga åtgärder, är starka bevis. Det gäller också kortfattade anteckningar om personalutbildning, elev-/studentvägledning och uppdaterade DPIA:er. Ni behöver inte glansiga strategidokument; ni behöver en sammanhängande pappersspårning.
Det kan också vara hjälpsamt att lyfta fram hur AI stödjer ert kärnuppdrag. Ni kan till exempel visa hur AI‑assisterad översättning har förbättrat kommunikationen med familjer, eller hur AI‑verktyg används för att differentiera material för elever/studenter med särskilda behov, inom tydliga etiska ramar. När frågor om upphovsrätt dyker upp kan vår guide om upphovsrätt och AI i skolan hjälpa dig att styra samtalet.
En enkel 90‑dagars handlingsplan
För att hålla detta hanterbart arbetar många ledare med en 90‑dagarsplan för våren och försommaren 2025.
Under den första månaden fokuserar ni på överblick och principer. Skapa eller uppdatera ert AI‑register, enas om ett kort set av verksamhetsprinciper för AI‑användning och identifiera era tre viktigaste AI‑beroende system. Börja gå igenom befintliga DPIA:er för dessa verktyg och lägg till AI‑specifika överväganden.
Under den andra månaden koncentrerar ni er på människor och rutiner. Genomför minst en personalgenomgång, uppdatera elev-/studentvägledning och er ordnings- eller policy för akademisk integritet så att AI nämns uttryckligen, och lägg till AI‑frågor i er upphandlingschecklista. Säkerställ att ansvariga för trygghet och onlinesäkerhet är samordnade.
Under den tredje månaden går ni över till trygghet och dokumentation. Slutför uppdaterade DPIA:er, dokumentera kortfattat lednings- och styrelsediskussioner om AI och planera in en lättare genomgång i början av nästa läsår. Till juli bör ni kunna visa ett tydligt, proportionerligt arbetssätt snarare än en engångsreaktion.
Hålla din AI‑radar uppdaterad
AI‑policy kommer att fortsätta utvecklas under 2025 och framåt, men grunderna kommer sannolikt inte att förändras dramatiskt: tydligt syfte, robust dataskydd, trygghet inbyggd från början och kontinuerlig kompetensutveckling för personal.
Du behöver inte följa varje regulatorisk detalj. Utse i stället en ansvarig (ofta ditt dataskyddsombud eller din digitala ledare) som bevakar centrala uppdateringar från regeringen, dataskyddsmyndigheten och större leverantörer, och som ger en kort AI‑uppdatering till ledningen en gång per termin. Att gå igenom verktyg och arbetssätt varje september, med hjälp av något i stil med en AI‑beredskapschecklista, kan hålla ert arbetssätt aktuellt utan ständig omstöpning.
Målet för januari–juli 2025 är enkelt: visa att er verksamhet använder AI genomtänkt, inom befintliga juridiska och etiska ramar, och att ni lär er och anpassar er i takt med att landskapet utvecklas. Med en fokuserad 90‑dagarsplan och en lätt men stabil policyradar kan ni möta förväntningarna utan att skriva om allt från grunden.
Lycka till med styrningen!
The Automated Education Team