Nationella läroplanen och AI: förändringar 2025–26

Ett måndag-morgon-paket för policy, bedömning och safeguarding

Skolledare som går igenom policyuppdateringar för AI och en checklista för bedömningens integritet

Vad är nytt för 2025–26

För de flesta skolor är den största förändringen inte en helt ny regel. Det är förväntningen att ni snabbt och med säkerhet kan visa hur ert arbetssätt kring AI hänger ihop över bedömning, safeguarding, läroplan och dataskydd. Vägledningslandskapet 2025–26 driver skolor mot färre vaga formuleringar (”AI kan användas på lämpligt sätt”) och mer operativ detalj (”de här uppgifterna tillåter AI på dessa sätt, och vi kan styrka autenticitet”).

En andra förändring är den växande betoningen på ”processbevis” för elevers arbeten. När kursarbete, NEAs och längre skrivuppgifter ingår, uppmuntras skolor att dokumentera hur arbetet producerades, inte bara vad som lämnades in. Om ni redan använder utkast, skrivkonferenser, versionshistorik och korta viva-liknande kontroller ligger ni före. Om inte, vill ni införa en enkel rutin nu, i stället för att släcka bränder under provsäsongen. Om du vill ha en praktisk gränsmodell är trafikljusmodellen i AI-gränser under provsäsongen en bra startpunkt.

Det som inte har förändrats är lika viktigt. Lärare gör fortfarande professionella bedömningar av elevers lärande. Fusk är fortfarande fusk, även om en chatbot gjorde det. Safeguarding-trösklar flyttas inte för att innehållet är syntetiskt. Och UK GDPR-principerna är fortsatt ryggraden i era databaserade beslut: laglig grund, dataminimering, transparens och säkerhet.

Ensidig korsreferens

Se 2025–26 som en korsreferens mellan fem ”ägare” av förväntningar: DfE (skolövergripande arbetssätt och säkerhet), Ofqual (integritet på kvalifikationsnivå), JCQ (centrets rutiner och processer för fusk), RSHE/PSHE (elevlitteracitet och risker) och dataskydd (UK GDPR och upphandling). De överlappar, men var och en efterfrågar olika typer av belägg.

DfE:s förväntningar handlar typiskt om er skolövergripande hållning: personalutbildning, konsekventa budskap till elever, safeguarding-vägar och rimliga verktygskontroller. Ofquals förväntningar fokuserar på autenticitet och rättvisa i reglerade kvalifikationer, så ni behöver tydlighet på ämnes- och uppgiftsnivå. JCQ:s förväntningar är operativa: vad ert center säger till kandidater, hur ni upptäcker och hanterar misstänkt fusk och hur ni dokumenterar beslut. RSHE/PSHE-förväntningar handlar om att lära elever att navigera AI-relaterade risker: deepfakes, samtycke, manipulation och rapportering. Dataskyddsförväntningar handlar om styrning: DPIAs där det behövs, avtal, lagringstider och transparens gentemot familjer.

Om ni försöker minska pappersarbetet, sikta på en sammanhållen policy-svit för ”AI i skolan” med bilagor, snarare än separata dokument som motsäger varandra. Ett bra sätt att stresstesta sammanhanget är att göra en kort intern granskning; strukturen i AI-revision vid läsårets slut kan anpassas för augustiplanering.

Uppdateringar för bedömningens integritet

Den praktiska förflyttningen 2025–26 är att behandla AI som vilket annat verktyg som helst som kan hjälpa eller hindra autenticitet, och att utforma bedömningsrutiner som gör autenticitet synlig. Skolor förväntas i allt högre grad göra tre saker bra: sätta tydliga gränser, undervisa dessa gränser explicit och spara enkla belägg när gränserna är viktiga.

För fusk och autenticitet: uppdatera kommunikation till kandidater och vårdnadshavare så att den är entydig kring vad som räknas som otillåten hjälp. Säkerställ sedan att ämneslag översätter detta till uppgiftsinstruktioner som elever faktiskt läser. En typisk måndag-morgon-åtgärd är att lägga till en kort ”AI-användningsförklaring” på framsidan av relevanta uppgifter: vad som är tillåtet (till exempel planeringsprompter), vad som inte är tillåtet (att generera färdig prosa) och vad som måste anges (till exempel om AI användes för att kontrollera stavning). Målet är inte att sätta dit elever; det är att ta bort rimlig förnekbarhet.

För kontrollerad bedömning och kursarbete: bygg in ”processbevis” i arbetsflödet. I engelska kan det vara en 10-minuters planering i klassrummet, ett första stycke skrivet under uppsikt och en kort lärarkonferens där eleven förklarar sina val. I naturvetenskap kan det vara kommenterade labbanteckningar, ett foto av resultattabeller och en kort muntlig kontroll av metod och variabler. Där digitala verktyg används, kom överens om vad ni samlar in: skärmbilder av versionshistorik, utkast-checkpoints eller en kort reflektionslogg. Upplägget som beskrivs i Skrivundervisning med processbevis först ligger väl i linje med den här riktningen, eftersom det gör processen undervisningsbar och bedömningsbar.

Säkerställ slutligen att er fuskprocess inte är teoretisk. Provsamordnare och SLT bör vara trygga med tröskeln för misstanke, vem som utreder, hur bevis lagras och hur beslut dokumenteras. En lugn, konsekvent process skyddar personalen lika mycket som den skyddar standarderna.

Konsekvenser för undervisning och läroplan

Ni behöver inte skriva om planeringar för att ”lägga till AI”. Ni behöver göra AI-litteracitet explicit på de ställen där elever redan möter kunskap, källor och omdöme. I historia kan det vara en kort aktivitet där man jämför ett stycke från en lärobok med en AI-genererad sammanfattning och sedan diskuterar utelämnanden och bias. I språk kan det vara att använda AI för att skapa övningsmeningar, följt av en lärarledd kontroll av stilnivå och korrekthet. I bild och media kan det vara en diskussion om upphov och stil, kopplad till praktiskt arbete.

Den enklaste läroplansförflyttningen till september är att enas om tre till fem ”AI-litteracitetsmoment” per årskurs som ämneslag kan lägga in i befintliga arbetsområden. Håll dem små och återanvändbara: hur man verifierar påståenden, hur man anger använd assistans, hur man känner igen syntetiska medier och hur man skyddar personuppgifter. Om du vill ha ett strukturerat sätt att fånga elevröster om vad som faktiskt händer, erbjuder Elevlyssningscykel för AI ett lättviktigt upplägg som kan informera dessa moment utan att bli ett stort projekt.

RSHE/PSHE och safeguarding

Safeguarding-team kommer sannolikt att känna av förändringarna 2025–26 tydligast kring deepfakes, tvång och reputationsskada. Elever behöver inte en teknisk föreläsning; de behöver tydliga normer, tydligt språk och en tydlig väg till hjälp. I RSHE/PSHE: behandla AI-möjliggjorda skador som en fortsättning på befintliga teman inom onlinesäkerhet: samtycke, makt, utnyttjande, mobbning och rapportering.

Ett praktiskt klassrumsskript spelar roll. Mentorer och PSHE-lärare gynnas av en kort, överenskommen uppsättning fraser som minskar panik och ökar benägenheten att berätta. Till exempel: ”Om en bild har skapats eller delats utan samtycke är det inte ditt fel, och vi kommer att hjälpa.” Eller: ”Om du är orolig att du kan ha delat något, berätta tidigt; då kan vi agera snabbare.” Koppla detta till era rapporteringsvägar, inklusive anonym rapportering där det finns, och till personalens ansvar för dokumentation och eskalering.

Deepfakes förtjänar explicit genomgång eftersom de suddar ut ”äkta” och ”falskt” på ett sätt som kan destabilisera tillit. En kort sekvens i medielitteracitet med säkra, förhandsvalda exempel kan hjälpa elever att förstå manipulation utan att oavsiktligt lära dem att skapa skadligt innehåll. Om ni utforskar syntetisk video i lärandet innehåller Sora i klassrummet en jordnära diskussion om arbetsflöden och säkerhet som kan informera personalutbildning.

Dataskydd i praktiken

Måndag-morgon-versionen av dataskydd är inte ”gillar vi det här verktyget?” utan ”kan vi motivera denna behandling?”. Börja med regler för minsta möjliga data: om ett verktyg kan fungera utan elevers personuppgifter, konfigurera det så. Om konton krävs, använd skolhanterade identiteter där det är möjligt och undvik att samla in känsliga uppgifter om det inte finns ett tydligt pedagogiskt behov.

DPIAs bör vara rutin för verktyg med högre risk, särskilt sådana som behandlar elevdata i stor skala, skapar profiler eller involverar nya leverantörer. Upphandling bör inkludera avtalskontroller av villkor för databehandling, lagringstider, underbiträden och internationella överföringar. Loggning och lagring kräver också beslut: vilka användningsloggar som sparas, vem som kan komma åt dem och hur länge. Transparens gentemot familjer bör vara på enkel engelska och praktisk, och förklara vilka verktyg som används, vilka data som ingår och vilka val som finns.

Om ni väger hosted kontra self-hosted-alternativ, eller överväger öppna modeller, kan beslutspunkterna i Meta Llama 4-beslutspaket hjälpa er att rama in risk, kostnad och kontroll utan att fastna i jargong.

Operativa förändringar före september

De mest effektiva skolorna kommer att göra en liten uppsättning synliga förändringar som personal kan följa utan ett flödesschema. Uppdatera er policy för acceptabel användning och personalens uppförandekod så att förväntningar kring AI är explicita, och justera sedan ämneslagens bedömningsuttalanden så att de ligger i linje med dessa gränser. Säkerställ att safeguarding-utbildning inkluderar AI-möjliggjorda skador och att personal vet hur de ska svara på uppgifter som rör syntetiska medier.

Redo att revolutionera din undervisningsupplevelse?

Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.

Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.

🎓 Registrera dig GRATIS!

Parallellt med utbildning: kontrollera verktygsinställningar. Stäng av onödig datadelning, inaktivera chatthistorik där det är lämpligt och standardisera åldersanpassad åtkomst. Kommunicera sedan tidigt: ett kort brev till familjer som förklarar ert arbetssätt, plus ”AI-trafikregler” för elever som matchar det lärare kommer att säga i klassrummet. Om du vill ha en snabb, praktisk upptrappningsplan inför september är AI foundations sprint en användbar mall för ett tvåveckors förberedelsefönster.

Rollbaserad åtgärdslista

SLT bör äga den sammanhållna policy-sviten och säkerställa att den går att undervisa: personal kan sammanfatta den på en minut och elever kan återge den. De bör också säkerställa att huvudmän/styrelse får en terminsvis ögonblicksbild av regelefterlevnad och incidenter.

DSL bör integrera AI-scenarier i safeguarding-utbildning och säkerställa att rapporteringsvägar täcker deepfakes, tvång och bildbaserade övergrepp. DSL behöver också en tydlig hållning kring hantering av bevis: vad som ska bevaras, hur man undviker att dela skadligt material igen och när externa myndigheter ska involveras.

Provsamordnaren bör uppdatera kandidat-instruktioner, centerpolicyer och personalbriefingar så att fuskprocesser uttryckligen inkluderar AI. De bör också samordna med HoDs kring gränsformuleringar på uppgiftsnivå för kursarbete och kontrollerad bedömning.

DPO/IT-ansvarig bör sätta standardinställningar för minsta möjliga data, genomföra DPIAs där det krävs och säkerställa att upphandling och avtal uppfyller UK GDPR-förväntningar. De bör också fastställa och dokumentera loggning/lagring och åtkomstkontroller.

HoDs och ämnesansvariga bör översätta policy till bedömningsdesign: lägga till AI-användningsförklaringar, bygga in checkpoints för processbevis och undervisa korta AI-litteracitetsmoment i befintliga arbetsområden. Mentorer bör förstärka det gemensamma språket i samlingar och mentorstid, särskilt kring rapporteringsvägar och samtycke.

Checklista för regelefterlevnad (utskrivbar)

Använd detta som ett underlag med belägg för huvudmän/styrelse och förberedelse inför inspektion. Håll det enkelt, daterat och lätt att hitta.

  • En daterad skolövergripande policy-svit för AI, inklusive bilagor för acceptabel användning, personaluppförande, bedömningens integritet och safeguarding
  • Ämneslagsuttalanden om AI-användning i centrala bedömningstyper (coursework/NEA, längre skrivuppgifter, läxor)
  • Kommunikation till kandidater och vårdnadshavare om AI och fusk, med datum och leveranssätt
  • Ett dokumenterat flöde för fuskprocessen, inklusive roller, bevis-hantering och dokumentation av beslut
  • Exempel på ”processbevis” i minst tre ämnen (mallar, checkpoints eller modereringsanteckningar)
  • RSHE/PSHE-kartläggning som visar var AI-litteracitet, deepfakes och samtycke undervisas
  • Personalutbildningsregister som täcker AI-säkerhet, bedömningens integritet och rapporteringsvägar
  • DPIAs (där det krävs), samt ett register över godkända AI-verktyg och deras dataprofiler
  • Leverantörsavtal/villkor för databehandling, beslut om lagringstider och en uppdatering av familjers integritetsinformation på enkel engelska
  • Anteckningar om verktygskonfiguration (inställningar, åldersbegränsningar, åtkomst till loggar) och ett årligt granskningsdatum

Vanliga fallgropar och varningssignaler

En vanlig fallgrop är att skriva en stark policy men lämna personalen att improvisera uppgiftsinstruktioner. Om ett ämneslag tillåter AI för planering och ett annat förbjuder all användning utan förklaring kommer elever att testa glappen. Standardisera i stället ett litet antal tillåtna användningssätt (planering, feedback, språkstöd) och kräv att användning anges när den förekommer.

En annan varningssignal är att förlita sig på ”AI-detektorer” som bevis. De kan vara opålitliga och kan introducera bias. Använd dem, om alls, som en signal för vidare utredning, inte som en dom. Prioritera processbevis, lärarens kännedom om elevens röst och korta samtal om autenticitet.

Slutligen: se upp för safeguarding-glidning, där deepfakes behandlas som ”bara online-drama”. Bildbaserade övergrepp, tvång och trakasserier kan eskalera snabbt. Personal behöver trygghet att agera, dokumentera och eskalera, även när mediet är syntetiskt.

Må er septemberimplementering bli lugn, konsekvent och väl underbyggd. The Automated Education Team

Innehållsförteckning

Kategorier

Administration

Taggar

Administration Bedömning Säkerhet

Senaste

Alternativa språk