
Sammanfattning
Sedan september är den praktiska förändringen för skolor inte att ”AI kom”, utan att fler AI-ytor nu ligger närmare vardagliga Classroom-rutiner. I oktober 2025 är Googles Workspace AI-upplevelser mer tätt invävda i skrivande, sammanfattning och utkastskapande i kärnappar, och Classroom-arbetsflöden ”föreslår” i allt högre grad AI-hjälp i själva handlingsögonblicket. Det förändrar den operativa risken: lärare och elever använder AI oftare som standard om ni inte medvetet begränsar det. Om ni använde vår stabilitetsansats i september bör den här uppdateringen hanteras som ett kontrollerat förändringsfönster snarare än en ny utrullning (stabilitetskarta för september 2025).
Det som inte har förändrats är kärnkravet på styrning: ni behöver fortfarande tydlig rollbaserad åtkomst, åldersanpassade gränser och dokumenterade beslut. Förväntningarna i UK GDPR är desamma: ändamålsbegränsning, dataminimering, transparens och en DPIA när risken ökar. Det största ”nya” arbetet i oktober är att kontrollera om tidigare tysta inställningar nu har nya användarnära ingångar, och om loggning och lagringstid är tillräckliga för safeguarding.
Beslutstabell för UK-skolor
Ett användbart sätt att informera SLT är att bestämma vad ni vill ska hända för varje grupp när AI-promptar dyker upp i Classroom och Workspace. I oktober kommer många skolor att landa i ”pilot för personal, begränsat för elever”, men detaljerna spelar roll.
För elever i primary är en vanlig hållning att hålla elevnära generativa AI-upplevelser avstängda (eller hårt begränsade) och tillåta användning endast för personal för planering och resursframtagning. För elever i secondary kan ni pilottesta begränsad elevanvändning i låginsatsuppgifter (till exempel att brainstorma alternativa förklaringar i naturvetenskap) samtidigt som användning kopplad till bedömning hålls tydligt avgränsad, i linje med er ansats för provintegritet (trafikljus för provperioden).
För personal tenderar beslutet att delas upp efter roll. Klassrums-/ämneslärare kan få tillgång för utkast, sammanfattningar och förberedelse av återkoppling, medan elevhälsa/pastorala team kan behöva begränsas om innehållet ofta inkluderar särskilda kategorier av personuppgifter. Administrativ personal kan få tillgång för generella utskick men blockeras från att använda AI med elevregister. För IT/admin: aktivera de kontroller och den rapportering som behövs för att kunna styrka efterlevnad, inte ”allt på”.
Om ni behöver en enkel operativ hållning: aktivera för personal i en definierad OU, pilottesta för äldre elever i en definierad OU med tydliga klassrumsregler, och inaktivera i övrigt tills er DPIA och kommunikation är klara. Om ni uppdaterar er policy för acceptabel användning den här terminen, se detta som utlösande punkt för att uppdatera formuleringar så att de stämmer med vad användare faktiskt ser på skärmen (checklista för AUP-uppdatering).
Karta över administratörskontroller
I oktober 2025 är den viktigaste admin-uppgiften att bekräfta var AI styrs i Google Admin console, och att säkerställa att era organisatoriska enheter (OU:er) speglar era avsedda gränser. Googles benämningar ändras över tid, men kontrollmönstret är stabilt: AI-inställningar ligger under inställningar för Workspace-tjänster, och Classroom-beteende styrs vanligtvis av Classroom-tjänstinställningar plus användarbehörigheter.
Börja i Google Admin console och arbeta OU-först (t.ex. Staff, Sixth Form, KS4, KS3, KS2). För varje OU: kontrollera tre saker: om relevant AI-upplevelse är aktiverad, om kontroller för dataanvändning/träning är inställda som förväntat, och om granskning/auditering är tillgänglig.
Du hittar vanligtvis de viktigaste reglagen här:
- Apps → Google Workspace → (Gemini / generative AI features): här bekräftar du vem som kan få tillgång till Workspace-övergripande AI-assistans och i vilka appar. Oktobers kontrollpunkt är om några ”help me write/summarise”-upplevelser nu är på som standard för en OU som ni inte avsåg.
- Apps → Google Workspace → Google Classroom: bekräfta Classroom-tjänstens status per OU och granska inställningar som påverkar skapande av uppgifter, originality/plagiarism-verktyg samt delnings-/synlighetsbeteenden. Risken i oktober är att nya AI-ingångar dyker upp i lärararbetsflöden även när ni trodde ”vi använder inte AI i Classroom”.
- Security → Access and data control: bekräfta grundläggande delningskontroller, åtkomst för tredjepartsappar och om användare kan koppla externa AI-verktyg. Även om Googles AI är kontrollerad kan oövervakade tillägg återinföra risk.
- Reporting / Audit and investigation: bekräfta vad ni kan styrka med underlag. Om en safeguarding-fråga uppstår behöver ni kunna visa vad som var aktiverat, för vem och när. Om er loggning är tunn kommer er ”policy” inte att hålla särskilt väl vid granskning.
Se varje inställning som ett svar på en fråga på klarspråk: ”Kan den här användaren generera text från promptar?”, ”Kan de göra det i skolkonton?”, ”Loggas det?”, och ”Kan vi begränsa efter åldersgrupp?” Om ni kör en snabb utvärderingsinsats, håll den snävt avgränsad och tidsatt, med en skriftlig ”stopp”-regel om oväntade data dyker upp i promptar (utvärderingssprinter på en vecka).
Dataskydd och safeguarding
För UK-skolor bör oktoberuppdateringen behandlas som ett DPIA-översynstillfälle om något av följande stämmer: elevåtkomst utökas; nya AI-funktioner dyker upp i kärnappar; personal kommer sannolikt att klistra in elevarbeten eller anteckningar från pastoral/elevhälsa; eller systemet börjar generera innehåll som kan påverka beslut om elever. En DPIA är inte pappersarbete för sin egen skull; det är ert underlag för att ni identifierade risker och införde kontroller.
Era röda linjer bör vara tydliga och upprepas i utbildning: inga promptar som innehåller safeguarding-uppgifter, elevmedicinska detaljer, SEND-ärenden, socialtjänstinformation eller något som kan identifiera ett barn i ett känsligt sammanhang. Även när ett verktyg är ”inom Workspace” tillämpar ni fortfarande dataminimering. Lärare bör coachas att använda anonymiserade utdrag, påhittade exempel eller aggregerade mönster.
Lagringstid och loggning spelar roll av två skäl. För det första safeguarding: om en AI-interaktion är inblandad i en oro (till exempel att en elev genererar skadligt innehåll) behöver ni en tydlig väg för att granska vad som hände. För det andra ansvarsskyldighet: om en föräldraförfrågan eller en ICO-liknande fråga uppstår behöver ni kunna visa era inställningar, er kommunikation och er utbildning. Om ni bygger ett bredare efterlevnadspaket för 2025–26, samordna detta med er läroplans- och styrningsdokumentation så att ni inte dubbelarbetar (implementeringspaket).
Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.
Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.
🎓 Registrera dig GRATIS!
Lärararbetsflöden som fortfarande fungerar
Den säkraste hållningen i oktober är att behålla lärarnas tidsbesparare, men utforma dem så att de inte kräver personuppgifter. Följande tre arbetsflöden är fortsatt användbara även under strikta integritetskrav.
För planering kan en lärare be om en lektionssekvens med enbart kurs-/läroplansmål och generell klasskontext. Till exempel: ”Skapa en lektionsplan på 45 minuter om övertygande retoriska grepp för en Year 9-grupp med blandade förkunskaper, med en retrieval-starter och hinge questions.” Resultatet blir ett utkast, inte ett manus, och läraren anpassar det till sin klass. Detta är ”lite data, högt värde” eftersom det inte använder någon elevinformation.
För förberedelse av återkoppling är den integritetsminimerade ansatsen att generera framgångskriterier, vanliga missuppfattningar och meningsstommar för återkoppling innan man tittar på elevarbeten. En lärare kan prompta: ”Ge fem vanliga missuppfattningar vid lösning av simultana ekvationer och korta återkopplingspromptar för att bemöta varje.” Sedan, vid rättning, väljer de från förberedda formuleringar i stället för att klistra in elevsvar i AI. Detta passar väl med evidens-först-rutiner för skrivande och återkoppling, där läraren förblir beslutsfattaren (evidens-först skrivundervisning).
För klassrumsmaterial: använd AI för att skapa flera versioner av samma resurs utan att hänvisa till individuella behov. En lärare kan be: ”Skapa tre läsförståelsefrågor på nivåerna lätt/medel/utmaning för den här 200-ords texten som jag skrev.” Om originaltexten är lärarskriven och inte elevarbete minskar integritetsrisken. När tillgänglighet är en prioritet, bygg in anpassningar som förenklat språk, tydligare layoutsignaler och förundervisning av ordförråd, och håll besluten förankrade i er inkluderingsstrategi snarare än nyhetens behag (guide till tillgänglighetsteknik).
Elevnära användning
Om ni tillåter elevåtkomst i oktober: sätt gränser som elever kan förstå och personal kan upprätthålla. Kontoåtkomst bör ske via hanterade skolkonton בלבד; undvik att elever använder personliga konton på skolenheter, vilket försvårar samtycke, loggning och safeguarding-respons. Håll ”varför” enkelt: skolkonton gör att ni kan skydda dem, stödja dem och utreda oro.
Åldersanpassade gränser bör synas i användningsögonblicket. I praktiken betyder det en kort uppsättning klassrumsregler, en påminnelse om att inte dela personuppgifter och tydliga exempel på tillåtna och förbjudna uppgifter. För äldre elever: var tydlig kring bedömningsintegritet. Om AI får användas för planering kan det ändå vara förbjudet för slutlig inlämning i vissa uppgifter. Där det är möjligt: utforma bedömningar som värderar process—skrivande i klass, muntligt försvar, utkast med kontrollpunkter och källbaserade uppgifter.
Slutligen: förbered personalen på den beteendemässiga verkligheten. Om AI-förslag syns i gränssnittet kommer elever att klicka på dem. Era kontroller och rutiner måste utgå från att nyfikenhet, inte illvilja, är den främsta drivkraften.
Implementeringsplan för oktober
Behandla oktober som en operativ månad: kommunicera, utbilda, övervaka och styrk med underlag. Börja med ett kort meddelande till personalen som förklarar vad som har förändrats på skärmen, vad som är tillåtet och vad de ska göra om de är osäkra. Följ snabbt upp med en 30-minuters mikroutbildning som fokuserar på ”integritetsminimerad prompting” och ”vad man inte ska klistra in”, gärna övat med verkliga läroplansexempel. Om ni behöver en färdig struktur för detta: anpassa era befintliga INSET-mikrorutiner så att vanan blir konsekvent mellan ämneslag (INSET-mikrorutiner).
Övervakning bör vara lätt men verklig. Bekräfta inställningar per OU, provta användarupplevelser på olika konton och schemalägg en tvåveckors avstämning under den första månaden. Om ni har en incidentväg för onlinesäkerhet: lägg till en AI-specifik gren—vad som ska fångas, vem som ska informeras och hur bevis ska säkras.
För att hjälpa SLT, DSL och DPO att styrka beslut: använd den här checklistan som ert ”paket” för oktober:
- Dokumentera datumet då ni granskade Workspace/Classroom AI-inställningar, per OU, med skärmbilder eller exporterade inställningar där det är möjligt.
- Logga era beslut om aktivera/pilottesta/inaktivera per roll och ålders-/stadieindelning, inklusive motivering och datum för översyn.
- Uppdatera personalstöd: ett ensidigt blad om ”säker prompting” och en tydlig lista över rödlinjedata.
- Bekräfta er DPIA-position: antingen en uppdaterad DPIA, eller en dokumenterad motivering till varför en DPIA inte krävs i detta skede.
- Bekräfta loggning och safeguarding-respons: vad som kan auditeras, vem som har åtkomst och hur länge loggar sparas.
- Uppdatera er AUP och elevguidning, och styrk att den delades.
- Tillhandahåll en kort utbildningsnotering för personal (bilder/slides, närvaro och det överenskomna klassrumsskriptet).
- Lägg till en notering om bedömningsintegritet för ämneslag, i linje med era provgränser.
Må er utrullning i oktober bli lugn, kontrollerad och väl styrkt med underlag.
The Automated Education Team