AI-revision vid läsårets slut: evidenspaket

Förvandla AI-piloter till beslut, evidens och nästa steg

En skolledningsgrupp som granskar ett evidenspaket för en AI-revision

Vad det är (och inte är)

En AI-revision vid läsårets slut är en skolövergripande inventering av varje AI-pilot, test eller ”tyst införande” som har skett i år, följt av ett disciplinerat beslut: behåll, stoppa eller skala. Resultatet är inte en glansig innovationsrapport. Det är ett evidenspaket som du kan lägga fram för SLT och styrelse och som visar att ni förstår effekt, risk, kostnad och nästa steg.

Det är inte heller en häxjakt. Revisionen ska inte användas för att sätta dit personal för att de har experimenterat, och inte heller för att i efterhand förbjuda verktyg bara för att de känns obekanta. Gjort på rätt sätt skyddar den professionellt omdöme genom att göra förväntningar tydliga: vad som räknas som acceptabel användning, vilken evidens som är ”tillräcklig” och vad som måste ändras innan en bredare utrullning.

Ägarskap spelar roll. En praktisk modell är delat ägarskap mellan en senior ledare (för att besluten ska få genomslag), en ansvarig för safeguarding eller elevhälsa/pastoralt ansvar (för att stresstesta risk), och den som har ansvar för dataskydd. En digitalt ansvarig eller en ansvarig för undervisning och lärande kan driva processen i vardagen, men revisionen behöver mandat bakom sig. Om ni redan gör terminsavslutande uppföljningar kan ni samordna detta med er befintliga cykel; strukturen i vårt ramverk för terminsutvärdering kan anpassas till en årlig version.

Kom igång på 45 minuter

Börja med ett enda register över AI-piloter. Håll det lättviktigt, men tillräckligt komplett för att någon utanför projektet ska förstå vad som hände och varför. I ett kort möte ber du varje pilotansvarig att ange verktyget, användningsfallet och målgruppen. Fånga sedan dataflödet och kostnaden, eftersom det är de detaljerna som blir brådskande när ni skalar.

Registret ska läsas som en karta över ”var AI berörde skolan”. Till exempel kan ett ämneslag ha använt ett AI-verktyg för att skapa första utkast till återkopplingskommentarer för äldre elever, medan ett elevhälsoteam testade en chatbot för att hänvisa till välmåenderesurser. Det är helt olika riskprofiler, även om båda kallas ”AI”.

Som minimum, fånga: verktygsnamn och version; vem som använde det (personalroller); vilka elever som påverkades (direkt eller indirekt); vilken data som matades in (inklusive om elevarbeten laddades upp); vad som kom ut (resurser, återkoppling, analys); var det lagrades; och vad det kostade (inklusive dolda kostnader som personaltid, licenser och utbildning). Om ni har byggt upp repeterbara rutiner, länka varje pilot till det arbetsflöde den stödde; det gör det enklare att avgöra vad som ska standardiseras nästa år, som vi tar upp i att bygga AI-arbetsflöden som håller.

Kriterier för behåll, stoppa, skala

Ert behåll/stoppa/skala-beslut blir försvarbart när det följer överenskomna kriterier. Nyckeln är att undvika ”vi gillade det” och ersätta det med ”det uppfyllde dessa trösklar, med dessa skyddsåtgärder”. Ni kan fortfarande tillåta professionellt omdöme, men det ska vila ovanpå en gemensam uppsättning frågor.

Effekt bör definieras med det språk skolan redan använder. Om piloten syftade till att förbättra skrivkvalitet kan ni leta efter tydligare struktur, färre missuppfattningar eller förbättrade färdigställandegrader, inte bara ”bättre arbeten”. Arbetsbelastning bör också vara specifik: minskade den planeringstid, rättningstid eller administrationstid, och introducerade den nya uppgifter som att granska AI-utdata?

Likvärdighet är ofta där piloter tyst misslyckas. Ett verktyg som hjälper självsäkra elever att gå snabbare fram kan öka klyftor om andra saknar tillgång, ordförråd eller stöd. Integritet spelar också roll: om en pilot gjorde det lättare för elever att lämna in icke-originalt arbete kan ni besluta att stoppa den, eller behålla den endast med omdesignade uppgifter och tydligare förväntningar.

Safeguarding och dataskydd ska vara icke-förhandlingsbara grindar, inte ”överväganden”. Om ni inte kan förklara vilken data som delades, vart den tog vägen och vem som kan komma åt den, är ni inte redo att skala. Slutligen bör prisvärdhet inkludera alternativkostnad: ett ”billigt” verktyg som kräver ständig felsökning kan bli dyrare än ett dyrare, stabilt alternativ. Om ni ändå ser över er verktygsflora, samordna revisionen med en årlig uppdatering som AI-verktygsuppdatering 2025.

Minsta evidenspaket

Det minsta gångbara evidenspaketet är en medveten kompromiss: tillräckligt med evidens för att motivera beslut, men inte så mycket att ni tillbringar terminens sista veckor med pappersarbete. Sikta på en liten uppsättning artefakter per pilot som täcker effekt, arbetsbelastning, likvärdighet, safeguarding och kostnad.

För effekt, samla två eller tre konkreta exempel snarare än breda påståenden. Ett ämneslag kan inkludera ett kort ”före och efter”-exempel av en resurs, en liten uppsättning modererade elevresultat eller en enkel jämförelse mot en bedömningsmatris i en klass. För arbetsbelastning räcker ofta en snabb tidsuppskattning: ”att planera ett quiz tog 20 minuter i stället för 60” är mer användbart än en lång berättelse, särskilt om ni kan visa att det var konsekvent mellan personal.

För likvärdighet, titta efter mönster i deltagande och tillgång. Använde vissa grupper verktyget mindre, hade mindre nytta av det eller behövde mer stöd? En kort notering från SENCo eller ansvarig för inkludering kan vara stark evidens här, särskilt om den identifierar justeringar som behövs nästa år. För safeguarding och dataskydd, inkludera verktygets viktigaste inställningar, vilken loggning som finns och om några incidenter inträffade. För kostnad, inkludera licenskostnader, eventuella enhetskrav och den sannolika kostnaden i skala vid utrullning.

Vad ni inte ska samla: hamstra inte elevdata ”utifall att”; exportera inte stora loggar utan ett tydligt syfte; och skapa inte ny uppföljning som blir permanent arbetsbelastning. Evidenspaketet handlar om beslut, inte övervakning.

Återkoppling utan brus

Intressenters återkoppling kan lätt bli en hög av motsägelsefulla åsikter. Håll den strukturerad och tidsatt. En snabb personalpuls kan vara en femminutersenkät med tre frågor: vad använde du, vad förändrades i din arbetsbelastning och vad skulle du varna andra för? Följ upp med ett kort fokussamtal per fas eller ämneslag för att fånga nyanser, särskilt där personal behövde granska AI-utdata noggrant.

Elevrösten bör kopplas till det faktiska användningsfallet. Om elever använde AI för återkoppling, fråga om det hjälpte dem att förbättra sig och om de förstod vad som förväntades av dem. Om AI påverkade lektionsmaterial, fråga om materialen var tydligare och mer tillgängliga. Undvik allmänna frågor som ”gillar du AI?”; de skapar hetta, inte evidens.

Kommunikation med vårdnadshavare förbises ofta tills något går fel. En kort notis vid läsårets slut som förklarar vad som testades, varför och vad som förändras nästa år kan bygga förtroende. Styrelsen ställer vanligtvis förutsägbara frågor: vilken data som delades, vilka kontroller som finns, vad skolan gör om en leverantör ändrar villkor och hur akademisk integritet skyddas. Förbered korta, lättbegripliga svar och inkludera dem i evidenspaketet.

Redo att revolutionera din undervisningsupplevelse?

Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.

Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.

🎓 Registrera dig GRATIS!

Riskgenomgång

Er riskgenomgång bör inkludera både dagens verklighet och morgondagens sannolika förändringar. Börja med integritet och dataskydd: identifiera vilka piloter som involverade personuppgifter, vilka som förlitade sig på tredjepartsbiträden och om personuppgiftsbiträdesavtal eller villkor för acceptabel användning fanns på plats. Bekräfta lagrings-/bevarandetider och raderingsvägar, eftersom ”vi kan inte radera det” är en varningssignal.

Titta sedan på leverantörsförändringar. Många AI-verktyg uppdateras snabbt, och funktioner kan dyka upp mitt under året som förändrar risk. Ett verktyg som var en enkel textgenerator kan bli ”agentic”, vilket innebär att det kan utföra handlingar, koppla till externa tjänster eller få åtkomst till bredare data. Även om ni inte aktiverar dessa funktioner bör revisionen notera om de finns, vem som kan slå på dem och hur ni skulle få veta om inställningar ändrades.

Loggning och åtkomstkontroll är era praktiska skyddsåtgärder. Kan ni se vem som använde verktyget, när och i vilket syfte? Är konton kopplade till skolidentiteter, eller använder personalen privata inloggningar? Om en medarbetare slutar, kan ni återkalla åtkomst omedelbart? De här detaljerna är inte glamorösa, men det är exakt det som gör skalning säker.

Slutligen, kontrollera policyanpassning. Om er AI-praktik har sprungit förbi era skriftliga policys är sommaren er chans att komma ikapp. Håll koll på uppdateringar och vägledning genom en levande process som AI-policybevakning, men översätt alla förändringar till skol-specifika förväntningar.

Sommarens handlingsplan

Poängen med revisionen är inte bara att döma det förflutna, utan att rigga nästa läsår. En sommarhandlingsplan fungerar bäst när den är tidsatt och har tydliga ägare. Tänk i 30/60/90-dagarsuppgifter: vad måste vara klart innan personalen är tillbaka, vad kan byggas under första halvterminen och vad bör vänta tills rutinerna sitter.

Under de första 30 dagarna, fokusera på beslut och hygien. Bekräfta vilka verktyg som behålls, stoppas eller skalas. Stäng konton för stoppade piloter, ta bort integrationer och radera data där det är lämpligt. Ta fram eller uppdatera förväntningar för acceptabel AI-användning för personal och elever, och förbered en kort utbildningsnotis som förklarar ”hur bra ser ut” för de verktyg som behålls.

I 60-dagarsfönstret, koncentrera er på förmåga. Planera CPD som är specifik för era valda arbetsflöden, inte generell ”AI-medvetenhet”. Om ni till exempel skalar AI-stödd återkoppling, utbilda personal i promptdisciplin, bias-kontroll och hur man håller återkopplingen i linje med era bedömningsprinciper. Upphandling hör också hemma här: gå från ad hoc-köp till godkända verktyg med tydliga avtal, namngivna administratörer och överenskomna inställningar.

Efter 90 dagar bör ni vara i läget att förankra och utvärdera. Bygg en lätt uppföljningsrytm, till exempel en halvtidsavstämning varje halvtermin med samma registerfält. Uppdatera även policys som berör AI indirekt, såsom bedömningsintegritet, förväntningar på läxor och rapporteringsvägar för safeguarding. Tilldela varje uppgift en ansvarig och en deadline; utan det blir en ”sommarhandlingsplan” önsketänkande.

Rapportering

För SLT och styrelse, ta fram en sammanfattning på en sida som ligger ovanpå evidenspaketet. Den ska ange: hur många piloter ni genomförde; hur många som behålls/stoppas/skalas; de tre största nyttorna ni såg; de tre största riskerna ni hanterade; och vilka beslut ni behöver få bekräftade (till exempel upphandlingströsklar eller policyuppdateringar). Tonen ska vara lugn och saklig: ni visar kontroll, inte säljer en trend.

För personalen, skriv en separat notis om ”vad som förändras nästa år”. Det är här ni skyddar moralen. Nämn vilka verktyg som är godkända, vilka användningsfall som uppmuntras och vilka gränser som håller alla säkra. Ta med ett kort exempel: ”Du får använda Tool X för att utforma ett quizutkast, men du måste kontrollera korrekthet och ta bort alla personuppgifter.” Personalen behöver inte hela evidenspaketet, men de behöver tydlighet, konsekvens och en väg att ställa frågor.

Må ert nya läsår börja med tydliga beslut och lugnare system.
The Automated Education Team

Innehållsförteckning

Kategorier

Utbildning

Taggar

AI i utbildning Administration Strategier

Senaste

Alternativa språk