
September 2025 på en sida
September innebär alltid brådska, men de klokaste AI-besluten den här terminen kommer att kännas medvetet oskyndade. Sedan våren och sommaren 2025 har skolor sett en verklig stabilisering i den dagliga användningen: färre samtal om ”veckans nya verktyg”, tydligare inköpsmönster och mer konsekventa förväntningar hos personalen. Samtidigt sker de mest omvälvande skiftena nu inne i produkter snarare än genom helt nya produkter—agentiska funktioner som agerar på användarens vägnar, multimodal generering som suddar ut gränsen mellan verkliga och syntetiska medier, samt dataflöden som är svårare att se och därför svårare att kontrollera.
Om du gör en sak först, låt den vara styrningsledd och evidensledd. En minsta möjliga uppsättning verktyg, tydliga standardval och ett lättviktigt evidenspaket ger dig ett lugnt momentum. Om du ändå uppdaterar policyn, samordna arbetet i terminsstarten med en årlig checklista för uppdatering av AI-policy för acceptabel användning så att dina beslut är dokumenterade, konsekventa och försvarbara.
Vad som har stabiliserats
Den största stabiliserande faktorn sedan våren och sommaren 2025 är att de flesta skolor inte längre väljer mellan ”AI eller ingen AI”. De väljer mellan kontrollerad, loggad användning och okontrollerad, osynlig användning. Den förskjutningen har drivit ledningar mot ett litet antal godkända vägar: en hanterad chattbot-upplevelse för personal, en begränsad elevnära upplevelse med tydliga gränser och en inköpspreferens för leverantörer som kan förklara sin databehandling på begriplig svenska.
Modellkvaliteten har också stabiliserats i praktisk mening. För lektionsplanering, utkast till material, förenklade förklaringar och administrativt skrivande är de etablerade modellerna nu pålitligt kompetenta. Frågan är mindre ”kan den göra det?” och mer ”kan vi belägga säker användning?” Om du vill ha ett praktiskt sätt att sluta debattera modellernas marknadsföringspåståenden, inför ett snabbt utvärderingsprotokoll som det i vår skolbriefing på lanseringsdagen för GPT-5, och kör samma uppgifter mot vilken modell du än överväger. Poängen är inte att utse en vinnare; poängen är att skapa en repeterbar metod som minskar diskussioner och gör besluten granskningsbara.
Plattformsmönstren har också satt sig. Många skolor föredrar nu ”AI där personalen redan arbetar” (e-post, dokument, VLE/LMS, rapportering för safeguarding, MIS-exporter) snarare än separata appar. Det minskar utbildningsbördan och sänker risken att personal kopierar känslig information till okända tjänster. Det gör det också lättare att standardisera prompter, mallar och godkännandeflöden.
Slutligen har vägledning och förväntningar blivit mindre spekulativa. Personalen har ett år av levd erfarenhet: de vet att AI kan spara tid på första utkast, men att den också kan producera fel med stor självsäkerhet. Den realismen är en tillgång. Bygg vidare på den genom att enas om ett litet antal rutiner, inte en lång lista med regler. Vår minsta möjliga AI-verktygslåda för skolstart är en bra referenspunkt om du vill ha ”lagom mycket” struktur utan att överväldiga kollegor.
Vad som fortfarande är volatilt
Volatiliteten i september 2025 handlar mindre om chatt och mer om ”AI som vidtar åtgärder”. Agentiska funktioner—system som kan planera steg, anropa verktyg, surfa, skriva e-postutkast, skapa resurser eller trigga arbetsflöden—dyker upp inne i välbekanta plattformar. De är lockande eftersom de känns som en personlig assistent. De är riskfyllda eftersom de utökar vad systemet kan komma åt: kalendrar, filer, delade enheter och ibland tredjepartstjänster. En lärare kan tro att hen ber om ett arbetsblad; agenten kan också hämta exempel från en delad mapp som innehåller elevdata, eller spara resultat på en plats med oklara åtkomstkontroller.
Multimodala medier är den andra volatilitetsfaktorn. Generering av bild, ljud och video är nu tillräckligt lätt för vardaglig användning, vilket betyder att syntetiska medier också är tillräckligt lätt för vardagligt missbruk. Utmaningen är inte bara deepfakes; det är den vardagliga suddningen av bevis. En elev kan lämna in ”processfoton” från en designuppgift, en berättad förklaring eller en videoreflektion som ser autentisk ut men delvis är genererad. Här spelar klassrumspraktik lika stor roll som policy. Om du ser över hur man undervisar skrivande och källhänvisning i en värld av samskapande, erbjuder från autocomplete till samskapande ett praktiskt, evidensförst angreppssätt som minskar konflikt och ökar tydlighet.
Dolda dataflöden är den tredje volatilitetsfaktorn. Även när ett verktyg påstår att det inte ”tränar på dina data” kan det ändå behålla prompter för missbruksövervakning, lagra filer för funktionsförbättring eller routa förfrågningar via underbiträden. Lägg till webbläsartillägg, ”hjälpsamma” add-ons och personliga konton, och du kan hamna med en datakarta som ingen avsåg. Därför är september fel tid för ett dussin nya pilotprojekt. Det är rätt tid för färre verktyg, bättre standardval och bättre loggning.
Riskregistret för brittiska skolor
Ett användbart riskregister är inte ett kalkylark med abstrakta hot. Det är en kort lista över sannolika incidenter, med förebyggande kontroller och ett tydligt ”vad vi gör om det händer”. I september 2025 omfattar de praktiska risker som de flesta skolor faktiskt möter bland annat att personal oavsiktligt delar känslig information i prompter, att elever använder AI för att kringgå lärande snarare än att fördjupa det, och inkonsekvens mellan ämneslag som skapar orättvisa.
Bedömningsintegritet är fortfarande en aktuell fråga, men den har ändrat form. Risken gäller inte bara slutliga inlämningar; det handlar om urholkningen av ”bevis på lärande” under hela året. Om elever snabbt kan generera välpolerat arbete behöver din bedömningsmodell mer evidens i klassrummet, mer processdokumentation och tydligare gränser för tillåtet stöd. För snabb, användbar formulering som undviker konfrontation kan våra AI-trafikljusgränser för provperioden anpassas för terminstidens kursarbete och läxförväntningar.
Det finns också en reputationsrisk: en enda incident med syntetiska medier, olämpliga resultat eller ett missförstått leverantörsavtal kan bli en samhällsfråga över en natt. Motåtgärden är inte perfektion; det är beredskap. En lugn policy, en tydlig eskaleringsväg och evidens för att ni har utbildat personal och följt upp användning kommer att betyda långt mer än om ni valde den ”bästa” modellen.
Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.
Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.
🎓 Registrera dig GRATIS!
De första 30 dagarna
Vecka 1 bör handla om att enas om gränser och standardval, inte om att visa upp funktioner. Bekräfta era godkända verktyg, era minsta dataregler (vad som aldrig får klistras in i en chattbot) och era förväntningar på loggning. I praktiken innebär det att ge personalen en kort mall för ”säker prompt” för vanliga uppgifter som att skriva om instruktioner, utforma kommunikation till vårdnadshavare och skapa låginsats-quiz, samtidigt som det görs tydligt att elevidentifierande information hålls utanför.
Vecka 2 är för mikrorutiner. Välj tre rutiner som ni vill se konsekvent i hela skolan: till exempel ”AI-utkast, mänsklig kontroll, källnotering”, ”två oberoende kontroller av faktapåståenden” och ”spara prompter och resultat för höginsatsuppgifter”. Ett kort INSET-pass kan få detta att kännas genomförbart; vår AI-workshop för INSET-dag är utformad kring just den typen av repeterbar praktik.
Vecka 3 är för evidensinsamling. Välj ett litet urval av team—kanske ett elevhälsa/pastoralt team, ett undervisande ämneslag och en drift-/administrationsgrupp—och be dem logga var AI sparade tid, var den introducerade risk och vilka kontroller som behövdes. Ni försöker inte bevisa att AI ”fungerar”; ni försöker lära er var styrningen behöver skärpas.
Vecka 4 är för konsolidering. Ta bort eller pausa allt som skapar förvirring, och publicera en kort uppdatering: vad som är godkänt, vad som är pausat och vad ni övervakar härnäst. Personalens trygghet ökar när ledningen är villig att säga ”inte än” till volatila funktioner.
Vad ni ska kommunicera
Budskap till personalen bör minska oro och minska improvisation. Ett hjälpsamt standardskript är: ”AI kan stödja utkast och anpassning, men du är fortfarande ansvarig för korrekthet, ton och safeguarding. Om du inte skulle skriva det i ett mejl till hela personalen, skriv det inte i en prompt.” För elever: håll det enkelt och rättvist: ”Du får använda AI för idéer och återkoppling där din lärare tillåter det, men du måste kunna förklara ditt arbete och visa din process.” För föräldrar och andra vårdnadshavare: fokusera på lärande och säkerhet: ”Vi använder en begränsad uppsättning verktyg, med tydliga regler, för att stödja undervisning och minska arbetsbelastning. Vi kommer inte att använda elevdata i offentliga AI-verktyg, och vi kommer att följa upp effekter till halvtidsterminen.”
Tonen spelar roll. Om du låter entusiastisk kommer människor att experimentera. Om du låter rädd kommer människor att dölja användning. Sikta på lugn professionalism: ”Vi inför AI varsamt, och vi mäter vad som händer.”
Inköp och styrning
Terminens leverantörssamtal bör prioritera tydlighet framför kapacitet. Fråga vart data tar vägen, hur länge den sparas, vem som kan komma åt den och vilka underbiträden som är involverade. Fråga vilken loggning ni får som skola, och om ni kan separera personal- och elevupplevelser. Fråga hur nya funktioner introduceras: slås agentiska verktyg på som standard, och kan ni stänga av dem centralt? Om en leverantör inte kan svara på enkel engelska, så är det ert svar.
Det är också värt att fråga hur produkten beter sig när saker går fel. Vad händer när modellen producerar skadligt innehåll? Vilka kontroller finns för åldersanpassad filtrering? Vilken är eskaleringsvägen, och hur snabbt får ni svar? Styrning är inte ett dokument; det är förmågan att få systemet att bete sig förutsägbart under en hektisk skolvecka.
Ett lättviktigt evidenspaket
Till oktoberlovet vill ni ha ett litet paket som visar vad ni beslutade, vad ni införde och vad ni lärde er. Håll det lättviktigt: ett verktygsregister på en sida, era uppdaterade regler för acceptabel användning, en kort utbildningslogg och ett urval anonymiserade ”före och efter”-anteckningar om arbetsflöden som visar sparad tid och tillagda kontroller. Lägg till en kort incidentlogg, även om den är tom, eftersom ”inga incidenter rapporterade” fortfarande är en datapunkt när ni kan visa hur rapportering fungerar.
Om ni redan gör en årsavslutande genomgång, samordna er evidens till halvtidsterminen med det ni kommer att vilja ha senare. Vårt evidenspaket för AI-revision vid läsårets slut kan återanvändas redan nu så att ni inte bygger samma dokumentation två gånger.
Stadiga framsteg i september kommer av att göra färre saker, mer konsekvent, och skriva ner det ni ser. Så förvandlar ni AI från ett rörligt mål till ett hanterbart system.
Här är till en lugn, evidensledd terminsstart.
The Automated Education Team