
Var brittiska skolor befinner sig
I september 2024 befinner sig de flesta skolor i Storbritannien någonstans mellan experimenterande och tvekan när det gäller AI. En minoritet har tydliga strategier, pilotprojekt med verktyg och personalutbildning på plats. Många fler har öar av entusiastisk användning sida vid sida med olösta frågor om trygghet, dataskydd, arbetsbelastning och akademisk integritet. Vissa arbetar fortfarande med informella “fråga inte, berätta inte”-förhållningssätt till AI.
Den goda nyheten är att det inte förväntas att ni har löst allt den här terminen. Department for Education:s vägledning erkänner att skolor befinner sig på olika nivåer och beskriver AI som en möjlighet att utforska, inte ett krav att införa i stor skala. Samtidigt finns en växande förväntan på att ledare kan visa att de tänker på AI på ett strukturerat, riskmedvetet sätt istället för att lämna det åt slumpen.
Om ni fortfarande utvecklar ert förhållningssätt kan det vara hjälpsamt att kombinera den här genomgången med en mer detaljerad titt på policyer och processer i att skapa skolans policy för acceptabel AI-användning och en praktisk checklista för AI-beredskap i september.
DfE:s vägledning: vad som förväntas
DfE:s hållning till AI 2024 är rådgivande snarare än lagstadgad, men den formar ändå hur “rimligt” ledarskap ser ut. Det är avgörande att skilja mellan vad ni måste göra enligt befintlig lagstiftning och vad som för närvarande rekommenderas som god praxis.
Juridiskt är era skyldigheter kring AI till stor del förlängningar av befintliga ramverk: dataskydd, trygghet/safeguarding, likabehandling, hälsa och säkerhet samt examina-regler. Om ett AI-verktyg behandlar personuppgifter måste ni uppfylla kraven i UK GDPR, inklusive laglig grund, uppgiftsminimering och lämpliga avtal med leverantörer. Om AI används i trygghets-/safeguarding-processer är ni fortsatt ansvariga för besluten och måste säkerställa mänsklig översyn.
DfE:s AI-vägledning föreskriver inte några specifika verktyg eller användningsområden, men förväntar sig att ledare har beaktat AI inom befintliga policyer. Detta inkluderar policyer för acceptabel användning, beteende, bedömning, fjärrundervisning och personalens uppförandekod. Ni behöver inte skriva en fristående “AI-policy” från grunden, men ni bör kunna visa att AI har integrerats i ert nuvarande ramverk på ett genomtänkt sätt.
I praktiken innebär detta att dokumentera var AI är tillåtet respektive inte tillåtet, tydliggöra att personal och elever förblir ansvariga för arbete som producerats med AI, och vara explicit med att AI:s output kan vara felaktig eller partisk. Vägledningen uppmuntrar också skolor att utforska AI för att minska arbetsbelastningen, men endast där det är säkert, etiskt och anpassat till er kontext.
Ofsteds hållning
Ofsted har varit noga med att inte föreskriva hur skolor ska använda AI, men inspektörer är i allt högre grad uppmärksamma på dess närvaro. De kommer inte med en checklista över AI-verktyg som ni borde använda. I stället tittar de på om ert förhållningssätt till AI är konsekvent med era bredare beslut kring ledarskap, trygghet och undervisning.
Inspektörer kommer sannolikt inte att fråga “Vilken AI använder ni?” i isolering. De kommer mer troligt att undersöka hur ni säkerställer att elever lär sig tänka kritiskt i en värld där AI finns, hur ni skyddar dem från skada när de använder teknik, och hur ni stöttar personal att använda digitala verktyg utan att undergräva professionellt omdöme. AI blir en del av bredare frågor om utbildningens kvalitet, personlig utveckling och ledarskap.
För att visa “ansvarsfull AI” vid en inspektion behöver ni inte glansiga strategidokument eller komplexa dashboards. Ni behöver visa att ni har bedömt risker, satt tydliga förväntningar och kommunicerat dem. Inspektörer kommer att förvänta sig att personalen förstår er hållning till AI, vet var det är tillåtet eller begränsat, och kan beskriva hur elever lärs att använda det på ett lämpligt sätt.
Dokumentation hjälper, men den levda praktiken är viktigare. En kort, tydlig uppsättning riktlinjer för personal, konsekventa klassrumsrutiner kring AI-användning och en kursplan som uttryckligen tar upp AI-kunnighet är starkare bevis än en lång policy som få kollegor har läst. För kursplanearbetet kan det vara användbart att koppla detta till det bredare arbetet med AI-kunnighet i skolan.
Fackliga ställningstaganden och farhågor
Facken har i stort välkomnat potentialen hos AI att minska arbetsbelastning, samtidigt som de varnar för missbruk och risken för ökad övervakning eller avprofessionalisering. De är särskilt vaksamma mot att AI används för att övervaka personalens prestationer, analysera lektionsinspelningar eller automatisera beslut om kompetens och tjänstbarhet.
Ur ett arbetsbelastningsperspektiv tenderar facken att stödja frivillig användning av AI för att hjälpa till med planering, material och administration, förutsatt att det är genuint valfritt och inte blir ett nytt krav. Till exempel kan en lärare välja att använda ett AI-verktyg för att skissa på en arbetsplan, men ska inte bedömas negativt om hen föredrar att låta bli.
Trygghet/safeguarding och dataskydd är fortsatt centrala farhågor. Facken betonar behovet av att skolor riskbedömer alla AI-verktyg innan användning, undviker att ladda upp identifierbara elevuppgifter till externa system och säkerställer att personalen förstår begränsningarna i AI-genererat innehåll. De understryker också vikten av att skydda professionell autonomi: AI ska stödja, inte ersätta, lärarens omdöme.
För ledare är implikationen tydlig. Positionera AI som en uppsättning valfria verktyg inom ett människolett system. Undvik att koppla AI-användning till mål i medarbetarsamtal eller prestationsbedömning, och involvera personalen i beslut om vilka verktyg som provas eller införs. Var tydlig med att lärare ansvarar för att granska och anpassa AI:s output, och att ingen kommer att bestraffas för att välja att inte använda dem.
Att förena blandade budskap
Med uppmuntran från DfE, försiktighet från Ofsted och oro från facken är det lätt att känna sig dragen åt olika håll. Ett enkelt beslutsramverk kan hjälpa er att navigera detta utan att bli handlingsförlamade. Ett sätt att tänka kring AI-beslut den här terminen är genom fyra frågor: syfte, risk, kontroll och evidens.
Börja med syfte. Vilket pedagogiskt eller organisatoriskt problem försöker ni lösa? Om svaret är vagt, inför inte AI ännu. Om det är specifikt, till exempel att minska administrationstid för omdömen eller stödja elever med engelska som andraspråk (EAL) med ordförråd, kan ni utvärdera verktyg mer tydligt.
Bedöm sedan risk. Tänk på datakänslighet, trygghetsimplikationer, potentiell partiskhet och konsekvenserna av fel. Ett verktyg som skriver utkast till generella brev innebär andra risker än ett som analyserar beteendedata. För användningsområden med högre risk behöver ni starkare kontrollmekanismer och tydligare översyn.
Fundera därefter på kontroll. Vem är fortsatt ansvarig för besluten? Kan personal åsidosätta eller ignorera AI-förslag? Lärs elever att ifrågasätta AI:s output? Ett ansvarsfullt förhållningssätt håller människor tydligt ansvariga, med AI som assistent snarare än auktoritet.
Till sist, tänk på evidens. Hur vet ni om AI-användningen är effektiv och säker? Kan ni samla in återkoppling från personal och elever? Kan ni visa inspektörer och styrelse/huvudman att ni har följt upp effekter och justerat därefter?
Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.
Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.
🎓 Registrera dig GRATIS!
Prioriterade åtgärder i september
Med begränsad tid vid terminsstart är det klokt att fokusera på ett litet antal åtgärder med stor effekt istället för att försöka göra allt. För det första, säkerställ att era befintliga policyer uttryckligen nämner AI där det är relevant. Detta kan innebära att lägga till korta avsnitt i policyer för acceptabel användning, bedömning och personalens uppförande. Om ni ännu inte tagit tag i detta finns ett strukturerat angreppssätt beskrivet i att skapa skolans policy för acceptabel AI-användning.
För det andra, ge tydlig, enkel vägledning till personalen. En tvåsidig genomgång kan klargöra vilka verktyg som är godkända eller förbjudna, hur man hanterar elevarbete som misstänks vara starkt AI-påverkat, och hur man undviker att ladda upp personuppgifter till öppna AI-system. Inkludera konkreta exempel, såsom att använda AI för att skissa lektionsupplägg men inte för att rätta längre texter utan lärargranskning.
För det tredje, planera minst ett kompetensutvecklingstillfälle för personal den här terminen med fokus på AI-kunnighet, etik och praktisk klassrumsanvändning. Detta ska inte vara en säljpresentation för specifika produkter. Hjälp istället kollegor att förstå vad AI kan och inte kan göra, var det kan spara tid, och hur man upprätthåller professionella standarder när man använder det.
För det fjärde, bestäm er hållning till elevers användning. Får äldre elever använda AI hemma för research eller utkast, och under vilka villkor? Hur ska ni lära dem att redovisa AI-stöd ärligt och undvika plagiering? Detta är också ett bra tillfälle att se över ert förhållningssätt till upphovsrätt, särskilt där AI-genererat innehåll används i undervisningsmaterial. För en fördjupning, se diskussionen i upphovsrätt och AI i skolan.
Avslutningsvis, kommunicera med föräldrar och vårdnadshavare. En kort text i det första nyhetsbrevet där ni förklarar ert förhållningssätt till AI, inklusive skyddsåtgärder och utbildningsmål, kan förebygga missförstånd och bygga förtroende.
Blick mot 2025
Även om ingen kan förutse den exakta utformningen av framtida vägledning börjar vissa trender bli tydligare. Det är troligt att förväntningarna på AI-kunnighet i kursplanen kommer att stärkas, särskilt i gymnasie- och eftergymnasial utbildning. Inspektörer kan i allt högre grad fråga hur elever förbereds för att leva och arbeta sida vid sida med AI, inte bara hur de skyddas från risker.
Vi kan också förvänta oss fler konkreta exempel och fallstudier från DfE, i takt med att tidiga användare delar vad som har fungerat. Detta kan leda till tydligare riktmärken för ansvarsfull AI-användning, även om fullständig reglering fortfarande kan ligga en bit bort. Samtidigt kommer examinatorer och betygsmyndigheter att fortsätta förfina sina regler kring AI och bedömning, särskilt för kursarbete och icke examinerade moment.
För ledare är den mest hållbara strategin att bygga flexibla, principbaserade förhållningssätt snarare än verktygsspecifika regler. Fokusera på kritiskt tänkande, digital motståndskraft, dataskydd och professionell autonomi. Om dessa grundpelare är starka kan ni snabbt anpassa er när verktyg utvecklas och vägledningen skärps.
Framför allt: kom ihåg att det inte förväntas att ni har alla svar nu. Det som spelar roll den här terminen är att ni kan visa ett genomtänkt ledarskap: tydliga gränser, ärlig kommunikation och en vilja att lära tillsammans med personal och elever. Utifrån den grunden kan ni förfina och utveckla er AI-strategi i takt med att läsåret 2024–25 fortskrider.
Lycka till med terminen!
The Automated Education Team