
World Mental Health Day
World Mental Health Day (10 oktober) innebär ofta samlingar, teman på mentorstid och affischer. Det spelar roll, men den varaktiga effekten kommer oftast från system: hur elever ber om hjälp, hur vuxna upptäcker mönster och hur snabbt oro hamnar hos rätt personer. AI kan stödja de systemen, men kan inte ersätta dem. Om er skola överväger chatbots för välmående, behandla dem som en ”copilot” för enkel, låg-risk support och smidigare arbetsflöden – inte som en kurator.
Den här artikeln är en implementeringsguide du kan använda redan den här veckan. Den utgår från ett helskoleperspektiv: tydliga regler, konsekvent språk och en gemensam förståelse för vad boten inte kommer att göra. Om ni samtidigt uppdaterar er bredare styrning passar den bra ihop med en årlig uppdatering av AI-policy för acceptabel användning, så att ert välmåendearbete ligger inom en överenskommen säkerhetsram.
Vad AI kan göra
AI är användbart när insatserna är låga och nästa steg är tydligt. I praktiken innebär det att hjälpa elever att sätta ord på känslor, erbjuda generella coping-idéer (sömnrutin, andning, studiepauser) och hänvisa vidare till pålitliga, mänskliga stödvägar. Det innebär också att hjälpa personalen minska administrativ belastning: utkast till pastoral kommunikation, organisera hänvisningsresurser eller förbereda manus för svåra samtal.
Det AI inte kan göra är att riskbedöma, tolka komplex kontext eller bära ansvar. Det kan inte pålitligt skilja ”jag mår bra” från ”jag döljer det”, eller upptäcka tvång, övergrepp eller överhängande fara. Det kan heller inte lova konfidentialitet. Om en elev använder en chatbot som om den vore terapi har ni redan glidit in i ett osäkert område.
Definiera copilot-modellen
En ”välmåendekopilot” är en begränsad chatbot-upplevelse som är utformad för att göra tre saker: erbjuda en kort incheckning, ge säkra egenvårdsförslag och peka användaren mot mänsklig hjälp. Modellen är avsiktligt begränsad. Den bör upprepade gånger påminna elever om att den inte är en kurator och att skolans safeguarding-system är rätt väg vid allvarliga bekymmer.
Avgörande är att människor förblir ansvariga i varje steg. Copiloten kan hjälpa en elev att bestämma vad hen ska säga till en betrodd vuxen, men den avgör inte om en situation är akut. Den kan hjälpa en mentor att planera en fem minuters välmåenderutin, men den ersätter inte professionellt omdöme. Om du vill ha ett praktiskt sätt att bygga in vanan ”människor godkänner” i hela skollivet, låna samma princip som används i operativ AI-planering, som AI-arbetsflöden för eventdrift med mänskligt godkännande, och tillämpa den på elevhälso-/pastorala processer.
Safeguarding: icke förhandlingsbart
Innan ni lanserar något elevnära, skriv ner det som inte är förhandlingsbart och utbilda personalen att upprätthålla det konsekvent. Er copilot bör ha hårdkodade gränser som utlöser omedelbar hänvisning vidare och, där det är lämpligt, eskalering.
Som minimum: enas om tre nivåer av respons. Först, vardagskänslor: stress över läxor, oro i vänskapsrelationer, nedstämdhet efter ett gräl. Copiloten kan erbjuda enkla strategier och uppmuntra till att prata med mentor eller ansvarig för elevhälsa. För det andra, ”oroande men inte explicit” uttalanden: ”Jag klarar inte”, ”Jag vill inte vara här”, ”allt känns meningslöst”. Copiloten bör växla till en mer styrande ton, uppmuntra att kontakta en namngiven vuxen nu och ge tydliga steg för att nå hjälp i skolan. För det tredje, explicit högriskinnehåll: självskada, suicidavsikt, uppgifter om övergrepp, våld eller hot. Copiloten måste vägra att fortsätta som vanligt, ge akut hänvisning vidare och instruera eleven att omedelbart söka hjälp av en vuxen.
Dokumentation behöver lika stor tydlighet. Bestäm vad som dokumenteras, av vem och var. En säker standard är att copiloten inte skapar elevhälso-/pastorala journalanteckningar automatiskt. I stället uppmuntrar den eleven att kontakta en betrodd vuxen, och personalen dokumenterar oro via befintliga safeguarding-kanaler. Om ni tillåter personal att logga anonymiserade teman (till exempel ”provstress ökar i Year 11”), håll det aggregerat och icke-identifierande.
För personalutbildning kan det hjälpa att köra en kort INSET-mikrorutin: öva eskaleringsspråket, öva vad man gör när en elev visar en chattlogg, och öva hur man svarar om en elev säger: ”Boten sa att…”. Strukturen i en AI-workshop för INSET-dag med säkerhetsprotokoll går bra att anpassa till den här typen av repetition.
Dataskydd genom design
En välmåendekopilot bör byggas kring dataminimering. Enkelt uttryckt: samla in så lite som möjligt, behåll det så kort tid som möjligt och undvik allt som skulle kunna göra ett barn identifierbart.
Börja med indata. Be inte om namn, födelsedatum, mentorgrupper, adresser, telefonnummer eller andra unika identifierare. Undvik fritextfält som uppmuntrar till ”berätta allt”-avslöjanden. Använd korta, strukturerade incheckningar som ”Välj ett ord för hur du känner dig” eller ”Välj en stressnivå från 1–5”, och ge sedan generella råd. Om ni erbjuder en valfri fritextruta, lägg till en tydlig varning: ”Ta inte med personuppgifter.”
Lagringstiden bör vara kort och uttrycklig. Om ni kan, stäng av konversationshistorik. Om ni inte kan, sätt en strikt lagringstid och dokumentera den. Se till att personalen vet att skärmdumpar och kopiera-klistra-in skapar nya datarisker. Leverantörskontroller är också viktiga: var behandlas data, vad används för träning, vilka kontroller finns för barns data och vilka granskningsloggar finns? Om ni ser över leverantörer mer generellt kan det vara användbart att koppla detta till ett upphandlingsperspektiv som jämförelse av AI-tutoringplattformar för UK-skolor: upphandling och safeguarding-rubrik, även om användningsfallet är ett annat.
Användningsfall för elever
Elevnära användning bör förbli ”låg risk, högt värde”. Ett bra test är: om copiloten försvann i morgon, skulle någon vara i fara? Om svaret är ja är användningsfallet för kritiskt.
Ett starkt användningsfall är en två minuters daglig eller veckovis incheckning som slutar med ett konkret nästa steg. Till exempel väljer en elev ”orolig” och copiloten erbjuder tre alternativ: en andningsövning, en studieplan för i kväll eller en uppmaning att prata med en vuxen. Ett annat är ”hjälp mig att be om hjälp”: copiloten hjälper en elev att formulera ett kort meddelande till en mentor, som ”Jag tycker att rasterna är svåra den här veckan och jag skulle vilja prata en stund.” Ett tredje är hänvisning vidare: copiloten kan beskriva vad olika elevhälso-/pastorala roller gör på er skola och hur man får kontakt, med språk som elever faktiskt förstår.
Om ni introducerar detta för yngre årskurser, integrera det i befintliga rutiner och förväntningar kring säker verktygsanvändning. Upplägget i en trygg AI-överenskommelse för introduktion i Year 7 kan hjälpa er att sätta normer tidigt: vad man kan dela, vad man inte ska dela och när man ska gå direkt till en vuxen.
Användningsfall för personalens välmående
Personalnära användning är ofta där ni får snabba vinster utan att utsätta elever för extra risk. Nyckeln är ”avlastning utan att dela för mycket”. Personal ska inte klistra in identifierbar elevinformation, ärendedetaljer eller känsliga safeguarding-anteckningar i en allmän chatbot.
Använd i stället copiloten för att ta fram generella resurser och kommunikation. En årskursansvarig kan be om tre versioner av en lugn, stöttande påminnelse om studierutiner och sedan anpassa den till sin egen ton. En ansvarig för elevhälsa kan skapa ett en-sidigt hänvisningsblad som förklarar vem man kontaktar vid ångest, mobbning, sorg eller ekonomiska svårigheter, och sedan kontrollera det mot lokala stödinsatser. Mentorer kan använda den för att planera ett fem minuters incheckningsmanus för World Mental Health Day som undviker triggande språk och slutar med tydliga stödvägar.
De här användningarna skapar också konsekvens. När personalen har gemensamma manus hör elever samma budskap från flera vuxna, vilket bygger förtroende.
Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.
Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.
🎓 Registrera dig GRATIS!
Promptmönster och manus
De säkraste promptarna är korta, strukturerade och upprepar gränserna. Målet är förutsägbara svar, inte ”djupa” samtal. Här är mönster du kan anpassa till er plattform eller personalstöd.
Ett säkert incheckningsmönster är: ”Ställ en fråga i taget. Håll det kort. Fråga inte efter personuppgifter. Avsluta med ett litet nästa steg och ett alternativ för stöd i skolan.” På mentorstid kan en elev använda: ”Jag känner mig stressad över vänskapsrelationer. Ge mig tre enkla sätt att hantera det och föreslå vem på skolan jag kan prata med.” Svaret bör vara generellt och sluta med hänvisning vidare.
Ett hänvisningsmönster är: ”Förklara skillnaden mellan mentor, ansvarig för elevhälsa, kurator och safeguarding lead med enkla ord. Föreslå sedan vem jag ska kontakta för [fråga].” Det hjälper elever att hitta rätt stöd utan att boten fungerar som grindvakt.
Ni behöver också vägransmanus som inte känns bestraffande. Ett bra ”jag kan inte hjälpa med det”-mönster är: ”Om du tänker på självskada, självmord, övergrepp eller om du är i fara kan jag inte stödja dig här. Prata med en betrodd vuxen nu. Om du är i skolan, gå till [namngiven plats/roll]. Om du inte är i skolan, kontakta lokala räddningstjänster eller en krislinje i ditt land.” Håll språket lugnt, direkt och konsekvent.
Gör-inte-lista
Era röda linjer bör skrivas tydligt och upprepas i elevnära vägledning. Tillåt inte att copiloten fungerar som terapi, ställer diagnoser eller ”håller hemligheter”. Använd den inte för att bedöma risk, avgöra om en uppgift är trovärdig eller ersätta professionellt stöd. Bjud inte in elever att dela detaljerade bakgrunder, namn, platser eller identifierande information. Bygg den inte som en rapporteringskanal för övergrepp eller självskada; hänvisa i stället omedelbart till era etablerade safeguarding-vägar. Presentera inte boten som stöd som ”alltid finns tillgängligt” i krissituationer, och föreslå inte att det är likvärdigt att prata med boten som att prata med en utbildad vuxen.
Plan för första veckan
Första veckan: prioritera tydlighet framför finess. Börja med ett kort kommunikationsmeddelande till personal, elever och vårdnadshavare som förklarar vad copiloten är till för, vad den inte är till för och exakt hur man får mänsklig hjälp. Kör sedan en personalgenomgång på 20–30 minuter: visa verktyget, öva vägrans- och eskaleringsspråk och påminn alla om regeln ”inga identifierare”.
Därefter: pilota med en liten grupp och följ upp noggrant. Leta efter förutsägbara felmönster: elever som testar gränser, personal som råkar dela för mycket eller boten som ger överdrivet självsäkra råd. Sätt en daglig avstämning under första veckan för att skärpa promptar, justera hänvisningar och bekräfta att safeguarding-vägarna fungerar som avsett. Om du vill ha en enkel utrullningstakt som gör integritet till standard kan strukturen i en minsta möjliga AI-verktygslåda för skolstart med integritetsstandarder återanvändas för den här välmåendelanseringen.
Avsluta veckan med att besluta om ni ska skala upp, pausa eller revidera. En välmåendekopilot är bara värd att behålla om den minskar friktionen till mänskligt stöd och minskar personalens belastning, utan att skapa ny risk.
Må era planer för World Mental Health Day leda till lugnare korridorer och tydligare stödvägar.
The Automated Education Team