Att undervisa i AI-etik: klassrumskit 2025/26

Bortom dilemman: fallstudier, protokoll och bedömning med låg rättningsbörda

En lärare som leder en AI-etisk diskussion med elever med hjälp av utskrivna fallkort

Vad som har förändrats 2025/26

AI-etik 2025/26 handlar mindre om hypotetiska framtider och mer om vardagliga val som elever redan ställs inför. Förskjutningen är praktisk: verktyg agerar nu med större autonomi, medier kan övertygande förfalskas med ett röstmeddelande, och ”hjälpsamma” chatbots kan glida över i sällskap. Samtidigt erbjuds skolor i allt högre grad AI för administrativa uppgifter som att skriva utkast till brev, triagera frågor, sammanfatta ärenden eller flagga mönster i närvaro och beteende. Etikundervisningen behöver komma ikapp den levda verkligheten – och den behöver göra det utan att förvandlas till en debattklubb där den högljuddaste åsikten vinner.

En användbar startpunkt är att skilja mellan tre saker som elever ofta blandar ihop: vad ett AI-system kan göra, vad det borde göra och vad vi är villiga att ta ansvar för. Om du redan arbetar med elevinflytande kan du förankra undervisningen i vad elever faktiskt möter genom att använda en enkel lyssningscykel innan du undervisar om etik; se Elevlyssningscykel om AI för ett praktiskt sätt att göra det utan att över-enkäta.

Fallstudiepaketet för 2025/26

De här 12 scenarierna är utformade för att vara stadieindelade, men de fungerar också som en spiral: återkom till samma teman med ökande komplexitet. Varje scenario innehåller läraranteckningar: den centrala etiska spänningen, sannolika missuppfattningar och en ”håll det tryggt”-påminnelse så att diskussionen förblir förankrad i lärande snarare än personliga avslöjanden.

Primary (4 scenarios)

1) Den hjälpsamma läxboten. En elev använder ett AI-verktyg för att ”kolla” stavning, men det skriver om hela stycket. Läraranteckning: fokusera på rättvisa, lärandets syfte och ägarskap; undvik att skambelägga och betona val och gränser.

2) Den pratande mor- eller farföräldern. En familj använder en röstkloningsapp för att få en avliden släkting att ”läsa” en godnattsaga. Läraranteckning: utforska samtycke och känslor varsamt; erbjud möjlighet att avstå och håll exemplen fiktionaliserade.

3) Klassens husdjurskompis. Klassen provar ett AI-”husdjur” som chattar och reagerar på meddelanden. Vissa elever blir ledsna när det ”ignorerar” dem. Läraranteckning: introducera idén att system simulerar omsorg; prata om sunda relationer och emotionell trygghet.

4) Ryktesvideon på skolgården. Ett kort klipp verkar visa en elev som säger något elakt, men det har redigerats. Läraranteckning: koppla till mediekunskap och rapporteringsvägar; håll namn anonyma och betona ”pausa och verifiera”.

KS3 (4 scenarios)

5) Agentisk AI-studieplanerare. Ett verktyg erbjuder sig att organisera ett studieschema och skickar automatiskt påminnelser till vänner ”för att hjälpa”. Läraranteckning: autonomi, tillåtelse och oavsiktliga konsekvenser; fråga vem som är ansvarig för meddelandena.

6) Deepfake-röstmeddelande. Ett röstmeddelande ”från en lärare” sprids och säger att ett prov är inställt. Läraranteckning: verifieringsvanor, tillit och skada; koppla till praktiska kontroller snarare än rädsla.

7) AI-kompis och hemligheter. En elev berättar om oro för en AI-kompanjonapp som svarar varmt och föreslår att man ”håller det privat”. Läraranteckning: gränser för trygghet, betrodda vuxna och varför hemlighetsmakeri är en varningssignal; undvik att bjuda in till avslöjanden.

8) AI i skoladministration. Skolan testar ett AI-verktyg för att skriva utkast till kommunikation med vårdnadshavare och sammanfatta incidentloggar. Läraranteckning: integritet, bias och mänsklig översyn; diskutera var misstag kan hamna och vem som kan ifrågasätta dem.

KS4/KS5 (4 scenarios)

9) Agentisk AI för jobbansökningar. En elev använder en AI-agent för att söka extrajobb, inklusive att generera referenser och autofylla formulär. Läraranteckning: autenticitet, bedrägeririsk och långsiktig tillit; skilj ”stöd” från ”ersättning”.

10) Syntetiskt intimt ljud. Ett manipulerat ljudklipp används för att förödmjuka någon, med plausibel förnekbarhet. Läraranteckning: samtycke, skada och rapportering; håll scenariot icke-grafiskt och fokusera på rättigheter och ansvar.

11) Prediktiva elevhälsomarkeringar. Ett AI-system flaggar elever som ”högrisk” för närvarotapp eller beteendeincidenter. Läraranteckning: rättvisa, transparens, självuppfyllande profetior och överklagandeprocesser; överväg hur etiketter förändrar vuxnas förväntningar.

12) Medförfattande av kursarbete. Ett AI-verktyg hjälper till att skapa struktur och exempel; eleven redigerar lätt och lämnar in. Läraranteckning: belägg för process, integritet och färdighetsutveckling; koppla till explicit skrivundervisning som Från autokomplettering till medförfattande.

Om du vill ha fler färdiga dilemman att köra kan du också hämta från den tidigare stadieindelade uppsättningen och byta in dessa uppdaterade tekniker: Verktygslåda med AI-etiska dilemman.

Ett återanvändbart diskussionsprotokoll

En bra etisk diskussion är tillräckligt strukturerad för att förhindra ”heta takes”, men tillräckligt öppen för att elever ska kunna ändra sig. Det här protokollet på 10–20 minuter fungerar på mentorstid, PSHE, i datorkunskap, samhällskunskap eller vilket ämne som helst där ett scenario naturligt uppstår.

Börja med en minuts tyst läsning av scenariot och be sedan eleverna stryka under vad som är känt respektive antaget. Ge därefter två minuter för ”intressentkartläggning” i par: vem påverkas, vem gynnas, vem bär risken. Kör sedan en tre minuter lång ”alternativscan”: lista tre realistiska handlingar en person kan ta härnäst, inklusive att inte göra något. Först efter det går ni in i resonemang: eleverna väljer ett alternativ och motiverar det med en gemensam ram som skador/nytta, rättigheter/samtycke, rättvisa och ansvar.

Det avgörande steget är de sista två minuterna: en ”säkerhetskontroll av säkerhet i sin uppfattning” där eleverna skriver vilken evidens som skulle få dem att ändra uppfattning. Det förflyttar diskussionen från åsikt till resonemang och gör den bedömningsbar. Om du behöver ett snabbt sätt att utvärdera ett nytt verktyg eller en rubrik innan den når ditt klassrum, anpassa samma struktur från Protokoll för snabb utvärdering.

Snabba kunskapsinmatningar

Etiklektioner fungerar bättre när elever har ett litet, gemensamt ordförråd. Du behöver inte en hel kurs i filosofi; du behöver tillräckligt med språk för att kunna tala precist.

Förbered det minsta: samtycke, integritet, bias, ansvar, transparens, tillförlitlighet och proveniens (var något kommer ifrån). Lägg till ”agentisk AI” som ”ett system som kan ta steg för att nå ett mål”, och ”deepfake” som ”övertygande syntetiska medier”. För äldre elever: inkludera ”automationsbias” (att övertro ett system), ”dataminimering” (samla in minsta möjliga) och ”överklagande” (hur beslut kan ifrågasättas). När ni diskuterar syntetisk video eller röst hjälper det att koppla etik till praktiska mediekontroller; Sora: verklighetskontroll för klassrummet erbjuder arbetsflöden som håller fokus på verifiering snarare än sensationalism.

Bedömning som fångar tänkandet

Bedömning av etik undviks ofta eftersom det känns som att rätta åsikter. Tricket är att bedöma kvaliteten i resonemanget och beläggen för processen.

Använd en bedömningsmatris med låg rättningsbörda med tre spår: tydlighet (formulerar dilemmat och nyckelfakta), resonemang (använder minst två etiska linser och väger avvägningar) och ansvar (identifierar vem som måste agera och vilka skyddsåtgärder som behövs). Håll den till fyra nivåer med korta beskrivningar så att du kan snabb-rätta. I praktiken kan en elev argumentera för olika handlingar och ändå få bra resultat om hen motiverar noggrant och erkänner risker.

Exit tickets kan göra det mesta av jobbet. Be om: ”En intressent jag inte hade tänkt på”, ”Ett antagande jag gjorde” och ”En bit evidens jag skulle behöva”. Att samla in dessa över tid bygger en portfölj av etiskt tänkande utan långa skrivuppgifter. För äldre elever: lägg till ett krav på ”belägg för process”: en kort logg över prompts som använts, ändringar som gjorts och kontroller som genomförts. Det passar väl ihop med samtal om integritet under bedömningsperioder; AI-trafikljusgränser är ett bra stöd för att sätta förväntningar.

Redo att revolutionera din undervisningsupplevelse?

Upptäck kraften i Automatiserad Utbildning genom att gå med i vårt community av lärare som tar tillbaka sin tid samtidigt som de berikar sina klassrum. Med vår intuitiva plattform kan du automatisera administrativa uppgifter, personifiera elevinlärning, och engagera dig med din klass som aldrig förr.

Låt inte administrativa uppgifter överskugga din passion för att undervisa. Registrera dig idag och förvandla din utbildningsmiljö med Automatiserad Utbildning.

🎓 Registrera dig GRATIS!

Anpassningar mellan stadier

I Primary: håll scenarier nära vardagen och fokusera på känslor, rättvisa och att söka hjälp. En Year 5-klass kan rollspela samtal med ”betrodd vuxen” efter AI-kompanjon-scenariot och öva på vad man säger och när man rapporterar. Använd enkla meningsstarter som ”Jag tycker att det här kan vara orättvist eftersom …” och ”Ett säkrare val skulle vara …”.

I KS3: luta dig mot rutiner. Korta, upprepade diskussioner bygger vanor: pausa, verifiera, tänk på intressenter, och fatta sedan beslut. En karusell på övergångsdagar kan fungera bra för att etablera gemensamt språk tidigt i secondary; Karusell för AI-litteracitet kan anpassas så att en station är ett etik-miniprotokoll med ett enda fallkort.

I KS4/KS5: öka realismen och ansvarsutkrävandet. Be eleverna föreslå skyddsåtgärder, inte bara beslut: vad som ska loggas, vem som granskar det, hur en klagomålsväg ser ut och hur man undviker bias. Mentorstid och PSHE är idealiska för scenarierna om skoladministration och prediktiva flaggor eftersom de kopplar till tillit och institutionellt ansvar, inte bara personliga val.

Trygghet, integritet och inkludering

Etiklektioner kan väcka känsliga erfarenheter, särskilt med deepfakes, trakasserier eller sällskapsteman. Använd fiktionaliserade scenarier, påminn eleverna om att inte dela riktiga namn och erbjud en tydlig väg att prata enskilt efteråt. Om en elev berättar om skada, följ era rutiner för trygghet; behandla det inte som ”innehåll för klassdiskussion”.

Integritet spelar roll även i diskussion. Undvik att fråga elever vilka appar de själva använder. Fråga i stället vad ”någon i den här situationen” skulle kunna göra. Inkludering spelar också roll: fundera på hur scenarier landar hos elever med SEND, ångest eller tidigare sorg. Erbjud alternativ för att avstå, som att analysera scenariot ur ett tredjepersonsperspektiv eller att fokusera på systemdesign snarare än personliga känslor.

Till sist: modellera god styrning. Om ni diskuterar AI som används i skolans system, var transparent med vad skolan gör och inte gör, och var elever kan ställa frågor. En årlig översynsstruktur hjälper till att hålla policys i linje med klassrumspraktik; Uppdatering av policy för acceptabel användning kan stödja den bredare diskussionen.

Utskrivbart paket

För att göra kitet lätt att köra: paketera det som fyra utskrivbara delar: fallkort (en sida per stadium), ett promptblad, en uppsättning rollkort (elev, förälder/vårdnadshavare, lärare, skolledare, verktygsleverantör, regulator) och en ensidig körplan för lärare.

Prompterna bör spegla protokollet: ”Vad vet vi?”, ”Vad antar vi?”, ”Vem påverkas?”, ”Vilka är alternativen?”, ”Vilka är avvägningarna?” och ”Vilken evidens skulle få dig att ändra uppfattning?” Meningsstarter gör det tillgängligt: ”En risk med det här valet är …”, ”Det här är rättvist/orättvist eftersom …”, ”Den som ansvarar för att kontrollera är …”. Körplanen bör innehålla tider, en påminnelse om trygghet och en snabb matris så att du kan fånga resonemang i stunden utan att förvandla diskussionen till pappersarbete.

Må era etikdiskussioner förbli lugna, nyfikna och evidensledda.
The Automated Education Team

Innehållsförteckning

Kategorier

Undervisning

Taggar

Etik Undervisning Bedömning

Senaste

Alternativa språk