
Miks jaanuar 2025 on oluline
- aasta esimene pool on aeg, mil AI hariduses lakkab olemast kõrvalprojekt ja muutub selgelt juhtimisküsimuseks. Generatiivne AI on nüüdseks põimitud levinud tööriistadesse, alates kontoritarkvarast kuni õppeplatvormideni, ning valitsused püüavad järele jõuda.
Sul võib juba olla põgus AI-teemaline lõik peidetud oma digipoliitikasse või õppe- ja õpetamispoliitikasse. Kuid koos uuendatud juhistega Department for Education’ilt (DfE), ELi AI määruse jõudmisega olulistesse rakendamisetappidesse ning regulaatorite teravama fookusega andmekaitsele ja heaolule ootavad inspektorid ja hoolekogud nüüd midagi konkreetsemat.
See artikkel pakub 2025. aasta jaanuarist juulini kehtivat õppeperioodi alguse „poliitika radari“ ülevaadet. Fookuses on see, mida sel aastal tegelikult tuleb muuta, kuidas näidata, et kasutate AI-d vastutustundlikult, ja kuidas seda teha olemasolevat täpsustades, mitte kõike uuesti alustades. Laiema tausta saamiseks võib sulle kasulik olla ka meie Ühendkuningriigi hariduse AI olukorra aruanne.
Uus maastik lühidalt
Erinevates süsteemides kujundavad koolide ja kolledžite ootusi kolm põhisuunda:
Esiteks riiklikud juhised, nagu DfE AI juhis haridusasutustele ja sellega seotud uuendused digiteemade ja andmekaitse kohta. Need dokumendid ei kirjuta ette konkreetseid tööriistu, kuid sätestavad põhimõtted ja ootused riskihindamise, juhtimise ja personali pädevuse osas.
Teiseks ELi AI määrus, mis liigitab AI-süsteemid riskitaseme järgi ja seab erikohustused „kõrge riskiga“ kasutusviisidele, kuhu kuuluvad paljud haridusega seotud süsteemid. Isegi Ühendkuningriigi asutuste jaoks on see oluline, kui kasutate ELis baseeruvaid platvorme või toetate ELi õppijaid, ning see mõjutab ka seda, mida tarnijad oma lepingutes lubavad.
Kolmandaks olemasolevad raamistikud, eriti andmekaitse, heaolu ja autoriõigus. Regulaatorid rõhutavad, et AI ei ole eraldi kategooria; see kuulub teie olemasolevate kohustuste alla. Kui AI-tööriist töötleb õpilaste andmeid, peab see vastama samadele standarditele nagu iga teine süsteem.
Sõnum on järjepidev: te ei vaja eraldi AI-bürokraatiat, kuid peate näitama, et AI on põimitud teie olemasolevatesse riskijuhtimise, õppekava ja juhtimisprotsessidesse.
DfE ja Ühendkuningriigi uuendused
Ühendkuningriigi koolide ja kolledžite jaoks taanduvad DfE AI juhis ja sellega seotud uuendused mõnele ootusele, mida on realistlik sel õppeperioodil käsitleda.
Juhid peaksid suutma lihtsas keeles kirjeldada, kuidas ja miks AI-d asutuses kasutatakse. See hõlmab nii teadlikke kasutusviise, nagu AI kirjutamistoetus personalile, kui ka kaudseid kasutusviise, näiteks kontoritarkvarasse põimitud AI-funktsioonid. Lühike peamiste AI kasutusviiside register, mille omanikuks on üks vanemjuht, on nüüd mõistlik miinimum.
Poliitikad peaksid näitama, et AI-d arvestatakse heaolu, käitumise ja hindamise kontekstis. See ei tähenda AI-ga loodud töö keelamist, vaid selgust selles, millal AI-tugi on vastuvõetav, kuidas säilitatakse akadeemiline ausus ning kuidas käsitletakse AI-ga loodud sisu riske (näiteks deepfake’id või kahjulikud päringud).
DfE rõhutab ka personali pädevust. Inspektorid ja hoolekogud küsivad üha tõenäolisemalt, kuidas te toetate personali AI turvalisel ja tõhusal kasutamisel, mitte seda, kas iga õpetaja on ekspert. Lihtne iga-aastane koolitustsükkel, mis on kooskõlas teie digitaalse heaolu ja hindamispraktikaga, on enamasti piisav.
Laiema ettevalmistuskontroll-loendi jaoks võid uuesti üle vaadata meie septembrikuu AI-valmiduse juhendi ja kohandada seda õppeaasta keskpaiga ülevaateks.
ELi AI määrus lihtsas keeles
ELi AI määrus on keerukas, kuid koolide ja kolledžite jaoks on kolm peamist mõtet.
Hariduses kasutatavad AI-süsteemid võivad olla liigitatud „kõrge riskiga“, kui need mõjutavad oluliselt juurdepääsu haridusele või hindamistulemusi. Näideteks on automatiseeritud eksamijärelevalve, vastuvõtutööriistad või analüütika, mis mõjutab edasijõudmise otsuseid. Kõrge riskiga süsteemid peavad vastama rangetele nõuetele läbipaistvuse, inimliku järelevalve ja töökindluse osas.
Üldotstarbelised AI (GPAI) mudelid, nagu suured keelemudelid, on reguleeritud peamiselt teenusepakkuja tasandil, kuid asutustel on siiski kohustused, kui nad lõimivad neid tööriistu õpetamisse ja haldusesse. Te peaksite eeldama, et tarnijad pakuvad selgemat dokumentatsiooni selle kohta, kuidas nende AI-funktsioonid toimivad ja millised kaitsemeetmed on kasutusel.
Isegi kui te asute väljaspool ELi, võite kasutada ELis baseeruvaid platvorme või omada ELi õppijaid. Praktikas tähendab see, et teie hanke- ja andmekaitsealastes aruteludes peaks sisalduma küsimused AI riskiklassifikatsiooni, teenusepakkuja vastavuse kohta AI määrusele ning selle kohta, kuidas nad toetavad teie heaolu- ja võrdõiguslikkuse kohustusi.
Peamine järeldus juhtidele ei ole tööriistade ise klassifitseerimine, vaid see, et lepingud ja hoolsuskohustuse protsessid kajastaksid neid uusi ootusi.
Andmekaitse, heaolu ja hanked
Kõige vahetumad muudatused 2025. aasta jaanuarist juulini puudutavad pigem riski- ja hankeprotsesse kui klassiruumi.
Kui teete või uuendate andmekaitsealaseid mõjuhinnanguid (DPIA-sid), peate nüüd sõnaselgelt arvestama AI-funktsioone. See hõlmab seda, kus andmeid hoitakse, kas neid kasutatakse mudelite treenimiseks ja kui kaua neid säilitatakse. Paljusid olemasolevaid DPIA-sid saab täiendada eraldi AI-peatükiga, ilma et oleks vaja neid täielikult ümber kirjutada.
Heaolupoliitikad peaksid tunnistama AI-ga loodud sisu riske ja väärkasutuse võimalust, näiteks AI abil sooritatud kiusamine või võltsitud pildid. Kõige parem on lõimida see teie olemasolevasse veebiohutuse ja digitaalse kodanikuks olemise raamistikku, mitte käsitleda seda eraldi teemana. Meie artikkel digitaalsest kodanikuks olemisest ja AI-st pakub praktilisi klassiruumi vaatenurki.
Hankeprotsessid vajavad kerget, kuid selget AI-filtrit. Uusi süsteeme kasutusele võttes paluge tarnijatel selgitada, millised toote osad kasutavad AI-d, milliseid andmeid töödeldakse ja kuidas nad järgivad asjakohaseid regulatsioone, sealhulgas vajadusel ELi AI määrust. Selle saab jäädvustada lihtsas AI riskide kontroll-loendis, mis lisatakse teie tavapärastele hanke dokumentidele.
Poliitika muutmine praktikaks
Vanemjuhtide prioriteet sel õppeperioodil on tõlkida need ootused nähtavateks ja hallatavateks tegevusteks.
Paljud asutused otsustavad lisada lühikese AI-peatüki olemasolevasse digistrateegiasse või andmekaitsepoliitikasse, selle asemel et koostada täiesti uus AI-poliitika. See peatükk kirjeldab tavaliselt asutuse AI kasutamise põhimõtteid, nagu inimlik järelevalve, õiglus, läbipaistvus ja andmete minimeerimine, ning viitab vajadusel detailsematele protseduuridele.
Praktilisel tasandil võite piloteerida AI kasutamist mõne selgelt piiritletud haldusülesande jaoks, näiteks kirjade mustandite koostamine või dokumentide kokkuvõtete tegemine, samal ajal seades selgemad piirid tundlikumate kasutusviiside jaoks, nagu hindamine või sekkumisotsused. Oluline on näidata, et AI kasutamine on eesmärgipärane, üle vaadatud ja proportsionaalne.
Klassiruumis saate raamida AI-d kui üht järjekordset õppimist toetavat tööriista, mitte mõtlemise asendajat. Näiteks võib kolledž lubada õppijatel kasutada AI-d mustandkavandite loomiseks, kuid nõuda, et nad kommenteeriksid ja kritiseeriksid väljundit, muutes oma mõtlemise selgelt nähtavaks.
Avastage Automated Education võimsus, liitudes meie õpetajate kogukonnaga, kes võtavad tagasi oma aja ja rikastavad oma klassiruume. Meie intuitiivse platvormiga saate automatiseerida administratiivseid ülesandeid, isikupärastada õpilaste õppimist ja suhelda oma klassiga nagu kunagi varem.
Ärge laske administratiivsetel ülesannetel varjutada oma kirge õpetamise vastu. Registreeruge täna ja muutke oma hariduskeskkond Automated Education abil.
🎓 Registreeru TASUTA!
Koostöö personali, õppijate ja vanematega
Poliitika toimib ainult siis, kui inimesed sellest aru saavad. 2025. aasta eesmärk ei ole koolitada kõiki AI-spetsialistideks, vaid anda igale rühmale piisavalt selgust, et nad saaksid tegutseda turvaliselt ja enesekindlalt.
Personali jaoks on lühikesed, stsenaariumipõhised sessioonid tõhusamad kui pikad loengud regulatsioonidest. Võite arutada näiteks seda, kuidas reageerida, kui õppija esitab AI-ga loodud töö, kuidas märgata AI hallutsinatsioone sisus või kuidas kasutada AI planeerimistööriistu ilma tundlikke andmeid päringutesse kopeerimata. Seostamine teie hindamis- ja heaolupoliitikatega hoiab selle reaalsuses.
Õppijad vajavad selgeid juhiseid selle kohta, millal AI kasutamine on lubatud, kuidas selle kasutamist viidata ja kuidas mõelda kriitiliselt AI-ga loodud info üle. Kõige parem on lõimida see olemasolevatesse digipädevuse tundidesse või klassijuhatajatundidesse, mitte luua eraldi AI-moodulit. Saate tugineda samadele põhimõtetele, mida kasutate veebiuuringute ja plagiaadi käsitlemisel.
Vanemad ja hooldajad muretsevad sageli nii liigtarvitamise kui ka kasutamata võimaluste pärast. Üheleheküljeline kokkuvõte, mida jagate oma tavapäraste kanalite kaudu, võib lihtsas keeles selgitada teie lähenemist: milliste AI-tööriistadega õppijad võivad kokku puutuda, kuidas te riske juhite ja kuidas pered saavad kodus tervislikku kasutust toetada.
Tõendusmaterjal inspektoritele ja hoolekogudele
Inspektorid ja hoolekogud ei oota täiuslikkust, kuid nad ootavad, et te käsitleksite AI-d struktureeritult.
Te peaksite suutma näidata lihtsat kaarti selle kohta, kus AI-d asutuses kasutatakse, kes vastutab järelevalve eest ja kuidas riske hinnatakse. See võib olla lühike register, mis loetleb peamised süsteemid, nende eesmärgi, töödeldavad andmed ja ülevaatamise kuupäevad.
Juhtkonna või hoolekogu koosolekute protokollid, mis näitavad, et AI-d on arutatud ja et on kokku lepitud konkreetsed tegevused, on tugev tõendusmaterjal. Samuti ka lühikesed kirjed personali koolituste, õppijate juhiste ja uuendatud DPIA-de kohta. Te ei vaja läikivaid strateegiadokumente; vajate sidusat paberjälge.
Kasulik võib olla ka esile tõsta, kuidas AI toetab teie põhieesmärki. Näiteks võite tõendada, kuidas AI abil tõlkimine on parandanud suhtlust peredega või kuidas AI-tööriistu kasutatakse lisavajadustega õppijate materjalide eristamiseks selgete eetiliste piiride raames. Kui tekivad küsimused autoriõiguse kohta, aitab meie autoriõiguse ja AI juhend koolidele vestlust suunata.
Lihtne 90-päevane tegevuskava
Et see oleks hallatav, kasutavad paljud juhid kevade ja varasuve 2025 jaoks 90-päevast plaani.
Esimesel kuul keskendu nähtavusele ja põhimõtetele. Loo või uuenda oma AI registrit, lepi kokku lühike asutuse AI kasutamise põhimõtete komplekt ja määra kindlaks kolm peamist AI-st sõltuvat süsteemi. Alusta nende tööriistade olemasolevate DPIA-de ülevaatamist, lisades AI-spetsiifilised kaalutlused.
Teisel kuul keskendu inimestele ja protseduuridele. Korralda vähemalt üks personali teabekoosolek, uuenda õppijate juhiseid ning käitumis- või akadeemilise aususe poliitikat nii, et AI oleks neis sõnaselgelt mainitud, ja lisa oma hanke kontroll-loendisse AI-ga seotud küsimused. Veendu, et heaolu ja veebiohutuse eest vastutavad juhid oleksid ühel lainel.
Kolmandal kuul liigu kindlustunde ja tõendusmaterjali suunas. Lõpeta uuendatud DPIA-d, talleta lühikesed märkmed juhtkonna ja hoolekogu AI-arutelude kohta ning planeeri kerge ülevaatus järgmise õppeaasta alguseks. Juuliks peaksid suutma näidata selget ja proportsionaalset lähenemist, mitte ühekordset reaktsiooni.
Hoia oma AI radar ajakohane
AI poliitika areneb edasi ka 2025. aastal ja pärast seda, kuid põhialused ei muutu tõenäoliselt drastiliselt: eesmärgi selgus, tugev andmekaitse, heaolu „disainist alates“ ja pidev personali arendamine.
Sul ei ole vaja jälgida iga regulatiivset nüanssi. Selle asemel määra vastutav isik (sageli andmekaitseametnik või digijuht), kes jälgib peamisi uuendusi valitsuselt, andmekaitseasutuselt ja suurematelt tarnijatelt ning toob juhtkonnale kord õppeperioodis lühikese AI-uuenduse. Tööriistade ja praktikate iga-septembrine ülevaatus, kasutades näiteks AI-valmiduse kontroll-loendit, aitab hoida lähenemist värskena ilma pideva ümberkorralduseta.
- aasta jaanuarist juulini on eesmärk lihtne: näidata, et teie asutus kasutab AI-d läbimõeldult, olemasolevate õiguslike ja eetiliste raamistikute piires, ning et õpite ja kohandute koos areneva maastikuga. Fookustatud 90-päevase plaani ja kerge, kuid järjepideva poliitika radariga saate ootustele vastata ilma kõike nullist ümber kirjutamata.
Head juhtimist!
The Automated Education Team