AI-politiikan seuranta: hallituksen päivitykset

Yhden sivun kevät–kesä 2025 -toimintasuunnitelma vastuulliseen AI:n käyttöön kouluissa ja oppilaitoksissa

Koulun johtajat tarkastelevat yhdessä AI-käytäntöasiakirjoja

Miksi tammikuu 2025 on tärkeä

Vuoden 2025 ensimmäinen puolisko on se hetki, jolloin AI koulutuksessa lakkaa olemasta sivuprojekti ja alkaa näyttäytyä johtamisen vastuuna. Generatiivinen AI on nyt upotettuna yleisiin työkaluihin toimisto-ohjelmistoista oppimisalustoihin, ja hallitukset ottavat sitä kiinni.

Sinulla saattaa jo olla perustason AI-lausuma osana digitaalista tai opetus- ja oppimispolitiikkaasi. Päivitetyn Department for Educationin (DfE) ohjeistuksen, voimaantulovaiheeseen siirtyvän EU:n AI-asetuksen sekä tietosuojaan ja suojeluun keskittyvien viranomaisten myötä tarkastajat ja hallitukset odottavat kuitenkin jotain konkreettisempaa.

Tämä artikkeli tarjoaa lukukauden alun “politiikkatutka”-katsauksen tammi–heinäkuulle 2025. Se keskittyy siihen, mitä tänä vuonna todella täytyy muuttaa, miten osoittaa AI:n vastuullinen käyttö ja miten tehdä se hiomalla olemassa olevaa sen sijaan, että aloitettaisiin alusta. Laajempaa taustaa trendeistä saat myös raportistamme AI:n tilasta Ison-Britannian koulutuksessa.

Uusi toimintaympäristö yhdellä silmäyksellä

Eri järjestelmissä kolme kokonaisuutta muovaa koulujen ja oppilaitosten odotuksia:

Ensinnäkin kansallinen ohjeistus, kuten DfE:n AI-ohjeistus koulutusympäristöille sekä siihen liittyvät päivitykset digitaaliseen toimintaan ja tietosuojaan. Nämä asiakirjat eivät määrää tiettyjä työkaluja, mutta ne asettavat periaatteet ja odotukset riskien arvioinnista, hallinnosta ja henkilöstön osaamisesta.

Toiseksi EU:n AI-asetus, joka luokittelee AI-järjestelmät riskin mukaan ja asettaa erityisiä velvoitteita “korkean riskin” käytöille, mukaan lukien monet koulutukseen liittyvät järjestelmät. Myös brittiläisille toimijoille tämä on merkityksellistä, jos käytätte EU-pohjaisia alustoja tai palvelette EU-opiskelijoita, ja se vaikuttaa siihen, mitä toimittajat lupaavat sopimuksissaan.

Kolmanneksi olemassa olevat viitekehykset, erityisesti tietosuoja, suojelu ja tekijänoikeus. Viranomaiset korostavat, että AI ei ole erillinen kategoria, vaan se kuuluu nykyisten velvoitteiden piiriin. Jos AI-työkalu käsittelee oppilasdataa, sen on täytettävä samat vaatimukset kuin minkä tahansa muun järjestelmän.

Viesti on johdonmukainen: et tarvitse erillistä AI-byrokratiaa, mutta sinun on pystyttävä osoittamaan, että AI on kudottu osaksi nykyisiä riskienhallinta-, opetussuunnitelma- ja hallintoprosessejasi.

DfE:n ja Ison-Britannian päivitykset

Britanniassa toimiville kouluille ja oppilaitoksille DfE:n AI-ohjeistus ja siihen liittyvät päivitykset tiivistyvät muutamaan odotukseen, jotka on realistista käsitellä tämän lukukauden aikana.

Johtajien tulisi pystyä kuvaamaan selkokielellä, miten AI:tä käytetään organisaatiossa ja miksi. Tämä kattaa sekä harkitut käyttötavat, kuten AI-kirjoitusavun henkilöstölle, että satunnaiset käyttötavat, kuten toimisto-ohjelmistoihin sisältyvät AI-ominaisuudet. Lyhyt keskeisten AI-käyttöjen rekisteri, josta vastaa nimetty johtaja, on nyt järkevä minimitaso.

Käytännöissä tulisi näkyä, että AI on huomioitu suojelussa, käyttäytymisessä ja arvioinnissa. Tämä ei tarkoita AI-tuotetun työn kieltämistä, vaan selkeyttä siitä, milloin AI-tuki on hyväksyttävää, miten akateeminen rehellisyys säilytetään ja miten AI:n mahdollistamat sisältöriskit (esimerkiksi deepfake-videot tai haitalliset kehotteet) käsitellään.

DfE korostaa myös henkilöstön osaamista. Tarkastajat ja hallitukset kysyvät yhä todennäköisemmin, miten tuette henkilöstöä AI:n turvallisessa ja tehokkaassa käytössä, eivät sitä, onko jokainen opettaja asiantuntija. Yksinkertainen vuosittainen koulutussykli, linjassa digitaalisen suojelun ja arviointikäytäntöjen kanssa, riittää yleensä.

Laajempaa valmistautumislistaa varten voit palata syyskuun AI-valmiusoppaaseemme ja mukauttaa sitä lukuvuoden puolivälin tarkasteluun.

EU:n AI-asetus selkokielellä

EU:n AI-asetus on monimutkainen, mutta koulujen ja oppilaitosten kannalta kolme ideaa on keskeistä.

Koulutuksessa käytettävät AI-järjestelmät voidaan luokitella “korkean riskin” järjestelmiksi, jos ne vaikuttavat merkittävästi koulutukseen pääsyyn tai arvioinnin tuloksiin. Esimerkkejä ovat automaattinen valvonta kokeissa, hakujärjestelmät tai analytiikka, joka vaikuttaa etenemispäätöksiin. Korkean riskin järjestelmiltä edellytetään tiukkoja vaatimuksia läpinäkyvyydestä, ihmisen valvonnasta ja luotettavuudesta.

General-purpose AI (GPAI) -mallit, kuten large language models, ovat pääosin sääntelyn kohteena palveluntarjoajatasolla, mutta oppilaitoksilla on silti velvoitteita, kun ne integroivat näitä työkaluja opetukseen ja hallintoon. Voit odottaa toimittajilta aiempaa selkeämpää dokumentaatiota siitä, miten heidän AI-ominaisuutensa toimivat ja millaisia suojatoimia on käytössä.

Vaikka olisit EU:n ulkopuolella, saatat käyttää EU-pohjaisia alustoja tai palvella EU-opiskelijoita. Käytännössä tämä tarkoittaa, että hankinta- ja tietosuojakeskusteluissa tulisi käsitellä AI-riskiluokitusta, toimittajan AI-asetuksen noudattamista sekä sitä, miten he tukevat suojelu- ja yhdenvertaisuusvelvoitteitasi.

Johtajille tärkein seuraus ei ole työkalujen luokittelu itse, vaan sen varmistaminen, että sopimukset ja due diligence heijastavat näitä uusia odotuksia.

Tietosuoja, suojelu ja hankinta

Välittömimmät muutokset tammi–heinäkuulle 2025 koskevat riskienhallinta- ja hankintaprosesseja pikemminkin kuin luokkahuonetta.

Kun teet tai päivität tietosuojaa koskevia vaikutustenarviointeja (DPIA), sinun on nyt huomioitava AI-ominaisuudet nimenomaisesti. Tämä sisältää sen, minne data tallennetaan, käytetäänkö sitä mallien kouluttamiseen ja kuinka kauan sitä säilytetään. Monet nykyiset DPIA:t voidaan päivittää lisäämällä AI:tä käsittelevä osio sen sijaan, että ne kirjoitettaisiin kokonaan uudelleen.

Suojelukäytännöissä tulisi tunnistaa AI-tuotetun sisällön riskit ja väärinkäytön mahdollisuus, kuten AI-avusteinen kiusaaminen tai tekaistut kuvat. Tämä on parasta integroida osaksi olemassa olevaa verkkoturvallisuus- ja digikansalaistaitojen viitekehystä sen sijaan, että sitä käsiteltäisiin erillisenä aiheena. Artikkelimme digikansalaisuudesta ja AI:stä tarjoaa käytännön näkökulmia luokkahuoneeseen.

Hankintaprosesseihin tarvitaan kevyt mutta selkeä AI-näkökulma. Uusia järjestelmiä käyttöönotettaessa pyydä toimittajia selittämään, mitkä tuotteen osat käyttävät AI:tä, mitä dataa käsitellään ja miten he noudattavat asiaankuuluvia säädöksiä, mukaan lukien tarvittaessa EU:n AI-asetus. Tämän voi kirjata yksinkertaiseen AI-riskitarkistuslistaan, joka liitetään tavanomaisiin hankintadokumentteihin.

Politiikasta käytäntöön

Johtajien tämän lukukauden prioriteetti on muuttaa nämä odotukset näkyviksi ja hallittaviksi toimiksi.

Monet organisaatiot lisäävät lyhyen AI-osion olemassa olevaan digistrategiaan tai tietosuojakäytäntöön sen sijaan, että laatisivat kokonaan uuden AI-käytännön. Tämä osio kuvaa tyypillisesti organisaation periaatteet AI:n käytölle, kuten ihmisen valvonta, yhdenvertaisuus, läpinäkyvyys ja tietojen minimointi, ja viittaa tarvittaessa yksityiskohtaisempiin menettelyihin.

Käytännössä voit pilotoida AI:tä muutamissa tarkasti rajatuissa hallinnollisissa tehtävissä, kuten kirjeiden luonnostelussa tai asiakirjojen tiivistämisessä, samalla kun asetat selkeämmät rajat herkemmille käyttötavoille, kuten arvioinnille tai tukitoimipäätöksille. Tärkeintä on osoittaa, että AI:n käyttö on tarkoituksenmukaista, arvioitua ja suhteutettua.

Luokkahuoneessa AI voidaan kehystää yhtenä oppimista tukevana työkaluna, ei ajattelun korvikkeena. Esimerkiksi oppilaitos voi sallia opiskelijoiden käyttää AI:tä luonnosrunkojen tuottamiseen, mutta edellyttää, että he kommentoivat ja arvioivat tuotosta ja tekevät oman ajattelunsa näkyväksi.

Valmiina mullistamaan opetuskokemuksesi?

Tutustu Automaattisen Opetuksen voimaan liittymällä yhteisöömme opettajia, jotka ottavat aikansa takaisin samalla kun rikastuttavat luokkahuoneitaan. Intuitiivisen alustamme avulla voit automatisoida hallinnollisia tehtäviä, personoida oppilaiden oppimista ja olla vuorovaikutuksessa luokkasi kanssa aivan uudella tavalla.

Älä anna hallinnollisten tehtävien varjostaa intohimoasi opettamiseen. Liity mukaan tänään ja muuta opetustympäristösi Automaattisen Opetuksen avulla.

🎓 Rekisteröidy ILMAISEKSI!

Yhteistyö henkilöstön, opiskelijoiden ja huoltajien kanssa

Käytännöt toimivat vain, jos ihmiset ymmärtävät ne. Vuonna 2025 tavoitteena ei ole kouluttaa kaikista AI-asiantuntijoita, vaan antaa kullekin ryhmälle riittävä selkeys turvalliseen ja varmaan toimintaan.

Henkilöstölle lyhyet, tilanteisiin perustuvat koulutukset ovat tehokkaampia kuin pitkät luennot sääntelystä. Voitte esimerkiksi käsitellä, miten toimitaan, jos opiskelija palauttaa AI:llä tuotettua työtä, miten tunnistaa AI:n “hallusinaatiot” sisällössä tai miten käyttää AI-suunnittelutyökaluja kopioimatta arkaluonteista dataa kehotteisiin. Kun tämä kytketään arviointi- ja suojelukäytäntöihin, se pysyy käytännönläheisenä.

Opiskelijat tarvitsevat selkeät ohjeet siitä, milloin AI:n käyttö on hyväksyttävää, miten sen käyttöä merkitään ja miten AI-tuotettua tietoa arvioidaan kriittisesti. Tämän sisällyttäminen olemassa oleviin digilukutaidon oppitunteihin tai tuutorointiin on yleensä parempi ratkaisu kuin erillisen AI-moduulin luominen. Voit nojata samoihin periaatteisiin, joita käytät verkkotutkimuksen ja plagioinnin käsittelyssä.

Huoltajat ovat usein huolissaan sekä liiallisesta käytöstä että menetetyistä mahdollisuuksista. Yhden sivun yhteenveto, jaettuna tavanomaisia kanavianne pitkin, voi selittää lähestymistapanne selkokielellä: millaisia AI-työkaluja opiskelijat voivat kohdata, miten hallitsette riskejä ja miten perheet voivat tukea tervettä käyttöä kotona.

Näyttöä tarkastajille ja hallitukselle

Tarkastajat ja hallitukset eivät odota täydellisyyttä, mutta he odottavat, että AI:ta on pohdittu jäsennellysti.

Sinun tulisi pystyä esittämään yksinkertainen kartta siitä, missä AI:tä käytetään organisaatiossa, kuka vastaa valvonnasta ja miten riskejä arvioidaan. Tämä voi olla lyhyt rekisteri, jossa luetellaan keskeiset järjestelmät, niiden tarkoitus, käsiteltävä data ja tarkistuspäivät.

Johtoryhmän tai hallituksen kokouspöytäkirjat, joissa AI:ta on käsitelty ja joissa on selkeät toimenpiteet, ovat vahvaa näyttöä. Samoin lyhyet kirjaukset henkilöstökoulutuksista, opiskelijaohjeistuksesta ja päivitetystä DPIA-työstä. Et tarvitse kiiltäviä strategioita; tarvitset johdonmukaisen dokumentoidun kokonaisuuden.

On myös hyödyllistä tuoda esiin, miten AI tukee ydintehtäväänne. Voit esimerkiksi osoittaa, miten AI-avusteinen käännös on parantanut viestintää perheiden kanssa tai miten AI-työkaluja käytetään eriyttämään materiaaleja lisätuen tarpeessa oleville opiskelijoille selkeiden eettisten rajojen puitteissa. Kun tekijänoikeuskysymyksiä nousee esiin, oppaamme tekijänoikeuksista ja AI:stä kouluissa voi auttaa keskustelun suuntaamisessa.

Yksinkertainen 90 päivän toimintasuunnitelma

Jotta kokonaisuus pysyy hallittavana, monet johtajat hyödyntävät 90 päivän suunnitelmaa keväälle ja alkukesälle 2025.

Ensimmäisen kuukauden aikana keskity näkyvyyteen ja periaatteisiin. Laadi tai päivitä AI-rekisteri, sovi lyhyt joukko organisaation AI-periaatteita ja tunnista kolme keskeisintä AI:hen tukeutuvaa järjestelmääsi. Aloita näiden työkalujen nykyisten DPIA:iden tarkastelu ja lisää niihin AI:tä koskevat huomiot.

Toisena kuukautena keskity ihmisiin ja menettelyihin. Järjestä vähintään yksi henkilöstöinfo, päivitä opiskelijaohjeistus ja käyttäytymis- tai akateemisen rehellisyyden käytäntö niin, että AI mainitaan siinä nimenomaisesti, ja lisää AI-kysymykset hankintatarkistuslistaan. Varmista, että suojelu- ja verkkoturvallisuusvastaavat ovat linjassa.

Kolmantena kuukautena siirry varmistamiseen ja näyttöön. Viimeistele päivitetyt DPIA:t, kirjaa lyhyesti johtoryhmän ja hallituksen AI-keskustelut ja aikatauluta kevyt tarkistuskierros seuraavan lukuvuoden alkuun. Heinäkuuhun mennessä sinun tulisi pystyä osoittamaan selkeä, suhteutettu lähestymistapa pikemminkin kuin yksittäinen reaktio.

AI-tutkan ajan tasalla pitäminen

AI-politiikka kehittyy edelleen vuoden 2025 aikana ja sen jälkeen, mutta peruslinjat tuskin muuttuvat dramaattisesti: tarkoituksen selkeys, vahva tietosuoja, suojelu suunnittelusta lähtien ja jatkuva henkilöstön kehittäminen.

Sinun ei tarvitse seurata jokaista sääntelynyanssia. Sen sijaan nimeä vastuuhenkilö (usein tietosuojavastaava tai digivastaava) seuraamaan keskeisiä päivityksiä hallitukselta, tietosuojaviranomaiselta ja suurilta toimittajilta ja tuomaan lyhyt AI-katsaus johtoryhmään kerran lukukaudessa. Työkalujen ja käytäntöjen tarkastelu joka syyskuu, hyödyntäen esimerkiksi AI-valmiuschecklistiä, pitää lähestymistavan ajantasaisena ilman jatkuvaa myllerrystä.

Tavoite tammi–heinäkuulle 2025 on yksinkertainen: osoittaa, että organisaatiosi käyttää AI:tä harkiten, olemassa olevien oikeudellisten ja eettisten viitekehysten puitteissa, ja että opitte ja sopeudutte ympäristön kehittyessä. Keskittyneellä 90 päivän suunnitelmalla ja kevyellä mutta jatkuvalla politiikkatarkkailulla voit vastata odotuksiin ilman, että kaikkea kirjoitetaan uudelleen alusta.

Iloista hallinnointia!
The Automated Education Team

Sisällysluettelo

Kategoriat

Oppaat

Tagit

Tekoäly Koulutus Teknologia

Uusimmat

Vaihtoehtoiset kielet