Home Thema's Inclusief onderwijs Risico’s op discriminatie en uitsluiting bij inzet algoritmen in het onderwijs
Inclusief onderwijs

Risico’s op discriminatie en uitsluiting bij inzet algoritmen in het onderwijs

Risico’s op discriminatie en uitsluiting bij inzet algoritmen in het onderwijs
Achtergrond

Welke risico’s op discriminatie en uitsluiting (en kansen ter voorkoming hiervan) doen zich voor bij de inzet van algoritmen in het onderwijs in Nederland of kunnen zich in de toekomst voor gaan doen? Dat onderzochten KBA Nijmegen en ResearchNed in opdracht van het College voor de Rechten van de Mens voor het primair en voortgezet onderwijs, het middelbaar beroepsonderwijs en het hoger onderwijs.

Inzet algoritmen in het onderwijs

Algoritmen worden in alle onderwijssectoren gebruikt.

  • In het primair en voortgezet onderwijs gaat het met name om adaptieve leersystemen, automatische nakijkprogramma’s, dashboards, simulaties, leerlingvolgsystemen en adaptieve toetsen.
  • In het mbo en hoger onderwijs wordt onder meer gebruik gemaakt van ‘learning analytics’, om de studievoortgang te volgen en/of de kwaliteit van het onderwijs te monitoren. In samenhang daarmee wordt in het mbo en het hoger onderwijs gewerkt aan modellen die in een vroeg stadium van de studie mogelijke studieuitval en de behoefte aan extra ondersteuning kunnen voorspellen.
  • Tenslotte zijn er in verschillende onderwijssectoren toepassingen gericht op het voorkomen van fraude en zijn er plaatsingssystemen die algoritmen gebruiken.
Algemene risico’s en risico’s per toepassing

De onderzoekers noemen een aantal algemene risico’s:

  • Systemen werken niet voor iedereen hetzelfde.
  • Snelle ontwikkeling technologie maakt omgang met nieuwe risico’s ongewis.

Het rapport benoemt ook risico’s voor vijf toepassingsgebieden:

  • Adaptieve (gepersonaliseerde) leersystemen en adaptieve toetsen.
  • Programma’s die teksten van leerlingen en hun interactie met literatuur en elkaar beoordelen.
  • Automatische analyse van data van leerlingen.
  • Anti-spieksoftware (proctoring software).
  • Algoritmes die worden ingezet bij het plaatsen van leerlingen op scholen of bij toelating van opleidingen.

De onderzoekers constateren dat er nog veel werk aan de winkel is:

  • Onderwijsinstellingen zelf hebben vaak nog weinig beleid op de inzet van algoritmes in de klas.
  • Vertegenwoordigers van ouders merken dat ouders niet goed door scholen worden geïnformeerd over toepas­singen waarin algoritmes aan het werk zijn.
  • Docenten en schoolbesturen schatten de eigen kennis van artificiële intelligentie laag in.
Aanbevelingen aan ministerie van OCW en aan onderwijsinstellingen en samenwerkingsverbanden

De onderzoekers doen drie aanbevelingen aan het ministerie van OCW:

  • Voorkom discriminatie door digitale systemen in het onderwijs.
  • Test digitale systemen op kansenongelijkheid.
  • Geef voorlichting over de risico’s op discriminatie en uitsluiting bij digitale systemen.

Daarnaast geven ze vier aanbevelingen aan onderwijsinstellingen en samenwerkingsverbanden:

  • Stel als voorwaarde dat ingezette onderwijstechnologie recht doet aan kinderrechten, het discriminatieverbod, en de AI-verordening.
  • Maak steeds een zorgvuldige afweging of algo­ritmes in een bepaalde situatie moeten worden ingezet.
  • Betrek ouders en leerlingen in digitaal onderwijs.
  • Werk als scholen samen om deskundigheid op te bouwen en eisen te kunnen stellen aan technologie.

Bron: College voor de Rechten van de Mens.

Delen:

Wil je op de hoogte blijven? Schrijf je nu in voor
de nieuwsbrief of registreer direct

Trending topics
Smartphonebeleid vo-scholen op orde, praktijk loopt achter
DUO verwijdert enquête na datalek