Hur påverkar AI vår förståelse i utbildningssammanhang – och vad händer med lärandet när tekniken inte kan förklara sig?

I en ny artikel som jag skrivit tillsammans med Roger McDermott och Mats Daniels diskuterar vi hur generativ AI påverkar centrala pedagogiska begrepp som förklaring, förståelse och kompetens. Vi ser tydligt att många AI-verktyg, trots sin användbarhet, saknar det som ofta är avgörande i undervisning: möjligheten att förklara varför något är som det är.

I traditionell undervisning är förklaringar centrala – både för lärarens sätt att undervisa och för studentens sätt att visa förståelse. Men när tekniken blir ett svart låda, där svar ges utan transparens, kan själva lärandeprocessen påverkas negativt. Det gäller särskilt i STEM-ämnen där kausala samband är viktiga för att bygga en djupare förståelse.

Vi introducerar därför begreppet interrogabilitet – alltså AI-systemets förmåga att kunna besvaras och ifrågasättas. Det handlar om att bevara elevernas aktiva roll i lärandet, även när AI är en del av undervisningen. Vi menar att tekniken måste stödja dialog, kritiskt tänkande och reflektion – inte ersätta dem.

Ska AI bidra till utbildning på riktigt, behöver vi se bortom automatisering och istället ställa krav på system som stödjer förståelse. Det är först då AI kan bli ett verkligt pedagogiskt verktyg – snarare än ett snabbt genvägsverktyg.


Är du intresserad av AI, pedagogik och digital utbildning? Läs gärna artikeln här:
https://link.springer.com/chapter/10.1007/978-3-031-93567-1_21