Home Nieuws Waarom het grootste risico van AI in het hoger onderwijs de erosie...

Waarom het grootste risico van AI in het hoger onderwijs de erosie van het leren is

3
0
Waarom het grootste risico van AI in het hoger onderwijs de erosie van het leren is

Publiek debat over kunstmatige intelligentie in het hoger onderwijs speelt grotendeels een bekende zorg: bedriegen. Zullen studenten chatbots gebruiken om essays te schrijven? Kunnen docenten dat vertellen? Moeten universiteiten de technologie verbieden? Omarm het?

Deze zorgen zijn begrijpelijk. Maar door zo veel op bedrog te focussen, wordt de grotere transformatie die al gaande is over het hoofd gezien, een transformatie die veel verder reikt dan het wangedrag van studenten en zelfs het klaslokaal.

Universiteiten adopteren AI op vele terreinen van het institutionele leven. Sommige toepassingen zijn grotendeels onzichtbaar, zoals systemen die helpen bij het toewijzen van middelen, markeer studenten die risico lopenoptimaliseer de cursusplanning of automatiseer routinematige administratieve beslissingen. Andere toepassingen vallen meer op. Studenten gebruiken AI-tools om samen te vatten en te studeren, docenten gebruiken ze om opdrachten en syllabi te maken, en onderzoekers gebruiken ze om code te schrijven, literatuur te scannen en urenlang saai werk in minuten te comprimeren.

Mensen kunnen AI gebruiken om vals te spelen of werkopdrachten over te slaan. Maar de vele toepassingen van AI in het hoger onderwijs, en de veranderingen die zij met zich meebrengen, roepen een veel diepere vraag op: wat gebeurt er met het hoger onderwijs als machines steeds beter in staat worden het werk van onderzoek en leren te doen? Welk doel dient de universiteit?

De afgelopen acht jaar hebben we de morele implicaties van diepgaande betrokkenheid bij AI bestudeerd als onderdeel van een gezamenlijk onderzoeksproject tussen de Centrum voor Toegepaste Ethiek bij UMass Boston en de Instituut voor Ethiek en opkomende technologieën. In een recent witboekstellen wij dat naarmate AI-systemen autonomer worden, de ethische belangen van het gebruik van AI in de hogere onderwijssector toenemen, evenals de potentiële gevolgen ervan.

Naarmate deze technologieën beter worden in het produceren van kenniswerk – het ontwerpen van lessen, het schrijven van papers, het voorstellen van experimenten en het samenvatten van moeilijke teksten – maken ze universiteiten niet alleen productief. Ze lopen het risico het ecosysteem van leren en mentorschap uit te hollen waarop deze instellingen zijn gebouwd en waarvan ze afhankelijk zijn.

Niet-autonome AI

Beschouw drie soorten AI-systemen en hun respectieve impact op het universitaire leven:

AI-aangedreven software wordt al in het hoger onderwijs gebruikt toelatingsoverzichtinkoop, academisch adviesen institutionele risicobeoordeling. Deze worden beschouwd als “niet-autonome” systemen omdat ze taken automatiseren, maar een persoon is “op de hoogte” en gebruikt deze systemen als hulpmiddelen.

Deze technologieën kunnen dat een risico vormen voor de privacy en gegevensbeveiliging van studenten. Ze kunnen ook bevooroordeeld zijn. En het ontbreekt hen vaak aan voldoende transparantie om de oorzaken van deze problemen te achterhalen. Wie heeft toegang tot leerlinggegevens? Hoe worden “risicoscores” gegenereerd? Hoe voorkomen we dat systemen ongelijkheden reproduceren of bepaalde leerlingen behandelen als problemen die moeten worden beheerd?

Deze vragen zijn serieus, maar conceptueel niet nieuw, althans niet op het gebied van de informatica. Universiteiten beschikken doorgaans over compliance-kantoren, institutionele beoordelingsraden en bestuursmechanismen die zijn ontworpen om deze risico’s te helpen aanpakken of beperken, zelfs als ze soms niet aan deze doelstellingen voldoen.

Hybride AI

Hybride systemen omvatten een reeks tools, waaronder AI-ondersteunde chatbots voor bijles, gepersonaliseerde feedbacktools en geautomatiseerde schrijfondersteuning. Ze vertrouwen vaak op generatieve AI-technologieënvooral grote taalmodellen. Hoewel menselijke gebruikers de algemene doelen bepalen, zijn de tussenstappen die het systeem neemt om deze te bereiken vaak niet gespecificeerd.

Hybride systemen geven steeds meer vorm aan het dagelijkse academische werk. Studenten gebruiken ze als schrijfgenoten, docenten, brainstormpartnersen uitleg op aanvraag. Docenten gebruiken ze om rubrieken te genereren, lezingen op te stellen en syllabi te ontwerpen. Onderzoekers gebruiken ze om artikelen samen te vatten, commentaar te geven op concepten, experimenten te ontwerpen en code te genereren.

Dit is waar het ‘valsspelen’-gesprek thuishoort. Nu studenten en docenten steeds meer op technologie leunen voor hulp, is het redelijk om je af te vragen welke soorten leerproces onderweg verloren kunnen gaan. Maar hybride systemen roepen ook complexere ethische vragen op.

Eén daarvan heeft te maken met transparantie. AI-chatbots bieden interfaces in natuurlijke taal die het moeilijk maken om te bepalen wanneer u met een mens communiceert en wanneer u met een geautomatiseerde agent communiceert. Dat kan vervreemdend en afleidend zijn voor degenen die met hen omgaan. Een student die materiaal voor een toets doorneemt, moet kunnen zien of hij met zijn onderwijsassistent praat of met een robot. Een student die feedback op een scriptie leest, moet weten of deze door de docent is geschreven. Alles wat minder is dan volledige transparantie zal in dergelijke gevallen vervreemdend werken voor alle betrokkenen en zal de focus van academische interacties verleggen van het leren naar de middelen of de technologie van het leren. Onderzoekers van de Universiteit van Pittsburgh hebben dat aangetoond deze dynamiek brengt gevoelens van onzekerheid, angst en wantrouwen met zich mee voor studenten. Dit zijn problematische uitkomsten.

Een tweede ethische vraag heeft betrekking op verantwoording en intellectueel krediet. Als een docent AI gebruikt om een ​​opdracht op te stellen en een leerling AI om een ​​antwoord op te stellen, wie evalueert dan en wat wordt er precies geëvalueerd? Als feedback deels door machines wordt gegenereerd, wie is dan verantwoordelijk als deze misleidende, ontmoedigende of verborgen aannames verankert? En wanneer AI substantieel bijdraagt ​​aan de synthese of het schrijven van onderzoek, zullen universiteiten dat ook doen hebben duidelijkere normen nodig rond auteurschap en verantwoordelijkheidNiet alleen voor studenten, maar ook voor docenten.

Ten slotte is er de kritische kwestie van cognitieve ontlading. AI kan het saaie werk verminderen, en dat is niet per definitie slecht. Maar het kan gebruikers ook afleiden van de onderdelen van het leren die competentie opbouwen, zoals het genereren van ideeën, het worstelen met verwarring, het herzien van een onhandig concept en het leren ontdekken van je eigen fouten.

Autonome agenten

De meest consequente veranderingen kunnen komen met systemen die minder op assistenten en meer op agenten lijken. Hoewel werkelijk autonome technologieën ambitieus blijven, is de droom van een onderzoeker “in een doos”– een agentisch AI-systeem dat zelfstandig onderzoeken kan uitvoeren – wordt steeds realistischer.

Er wordt verwacht dat agentische tools dit zullen doen ‘Tijd vrijmaken’ voor werk dat zich richt op meer menselijke capaciteiten zoals empathie en probleemoplossing. Bij het lesgeven kan dit betekenen dat docenten nog steeds les kunnen geven in de zin van het woord, maar dat een groter deel van de dagelijkse instructiewerkzaamheden kan worden overgedragen aan systemen die zijn geoptimaliseerd voor efficiëntie en schaalgrootte. Op dezelfde manier wijst het traject in het onderzoek in de richting van systemen die de onderzoekscyclus steeds meer kunnen automatiseren. In sommige domeinen lijkt dat al zo robotlaboratoria die continu draaienautomatiseer grote delen van het experimenteren en selecteer zelfs nieuwe tests op basis van eerdere resultaten.

Op het eerste gezicht klinkt dit misschien als een welkome boost voor de productiviteit. Maar universiteiten zijn geen informatiefabrieken; het zijn praktijksystemen. Ze vertrouwen op een pijplijn van afgestudeerde studenten en academici die aan het begin van hun carrière leren lesgeven en onderzoeken door aan datzelfde werk deel te nemen. Als autonome agenten meer van de ‘routinematige’ verantwoordelijkheden op zich nemen die historisch gezien dienden als opstap naar het academische leven, zou de universiteit cursussen en publicaties kunnen blijven produceren, terwijl ze stilletjes de gelegenheidsstructuren die de expertise in stand houden, in de loop van de tijd zou uitdunnen.

Dezelfde dynamiek geldt voor studenten, zij het in een ander register. Wanneer AI-systemen op verzoek uitleg, concepten, oplossingen en studieplannen kunnen leveren, is de verleiding groot om de meest uitdagende onderdelen van het leren te ontlasten. Voor de industrie die AI naar universiteiten pusht, kan het lijken alsof dit soort werk ‘inefficiënt’ is en dat studenten dit beter door een machine kunnen laten doen. Maar het is juist de aard van die strijd die duurzaam begrip opbouwt. De cognitieve psychologie heeft aangetoond dat studenten intellectueel groeien door het werk van het opstellen, herzien, falen, opnieuw proberen, worstelen met verwarring en het herzien van zwakke argumenten. Dit is het werk van leren leren.

Alles bij elkaar suggereren deze ontwikkelingen dat het grootste risico van automatisering in het hoger onderwijs niet eenvoudigweg de vervanging van bepaalde taken door machines is, maar de erosie van het bredere ecosysteem van de praktijk dat al lang onderwijs, onderzoek en leren ondersteunt.

Een ongemakkelijk keerpunt

Welk doel dienen universiteiten dan in een wereld waarin kenniswerk steeds meer geautomatiseerd wordt?

Eén mogelijk antwoord beschouwt de universiteit in de eerste plaats als een motor voor het produceren van diploma’s en kennis. Daar is de kernvraag: behalen studenten een diploma? Worden er papieren en ontdekkingen gegenereerd? Als autonome systemen deze resultaten efficiënter kunnen leveren, heeft de instelling alle reden om deze te adopteren.

Maar een ander antwoord beschouwt de universiteit als iets meer dan een outputmachine, en erkent dat de waarde van het hoger onderwijs deels in het ecosysteem zelf ligt. Dit model kent intrinsieke waarde toe aan de pijplijn van kansen waardoor beginners experts worden, aan de mentorschapsstructuren waardoor oordeel en verantwoordelijkheid worden gecultiveerd, en aan het onderwijsontwerp dat productieve strijd aanmoedigt in plaats van deze weg te optimaliseren. Hier gaat het er niet alleen om of kennis en graden worden geproduceerd, maar ook hoe ze worden geproduceerd en welke soorten mensen, capaciteiten en gemeenschappen daarbij worden gevormd. In deze versie moet de universiteit dienen als niet minder dan een ecosysteem dat op betrouwbare wijze menselijke expertise en oordeelsvorming vormt.

In een wereld waar het kenniswerk zelf steeds meer geautomatiseerd wordt, denken wij dat universiteiten zich moeten afvragen wat het hoger onderwijs te danken heeft aan haar studenten, haar beginnende wetenschappers en de samenleving die het dient. De antwoorden zullen niet alleen bepalen hoe AI wordt toegepast, maar ook wat de moderne universiteit zal worden.


Nir Eisikovits is hoogleraar filosofie en directeur van het Centrum voor Toegepaste Ethiek in UMass Boston.

Jacob Burley is een junior research fellow bij het Applied Ethics Center in UMass Boston.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lees de origineel artikel.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in