Met kinderen praten over AI: een eenvoudige en nuttige gids
Ik kreeg onlangs de geweldige kans om deel te nemen aan een programma genaamd Skype naar wetenschapper, waar wetenschappers uit verschillende disciplines (biologen, botanici, ingenieurs, computerwetenschappers, etc.) samenkomen met kinderklassen om over ons werk te praten en hun vragen te beantwoorden. Ik ben heel gewend om met volwassenen over AI en machine learning te praten, maar dit is de eerste keer dat ik er echt over heb nagedacht hoe ik met kinderen over dit onderwerp kan praten. Het was een interessante uitdaging. Vandaag wil ik een aantal ideeën met jullie delen die ik heb bedacht tijdens dit proces. Deze ideeën kunnen wellicht nuttig zijn voor diegenen onder jullie die op de een of andere manier kinderen in hun leven hebben. Deze ideeën bieden waardevolle inzichten in hoe je complexe AI-concepten op een boeiende en begrijpelijke manier kunt vereenvoudigen voor kinderen.

Bereid je voor om een concept uit te leggen
Wanneer ik mij voorbereid op een lezing voor een publiek, volg ik een aantal basisregels. Ik moet heel duidelijk zijn over welke informatie ik wil presenteren en welke nieuwe concepten het publiek na de lezing moet kennen. Dit bepaalt namelijk alles over de informatie die ik ga delen. Ik wil mijn materiaal ook op een niveau van complexiteit presenteren dat past bij de kennis van het publiek. Ik wil de zaken niet te simpel maken, maar ik wil ze ook niet boven hun begripsniveau pushen.
In mijn dagelijks leven ben ik er niet per se van op de hoogte wat kinderen al weten (of denken te weten) over kunstmatige intelligentie (AI). Ik wil mijn uitleg aanpassen aan het niveau van mijn publiek, maar in dit geval heb ik slechts een beperkt inzicht in hun achtergrondkennis. In sommige gevallen was ik verrast om te zien dat de kinderen zich heel goed bewust waren van zaken als AI-concurrentie tussen bedrijven en over internationale grenzen heen. Een nuttige oefening om te bepalen hoe je inhoud gaat formuleren, is het bedenken van metaforen die gebruikmaken van concepten of technieken waar het publiek al bekend mee is. Als je hierover nadenkt, krijg je ook inzicht in de achtergrond van je publiek. Wees er bovendien op voorbereid dat u uw presentatiestijl moet aanpassen als u tot de conclusie komt dat u niet aan de eisen voldoet. Ik vraag kinderen graag eerst wat ze van AI vinden en wat ze er al van weten, zodat ik duidelijkheid kan krijgen voordat ik te ver op de zaken vooruitloop.
Technologie begrijpen: de basisprincipes van AI-modellen
Vooral bij kinderen concentreer ik mijn presentaties op een aantal hoofdpunten. Lezers weten dat ik een groot voorstander ben van het onderwijzen van niet-experts hoe ze grote taalmodellen (LLM's) en andere AI-modellen kunnen trainen en met welke gegevens ze dat doen. Dit is essentieel om realistische verwachtingen te kunnen vormen over de uitkomsten van deze modellen. Ik denk dat het voor iedereen, inclusief kinderen, gemakkelijk is om meegesleept te worden door de belichaamde aard van de toon, de stem en zelfs de ‘persoonlijkheid’ van LLM-modellen, en de realistische beperkingen van deze hulpmiddelen uit het oog te verliezen.
De uitdaging is om de informatie aan te passen aan de leeftijd van de leerlingen. Maar zodra je ze uitlegt hoe training werkt, hoe LLM-modellen leren van voorbeelden uit geschreven materiaal of hoe een diffusie-model leert van tekst-afbeeldingparen, kunnen ze hun eigen conclusies trekken over de mogelijke uitkomsten. Omdat AI-agenten complexer worden en de onderliggende mechanismen moeilijker te isoleren zijn, is het belangrijk dat gebruikers de bouwstenen begrijpen die tot deze mogelijkheid leiden.
Ik begin met het uitleggen van training als een algemeen concept, waarbij ik zoveel mogelijk vakjargon vermijd. Wanneer u met kinderen praat, kan een beetje lichaamsgerichte taal ervoor zorgen dat de dingen minder dubbelzinnig lijken. Bijvoorbeeld: “We geven computers veel informatie en vragen hen de patronen daarin te leren.” Hierna zal ik voorbeelden van patronen beschrijven, zoals die voorkomen in taal of in pixels in een afbeelding. Het woord ‘patronen’ alleen is namelijk te algemeen en breed. Vervolgens: "Deze patronen die je leert, worden met behulp van wiskunde opgeschreven, en deze wiskunde zit in een 'model'. Wanneer we het model nu nieuwe informatie geven, stuurt het ons een reactie op basis van de patronen die het heeft geleerd.” Daarna geef ik nog een uitgebreid voorbeeld en leg ik een vereenvoudigd trainingsproces uit (meestal een tijdreeksmodel, omdat dat heel gemakkelijk te visualiseren is). Hierna ga ik dieper in op de verschillende typen modellen en leg ik het verschil uit tussen neurale netwerken en taalmodellen, voor zover dat relevant is voor het publiek.
AI-ethiek en externe invloeden
Ik wil het ook hebben over ethische kwesties rondom kunstmatige intelligentie. Ik geloof dat kinderen in de basisschool, middelbare school en hoger volledig in staat zijn om التأثيرات البيئية en de maatschappelijke impact die AI-technologieën, waaronder grote taalmodellen (LLM's), kunnen hebben. Ik denk dat veel kinderen tegenwoordig een heel ver gevorderd inzicht hebben in de wereldwijde klimaatverandering en de milieucrisis. Het is dan ook niet onredelijk om te praten over de hoeveelheid energie, water en zeldzame mineralen die nodig zijn om een LLM te volgen. Het is gewoon belangrijk dat je uitleg begrijpelijk is en past bij de leeftijd van de leerling. Zoals ik eerder al zei: gebruik voorbeelden die relevant zijn en aansluiten bij de belevingswereld van uw publiek. We moeten ons concentreren op AI-ethiek و Impact van kunstmatige intelligentie Over maatschappij en milieu.
Hier is een voorbeeld van de overgang van de ervaring van een kind naar de impact van AI op het milieu.
Hebben jullie niet allemaal Chromebooks om te gebruiken voor schoolwerk? Is het je ooit opgevallen dat de achterkant van je laptop warm wordt als je lang met je laptop op schoot zit te werken? Misschien als je veel bestanden tegelijk open hebt staan of veel video's bekijkt? Deze opwarming is hetzelfde als bij grote computers, servers genaamd, die draaien tijdens het trainen of het gebruik van een groot taalmodel (LLM), zoals wanneer je naar de chatGPT-website gaat.
De datacenters die ChatGPT draaiende houden, staan vol met servers die allemaal tegelijk draaien, en die worden allemaal erg heet, wat niet goed is voor de hardware. Daarom gebruiken deze datacenters soms koud water en wat chemicaliën samen, die door leidingen worden gepompt die direct over alle servers lopen. Dit helpt de machines te koelen en draaiende te houden. Dit betekent echter dat er een grote hoeveelheid water wordt gebruikt, gemengd met de chemicaliën en verwarmd terwijl het door deze systemen stroomt. Dit kan betekenen dat dit water niet beschikbaar is voor mensen om te gebruiken voor andere doeleinden, zoals landbouw of drinkwater.
Soms gebruiken deze datacenters grote airconditioners, die veel elektriciteit verbruiken, waardoor er mogelijk niet genoeg stroom is voor onze huizen of bedrijven. Elektriciteit wordt soms ook opgewekt door het verbranden van steenkool in energiecentrales, waardoor uitlaatgassen in de lucht terechtkomen en de vervuiling toeneemt.
Zo wordt de ervaring van het kind in het gesprek betrokken en krijgt het kind een concrete manier om met het concept om te gaan. Je kunt vergelijkbare discussies voeren over auteursrechtelijke ethiek en diefstal van inhoud, waarbij je gebruikmaakt van artiesten en makers die kinderen kennen, zonder dat je je hoeft te verdiepen in de details van intellectuele-eigendomsrechten. Deepfakes, seksueel en anderszins, zijn een onderwerp waar veel kinderen ook bekend mee zijn. Het is dan ook belangrijk dat kinderen zich bewust zijn van de risico's die AI kan vormen voor individuen en de maatschappij.
Het kan beangstigend zijn, vooral voor jonge kinderen, als ze zich gaan realiseren hoe onethisch AI-toepassingen kunnen zijn, welke wereldwijde uitdagingen het met zich meebrengt en hoe krachtig sommige van deze dingen kunnen zijn. Kinderen hebben mij gevraagd: "Hoe kunnen we het oplossen als iemand AI leert slechte dingen te doen?" Bijvoorbeeld. Ik wou dat ik betere antwoorden had, want ik moest eigenlijk zeggen: "AI beschikt soms over de informatie om slechte dingen te doen, maar er zijn ook veel mensen die hard werken om AI veiliger te maken en te voorkomen dat ze slechte informatie of instructies deelt over hoe ze slechte dingen kunnen doen."
Het deconstrueren van het concept ‘waarheid’
Het humaniseren van AI is een reëel probleem voor zowel volwassenen als kinderen: we hebben de neiging om te vertrouwen op een vriendelijke, zelfverzekerde stem als die ons dingen vertelt. Een groot deel van het probleem is dat de stem van het grote taalmodel (LLM) die ons dingen vertelt, vaak vriendelijk, zelfverzekerd en verkeerd klinkt. Het concept van mediawijsheid is al jaren een belangrijk onderwerp in het onderwijs, enHet uitbreiden ervan naar grote taalmodellen (LLM's) is een logische ontwikkeling.. Net zoals studenten (en volwassenen) kritisch moeten leren omgaan met informatie die door andere mensen of bedrijven wordt gecreëerd, moeten wij kritisch en bedachtzaam omgaan met door de computer gegenereerde content. Dat betekent dat we inzicht moeten hebben in de beperkingen van deze technologieën.
Ik denk dat dit ook samengaat met het begrijpen van technologie. Als ik uitleg dat de taak van een groot taalmodel (LLM) is om menselijke taal te leren en te kopiëren, op het eenvoudigste niveau door het volgende mogelijke woord in een reeks te bepalen op basis van wat eraan voorafging, dan klopt het als ik zeg dat een LLM het idee van "waarheid" niet kan begrijpen. Waarheid maakt geen deel uit van het trainingsproces. Tegelijkertijd is waarheid een heel moeilijk concept, zelfs voor mensen, om te bevatten. Een groot taalmodel (LLM) kan de feiten in de meeste gevallen juist weergeven, maar er kunnen van tijd tot tijd blinde vlekken en potentiële fouten optreden, afhankelijk van de waarschijnlijkheid. Daarom moeten kinderen die het gereedschap gebruiken, zich volledig bewust zijn van de feilbaarheid ervan.
Deze les gaat echter verder dan alleen het gebruik van AI. We leren namelijk ook over het omgaan met onzekerheid, dubbelzinnigheid en fouten. Zoals hij aangaf Berman en Ajawi (2023)“Onderwijs in een door AI gemedieerde wereld houdt in dat je leert werken met ambigue, gedeeltelijke en vage situaties, die de verweven relaties tussen mensen en technologieën weerspiegelen.” Ik vind dit kader erg prettig, omdat het teruggaat op iets waar ik vaak over nadenk: grote taalmodellen (LLM's) worden door mensen gemaakt en weerspiegelen interpretaties van door mensen gegenereerde content. Wanneer kinderen leren hoe modellen tot stand komen, dat modellen feilbaar zijn en dat de uitkomsten ervan voortkomen uit door mensen gegenereerde input, herkennen ze de vaagheid van hoe technologie vandaag de dag in onze bredere samenleving werkt. (Ik raad het hele artikel van harte aan iedereen aan die erover nadenkt hoe ze kinderen zelf over AI kunnen leren.)
Kanttekening bij foto's en video's
Zoals ik eerder al zei, roept de proliferatie van ‘AI-slordige’ video- en beeldcontent veel moeilijke vragen op. Ik geloof dat het belangrijk is om kinderen op dit gebied te informeren. Het is namelijk makkelijk om misinformatie of regelrechte leugens te absorberen via overtuigende visuele content. Voor de meeste kinderen is deze content bovendien nog maar één stap verwijderd van het daadwerkelijke creatieproces, aangezien dit materiaal veelvuldig wordt gedeeld op sociale media en waarschijnlijk niet op de juiste manier wordt gecategoriseerd. Het kan nuttig zijn om met kinderen te praten over de signalen die helpen bij het herkennen van door AI gegenereerd materiaal, evenals algemene kritische mediawijsheidsvaardigheden zoals "Als het te mooi klinkt om waar te zijn, is het waarschijnlijk nep" en "Controleer de dingen die je in dit soort publicaties hoort nog eens goed." Het is essentieel om kinderen te leren hoe ze feiten en informatiebronnen kunnen controleren, zodat ze beter onderscheid kunnen maken tussen echte en nepinhoud.
valsspelen met behulp van kunstmatige intelligentie
Ondanks alle ethische kwesties en risico's die gepaard gaan met fouten in de LLM-opleiding, zijn deze AI-hulpmiddelen ontzettend nuttig en boeiend. Het is dan ook begrijpelijk dat sommige studenten ze gebruiken om te spieken bij hun huiswerk en op school. Ik zou zeggen dat we gewoon met ze moeten praten en ze moeten uitleggen dat het doel is om de vaardigheden te leren die ze nodig hebben om opdrachten uit te voeren, en dat als ze die niet leren, ze de vaardigheden die ze nodig hebben in latere klassen en later in hun leven zullen verliezen... Maar we weten allemaal dat kinderen zelden zo logisch denken. Hun hersenen zijn nog in ontwikkeling en het is soms zelfs voor volwassenen moeilijk om hierover na te denken. Om de impact van AI op onderwijs te begrijpen, is een diepgaand begrip nodig van de mogelijkheden van deze hulpmiddelen en hun potentiële impact op de ontwikkeling van essentiële vaardigheden.
Er zijn grofweg twee benaderingen die je kunt gebruiken: manieren vinden om schoolwerk moeilijker of onmogelijk te maken om bij te spieken, of AI integreren in de klas, ervan uitgaande dat leerlingen hier in de toekomst over zullen beschikken. Tegenwoordig kunnen leerlingen dankzij begeleid werken in een klaslokaal een aantal vaardigheden leren die ze nodig hebben, zonder digitale tussenkomst. Zoals ik eerder al aangaf, moet kennis over mediagebruik tegenwoordig ook grote taalmodellen omvatten. Ik geloof dat het begeleide gebruik van grote taalmodellen door een deskundige leraar van grote pedagogische waarde kan zijn. Bovendien is het werkelijk onmogelijk om huiswerk dat buiten het directe toezicht van een leraar wordt gemaakt, ‘AI-resistent te maken’, en daar moeten we ons van bewust zijn. Ik wil het echter niet te gemakkelijk laten klinken – zie hieronder in de sectie Aanvullende lectuur Voor een aantal wetenschappelijke artikelen over de brede uitdagingen bij het onderwijzen van AI-geletterdheid in de klas. Leraren staan voor een grote uitdaging: ze moeten niet alleen zelf de technologie bijhouden en hun lesmethoden aanpassen aan de tijd, maar ze moeten ook hun leerlingen de informatie bieden die ze nodig hebben om AI verantwoord te gebruiken. Ook zouden docenten leerlingen moeten leren hoe ze door AI gegenereerde informatie kritisch kunnen beoordelen en hoe ze hun kritisch denkvermogen kunnen ontwikkelen.
Leren van het voorbeeld van seksuele voorlichting: lessen in kunstmatige intelligentie
Uiteindelijk draait het om de vraag wat we kinderen precies moeten aanraden en wat ze juist moeten vermijden in een wereld met AI, zowel binnen als buiten het klaslokaal. Ik ben zelden een voorstander van het verbieden of verbieden van ideeën. Ik denk dat het voorbeeld van uitgebreide, op wetenschap gebaseerde, aan de leeftijd aangepaste seksuele voorlichting een goede les is. Als kinderen geen juiste informatie krijgen over hun lichaam en seksualiteit, hebben ze niet de kennis om op dit gebied weloverwogen en verantwoorde beslissingen te nemen. Als kinderen moeilijke beslissingen moeten nemen over wat ze in moeilijke omstandigheden moeten doen, zijn er geen volwassenen die hen kunnen dwingen hun verplichtingen na te komen. Daarom moeten we ervoor zorgen dat kinderen de informatie krijgen die ze nodig hebben om zelf op verantwoorde wijze dergelijke beslissingen te nemen. Dit omvat morele begeleiding, maar ook feitelijke informatie. Daarnaast moeten we ervoor zorgen dat studenten een goed begrip krijgen van de mogelijkheden en risico's van AI, zodat ze AI effectief en verantwoord kunnen inzetten in het digitale tijdperk.
Modelleren van verantwoordelijkheid bij het gebruik van kunstmatige intelligentie
Ik denk dat het ook belangrijk is om te vermelden dat volwassenen zich verantwoordelijk moeten gedragen in de omgang met AI. Als leerkrachten, ouders en andere volwassenen in het leven van kinderen zich niet kritisch bewust zijn van AI, kunnen ze kinderen niet opvoeden tot kritische en bedachtzame gebruikers van deze technologie.
Het artikel heeft aanleiding gegeven New York Times Ik ben enigszins gefrustreerd over hoe leraren AI gebruiken. Het artikel getuigt niet van een diepgaand begrip van AI, omdat het wordt verward met wat basisstatistieken (leraren die leerlinggegevens analyseren om hun onderwijs af te stemmen op hun niveau, is noch AI, noch nieuw, noch problematisch), maar het zet wel een discussie op gang over hoe volwassenen in het leven van kinderen AI-tools gebruiken, en het benadrukt de noodzaak voor die volwassenen om transparant en kritisch AI-gebruik te modelleren. (Het gaat ook kort in op de kwestie van de commerciële industrie die AI in de klaslokalen pusht, een probleem dat meer aandacht verdient – misschien schrijf ik daar later meer over.)
Om een van de beweringen in het artikel te weerleggen: ik zou niet willen klagen over het gebruik van grote taalmodellen door leraren (LLM's) om een eerste beoordeling uit te voeren ter evaluatie van geschreven materiaal, op voorwaarde dat zij de output controleren en valideren. Als de evaluatiecriteria draaien om grammatica, spelling en schrijftechnieken, is een groot taalmodel waarschijnlijk geschikt, afhankelijk van de manier waarop het is getraind. Ik wil hier niet blindelings op een groot taalmodel vertrouwen, zonder dat een mens er even snel naar heeft gekeken, maar menselijke taal is nou eenmaal datgene waarvoor het ontworpen is. Het idee dat ‘de student het moest schrijven, dus de docent het moet nakijken’ is belachelijk, want het doel van de opdracht is dat de student leert. Leraren zijn al op de hoogte van de mechanismen van het schrijven. Dit project is er niet op gericht om leraren te dwingen iets te leren dat alleen via handmatige beoordeling bereikt kan worden. Ik denk dat de New York Times dit wist en dat het bericht vooral bedoeld was om er clickbait mee te genereren, maar het is belangrijk om het duidelijk te zeggen.
Dit punt komt terug op het vorige gedeelte over het begrijpen van technologie. Als u goed begrijpt hoe het trainingsproces eruitziet, kunt u bepalen of dat proces een hulpmiddel oplevert dat een bepaalde taak aankan. Maar automatisering van beoordelingsprocessen is al minstens tientallen jaren onderdeel van het onderwijs – iedereen die wel eens een cijferlijst heeft ingevuld, weet dat.
De ontwikkeling van deze technologie dwingt ons onderwijssysteem tot een zekere mate van aanpassing, maar we kunnen de geest niet meer in de fles stoppen. Er zijn zeker manieren waarop AI een positieve impact kan hebben op het onderwijs (vaak genoemde voorbeelden zijn personalisatie en het vrijmaken van tijd van docenten, die deze tijd vervolgens kunnen besteden aan directe dienstverlening aan leerlingen), maar zoals met de meeste dingen ben ik voorstander van een realistische kijk. Ik denk dat de meeste leraren zich er wel van bewust zijn dat het onderwijs niet kan doorgaan zoals het was vóór de introductie van grote taalmodellen (LLM'sOns leven.
Conclusie
Kinderen zijn slimmer dan we soms denken en ik denk dat ze veel kunnen begrijpen van de betekenis van AI in onze wereld. Mijn advies is om transparant en eerlijk te zijn over de realiteit van deze technologie, inclusief de voor- en nadelen die het met zich meebrengt voor ons als individu en voor de maatschappij als geheel. De manier waarop we AI gebruiken, beïnvloedt de keuzes die kinderen maken, of die nu positief of negatief zijn. Kinderen zullen hier aandacht aan besteden. Het is dus essentieel dat we goed nadenken over wat we doen en zeggen. Wij moeten hen uitleggen wat de mogelijkheden en uitdagingen van AI zijn, met de nadruk op het ethische en verantwoorde gebruik van deze technologie.
Reacties zijn gesloten.