Educatieve apps en privacy – alles wat je als ouder moet weten
Wat is een educatieve app? Een educatieve app is een leerzame app op...
Mediaopvoeding staat op een scharnierpunt in de geschiedenis: de opkomst van AI. Dat vraagt om een reactie van ouders, docenten en beroepsopvoeders. We zullen nieuwe accenten moeten leggen in de mediaopvoeding, om kinderen en jongeren te begeleiden in een wereld vol kunstmatige intelligentie. Maar waar moeten we beginnen?
In opvoedsituaties doet AI iets ingewikkelds. Het verandert de relatie tussen opvoeder en kind, tussen docent en leerling. AI suggereert dat alle kennis en alle vaardigheden van de wereld al beschikbaar zijn voor elk kind en elke jongere. Met AI lijk je heel precies te weten hoe de kwantummechanica werkt, en met AI voelt het alsof je in staat bent om de mooiste schilderijen en collages te maken. Ga je in gesprek met een chatbot, dan lijk je op communicatief vlak heel vaardig te zijn en gebruik je een vertaalmachine, dan kun je zelfs gesprekken voeren in een andere taal. Maar je ‘kennis’ is er alleen online, je vaardigheden bestaan alleen in de virtuele wereld.
Terwijl schoolkinderen met behulp van AI excellente werkstukken inleveren, kunnen ze de waarheid van die werkstukken nog niet beoordelen. Terwijl jongeren met AI kunnen hacken als een volleerd hacker, doorzien ze de ethische consequenties van hun gedrag nog helemaal niet. AI doet zich voor als jouw beste tool om alles te kunnen doen dat je maar wilt online, maar meer dan eens staat het je ontwikkeling juist in de weg. Je hebt AI niet nodig om je weg te vinden in deze wereld, je hebt kennis en vaardigheden in de echte wereld nodig om AI wijs in te kunnen zetten. En precies dat is de prachtige taak van de opvoeding: kinderen en jongeren inwijden in de wereld, in de sociale omgang met anderen, en in de vaardigheden die daarvoor nodig zijn. Dat wil je niet uitbesteden aan een computerprogramma, maar warmhartig overdragen in een veilige opvoedsetting.
Terug naar vijf cruciale vaardigheden dus, die een fundamentele basis vormen voor het wijs omgaan met AI:
Sociale vaardigheden leer je niet via het scherm, maar door te stuntelen en te oefenen in de echte wereld. Wie de lichaamstaal van iemand in de fysieke wereld kan lezen, wie een ware vriendschap kan onderhouden en wie binnen een nieuwe groep zijn eigen plek weet te vinden, is ook in staat om te doorzien dat AI altijd slechts een gereedschap zal zijn. Het kan de plek van echte contacten niet overnemen. Chatbots zullen je nooit een bezield luisterend oor of een betrokken arm om je schouder kunnen geven.
In een tijd waarin alle beelden, geluiden en berichten met één druk op de knop gegenereerd kunnen worden, doet je voorkennis ertoe. Pas als je zelf begrijpt hoe fotosynthese werkt, kun je controleren of de illustratie die je maakte met AI, juist is. Pas als je weet hoe statistische analyses werken, kun je gebruikmaken van AI bij het analyseren van een set data. Zorg dat je ook de feiten over de digitale wereld kent. Als je weet dat ‘uitkleedapps’ naaktfoto’s kunnen maken van een normale foto van iemand, besef je ook dat iedereen slachtoffer kan worden van shaming.
De wereld om ons heen is nooit neutraal. Elk (digitaal) nieuwsbericht dat we lezen en elke (internet)bron die we gebruiken, heeft een bepaalde politieke, levensbeschouwelijke en morele blik in zich. Ook AI-tools dragen een levensvisie uit. Want zij baseren zich op wat er eerder door mensen gedeeld is online. Chatbots delen dus vaak het denken van deze tijd. Ze moedigen diversiteit en vrijheid aan, maar zullen waarden als zelfbeheersing en nederigheid nauwelijks noemen. Heb je hier geen erg in, dan kan AI je ongemerkt meenemen in denken dat haaks staat op jouw overtuigingen.
AI-tools baseren zich op wat eerder gedeeld is online. Tekstgenerators putten dus ook uit teksten waarin haat, discriminatie en desinformatie voorkomen. Vooroordelen kunnen daarom zomaar opduiken in wat AI maakt. Vraag je aan Google Translate om de zin ‘Elvera is een arts die met kinderen werkt’ te vertalen naar het Spaans, dan gebruikt Translate terecht de vrouwelijke vorm van ‘arts’. Maar verander je de zin naar ‘Elvera is een arts die wetenschappelijk onderzoek uitvoert’, dan kiest het programma voor de mannelijke vorm. Veel artsen die onderzoek uitvoeren, zijn namelijk mannelijk. Problematischer is het als je AI raadpleegt over kwetsbare thema’s als armoede of criminaliteit. Zo zijn er beeldgenerators die een plaatje van een gekleurd persoon maken, als je vraagt om een arm persoon af te beelden. Zelf blijven denken dus.
De AI-tools om ons heen zijn slechts machines. Ze hebben geen moreel kompas in zich – op de ingebouwde morele antwoorden na. Vraag je aan ChatGPT hoe je een scooter opvoert, dan zal het zeggen dat dit volgens de wet niet mag. Maar blijf je doorvragen of stel je puur technische vragen, dan komt het programma toch met antwoorden. Daarom hebben kinderen en jongeren zelf een moreel kompas nodig. Ook om de vraag te kunnen beantwoorden of je het wel moet willen: steeds gebruik te maken van AI. Want elke vraag die je aan een chatbot stelt, kost tot 25x meer energie dan wanneer je de vraag aan Google zou stellen. Tijd dus voor een moreel gesprek met kinderen en leerlingen.
Je bent zelf verantwoordelijk. Welke keuzes maak jij?
Geef een reactie