Bot Talk #12: Bots houden stereotypering man en vrouw in stand

Genderstereotypering komt ook voor bij bots. En dat is natuurlijk hartstikke ouderwets. Dus is het tijd voor verandering.

Door Lucia Kabia (Mr Koreander)

Genderstereotypering komt ook voor bij bots. En dat is natuurlijk hartstikke ouderwets. Dus is het tijd voor verandering.

Wat hebben Alexa, Cortana en Zora de zorgrobot met elkaar gemeen? Ze zijn zorgzaam, dienstbaar, een trouwe assistent. En ze hebben een vrouwelijke stem. Daardoor voldoen ze perfect aan het traditionele beeld dat vooral vrouwen geschikt zijn om servicetaken uit te voeren. Met die gedachte moeten we anno 2020 maar eens afrekenen. En hoe mooi zou het zijn als bots daarin het voortouw nemen?

Het probleem

Op dit moment houden bots traditionele genderrollen eerder in stand, dan dat ze deze doorbreken. En dit gebeurt niet alleen bij voice assistants en chatbots. Ook in films en series zijn ze niet vies van een potje ouderwetse gendersterotypering. Vrouwelijke androïden zijn vaak sexy, verleidelijk en onderdanig. Kijk maar naar de personages in Westworld, Ex Machina of Her. Mannelijke bots daarentegen stelen vaak de show als robuuste vechtmachines. Denk aan The Terminator of RoboCop.

Advertentie
advertisement
Ava, de sexy vrouwelijke androïde wordt in de film Ex Machina door de mannelijke CEO van een techbedrijf geprogrammeerd en geobserveerd als testobject.
Ava, de sexy vrouwelijke androïde wordt in de film Ex Machina door de mannelijke CEO van een techbedrijf geprogrammeerd en geobserveerd als testobject.

Het ontstaan

Hoe zijn die genderpatronen bij servicebots terechtgekomen? In de wereld van AI en tech bestaat een behoorlijke gender gap. Het percentage vrouwen dat werkzaam is als programmeur komt in de meeste onderzoeken net boven de 20%. Tel daarbij op dat managementfuncties in techbedrijven voornamelijk door mannen worden bekleed. Door dit gebrek aan diversiteit krijgen apparaten met AI die je lekker kunt commanderen vaak vrouwennamen toebedeeld.

De ontwikkeling

Door de sneltreinvaart waarmee AI zich ontwikkelt, worden bots steeds menselijker. Ze vormen een weerspiegeling van onszelf. Dus projecteren we onze gedragingen en gedachten op bots. Inclusief diepgewortelde genderpatronen.

Mensen projecteren stereotypische denkbeelden ook op virtuele mensen.
Mensen projecteren stereotypische denkbeelden ook op virtuele mensen.

Een voorbeeld: aan de grens van Mexico en de VS werkt sinds kort een virtuele douanier. Voor de avatar zijn een aantal variaties getest. En wat bleek? Testpersonen zagen de serieuze vrouwelijke avatar vooral als een bitch, terwijl de serieuze mannelijke versie juist respect en autoriteit opriep. En het ergste is, dat zowel mannen als vrouwen zo oordeelden.

De oplossing

Kunnen we genderstereotypering met bots, voice en AI doorbreken? Ik geloof van wel. Maar niet door interacties minder menselijk te maken. En genderneutrale bots gaan het ook niet doen. Mensen vullen dan zelf het gender in. Dat komt door onze drang om objecten menselijke eigenschappen te geven, ook wel antropomorfisme genoemd.

 

Antropomorfisme zorgt ervoor dat we op zoek gaan naar menselijke kenmerken in objecten.
Antropomorfisme zorgt ervoor dat we op zoek gaan naar menselijke kenmerken in objecten.

Wees dat dus voor en geef je bot vooral een geslacht dat breekt met stereotypes. Misschien dat het in eerste instantie minder goed aanslaat, maar alle verandering gaat geleidelijk. Dan leren we misschien langzaam dat mannen ook zorgzaam kunnen zijn, of dat vrouwen ook best advies kunnen geven over je hypotheek of auto. En hopelijk denken we over een paar jaar - als bots echt overal in ons dagelijks leven zijn - een stuk minder binair over gender.

Dit is het twaalfde artikel in een reeks over chatbots. Ons gesprek met de chatbot van PostNL lees je hier.

Door Lucia Kabia (Mr Koreander)

Plaats als eerste een reactie

Advertentie