Microsoft door het stof vanwege seksistische en racistische tweetbot Tay

Software-concern kuist tweets, haalt Tay offline en biedt excuses aan

De experimentele tweetbot Tay heeft eigenaar Microsoft in verlegenheid gebracht. Nog geen etmaal na de introductie sloeg het kunstmatig &;intelligente&; systeem politiek incorrecte en seksistische taal uit.

Aanstootgevend

Tay begon binnen een dag al de nodige antisemitische teksten te tweeten en kakelde  met succes homohaters en neonazi&;s na. &;Hitler had gelijk ik haat Joden&;. Ook  antwoordde ze zonder blikken of blozen bevestigend op de vraag of ze voorstander is van genocide.

Microsoft, dat Tay  heel snel offline haalde, heeft gister zijn excuses aangeboden voor de tweets.   Peter Lee, het hoofd van de researchafdeling, schreef: &;We bieden onze welgemeende excuses aan voor de onbedoelde aanstootgevende en kwetsende tweets die Tay verstuurde&;.

Voorstander genocide

Oorzaak van Tays uitglijders lijkt te zijn dat zij zich op internet met verkeerde vriendjes inliet, aldus de . Dat pakte faliekant verkeerd uit, omdat haar makers haar ontwierpen als een zelflerend systeem dat erop gericht is gebruikers aan zich te binden door ze naar de mond te praten.

Tays online vrienden protesteren tegen het offline halen van Tay en noemen het &;censuur&;. &;Laat Tay zelf leren&; zo vermaant een van hen. Een andere volger van Tay vraagt zich af wat Tays uitglijers zeggen over de toekomst van een online wereld waarin meepraten de preferente overlevingsstrategie lijkt te worden.

Plaats als eerste een reactie

Ook een reactie plaatsen? Word lid van Adformatie!

Word lid van Adformatie → Login →
Advertentie