Ook al wil je het niet. Het is haast onvermijdelijk dat je als mensen altijd een paar vooroordelen over groepen personen opbouwt. Echter blijkt dat niet een menselijke fout, maar een ‘logisch’, natuurlijk gevolg van ervaringen opdoen. Ook robots die werken met artificial intelligence kunnen vooroordelen hebben.
Dit komt doordat de machines met artificial intelligence – net zoals mensen – geneigd zijn om gedrag van elkaar over te nemen. Dat zegt een studie, waarvan de resultaten onlangs verschenen zijn in het tijdschrift Scientific Reports.
Spelletje
De computers gingen hierbij een spel spelen, waarvoor ze over verschillende groepen verdeeld werden. Steeds moesten ze bepalen of ze iets aan een computer uit hun eigen of een andere groep gaven.
Alle computers hadden een bepaalde reputatie en hun eigen strategie meegekregen. Naarmate het spel vorderde bleek dat de computers steeds meer bevooroordeeld tegenover elkaar raakten.
Ook bleek na duizenden simulaties dat de computers elkaars tactieken hadden geleerd. De computers maakten hierbij vooral beslissingen die ze op korte termijn aan meer winst hielpen.
Sterke natuurkracht
“Onze simulaties tonen aan dat het hebben van vooroordelen een sterke natuurkracht is”, vertelt Roger Whitaker, een van de onderzoekers.”Het is goed mogelijk dat autonome machines in de toekomst vatbaar zouden kunnen zijn voor de nadelige verschijnselen die we in de menselijke populatie tegenkomen.”
Het bericht Ook robots kunnen vooroordelen hebben verscheen eerst op Metro.