Als de mens naast een robot werkt, is-ie minder alert

De interactie tussen robots en mensen die samenwerken heeft veel weg van de relatie binnen teams met alleen mensen. Teamleden kunnen elkaar aanvullen en samen beter werk leveren dan alleen, maar iemand kan ook achterover gaan leunen en een ander vooral het werk laten doen. In de sociologie die kijkt naar menselijke teams heet dit laatste verschijnsel social loafing, sociale luiheid. Dit verschijnsel lijkt ook op te treden als mensen samen met robots kwaliteitscontroles uitvoeren, blijkt uit onderzoek van de Universiteit van Berlijn dat woensdag in Frontiers in Robotics and AI is verschenen. Dit kan de kwaliteit en veiligheid van producten negatief beïnvloeden.

Sensortechnologie is sterk in ontwikkeling, waardoor robots beter worden in controletaken bij industriële productie. Toch zullen de robots bepaalde fouten missen. Bij computeronderdelen missen ze bijvoorbeeld vaak stof dat op de onderdelen kan zitten. De combinatie van mens en robot zou daarom de beste uitkomst geven bij veel kwaliteitscontroles.

Of gaan de mensen te veel op de robots leunen? Om te kijken of er sprake kan zijn van sociale luiheid, voerden de onderzoekers een experiment uit waarbij printplaten op fouten gecontroleerd moesten worden. Het experiment duurde anderhalf uur. De helft van 44 proefpersonen moest de taak in hun eentje uitvoeren, de andere helft deed dat samen met een robotarm waarbij de robot eerst controleerde en de mens daarna nog eens. Dubbele controle is gebruikelijk in dit soort werk. De onderzoekers hielden bij hoeveel van het oppervlak werd bekeken, en hoe lang er werd gekeken.

Gevolgen voor de veiligheid

Op het eerste gezicht leek de aanwezigheid van de robot geen verschil te hebben gemaakt, beide groepen proefpersonen hadden even lang gekeken en evenveel van het oppervlak bestudeerd. Beide groepen rapporteerden over zichzelf evenveel verantwoordelijkheidsgevoel voor de taak.

Maar uit de foutenpercentages bleek dat de mensen die met de robot werkten na een tijdje minder fouten ontdekten, toen ze hadden ervaren dat de robot ook fouten vond. De onderzoekers denken dat hier sprake is van een ‘kijken maar niet zien’-effect, waarbij mensen eraan wennen ergens op te vertrouwen en dan onbewust minder aandacht krijgen voor de taak. De auteurs waarschuwen dat dit gevolgen voor de veiligheid kan hebben. Het ging hier nog maar om een taak van anderhalf uur, bij langere diensten kan dit effect sterker worden.

TU DelftDavid Abbink Ik vraag me af of het gaat om een motivatieprobleem

„De studie is op zich goed uitgevoerd, maar ze hebben een aantal keuzes gemaakt waardoor afstand van de werkelijkheid ontstaat”, zegt David Abbink, hoogleraar mens-robotinteractie aan de TU Delft. „De proefpersonen zijn geen mensen die echt dit werk doen. Daarnaast is de robotarm niet uitgerust met sensoren, hij voert de taak niet echt uit. De auteurs zeggen dat ze met de robotarm een sociaal gevoel van interactie bij de proefpersonen willen opwekken, maar ik vind dat apart.”

Abbink pleit voor langduriger onderzoek en vanuit meer disciplines tegelijk. „Hoe toekomstige robotvaardigheden het beste gecombineerd kunnen worden met vakmensen is een grote vraag. Misschien kan in dit geval de volgorde wel anders, controleert de mens eerst en dan de robot, wat doet dat? Ik vraag me overigens ook af of het hier gaat over een motivatieprobleem, wat de term sociale luiheid impliceert, of meer oververtrouwen in de robot. Om zulke dingen te achterhalen zul je langer moeten observeren dan deze anderhalf uur en in een echte werkomgeving.”

In de luchtvaart werken mensen al heel lang naast een automatische piloot. „Goede piloten weten om te gaan met beperkingen van de auto pilot, en daarop trainen is ook van groot belang in de luchtvaart”, zegt Abbink. „Bij dit experiment werd vooraf niks over beperkingen gezegd, dus hun verwachtingen van de robot zijn onbekend en variabel. Als de proefpersonen weten waar de robot goed in is, en waarin minder, dan is de kans dat je elkaar versterkt groter.”