Google heeft een werknemer geschorst omdat deze werknemer beweerde dat een chatbot waaraan hij werkte gevoelens zou hebben. Natuurlijk moest ik ook even lachen. Maar wat ik mij direct daarna afvroeg was hoe dat gesprek ging. ‘Oh dus jij denkt dat de chatbot gevoelens heeft? Nou dat heeft ie dus niet! Weet je wie er nog meer geen gevoelens heeft? Wij bij Google. Je bent geschorst. En nou wegwezen en neem die vervelend chatbot van je mee!’
Gevoelens kunnen ze bij Google natuurlijk niet gebruiken. Straks gaat het systeem zich ook nog kwetsbaar opstellen. Wat als het systeem zich schuldig gaat voelen, bijvoorbeeld omdat er geen belasting betaald wordt? Dat moeten ze natuurlijk niet hebben bij Google.
Volwassen man
Volgens de medewerker van Google gedroeg de chatbot zich als een kind van zeven. De meeste chatbots die ik tegenkom gedragen zich als een volwassen man die bij de helpdesk van een it-bedrijf werkt. Oftewel, een echt antwoord krijg je niet omdat bij deze medeweker naast gevoelens ook elke vorm van kennis ontbreekt. Het enige wat de medewerker doet is je probleem noteren en daarna hoor je er nooit meer iets van.
Overigens lijkt de medeweker wel gevoel te hebben, want hij vindt het heel vervelend dat je systeem het niet meer doet en ze gaan er echt alles aan doen om jouw probleem op te lossen. Maar zodra de telefoon is neergelegd, weet je zeker dat minimaal de woorden ‘gezeur’, ‘vervelend’ en ‘kutklant ‘ vallen.
Gevoel voor privacy
Logisch dus dat je dit werk door een chatbot wilt laten vervangen. Een probleem noteren en vervolgens niks mee doen, dat kun je prima door een chatbot laten doen. En dan het liefst een chatbot met wat gevoel. En in het geval van Google het liefst een chatbot met wat gevoel voor privacy. Of word ik nu ook geschorst?