Informatie delen met een chatbot, is dat anders dan met een mens?

chatbot interactie

Online kom je steeds vaker in aanraking met een chatbot. Of het nu gaat om een vraag over je bestelling, een medisch probleem of ondersteuning bij juridische zaken, chatbots vangen vaak het eerste contact af. Het delen van persoonlijke informatie met iemand anders, geeft een aantal voordelen. Echter, die voordelen gaan alleen op als je het idee hebt dat je gehoord, bevestigd en gesteund wordt (Shenk & Fruzetti, 2011). Wanneer je communiceert met een ander mens, lukt dat wel. Maar hoe zit dat als je interacteert met een chatbot?

Drie effecten van self-disclosure

Self-disclosure is het delen van persoonlijke informatie met iemand anders. Onderzoek laat zien dat dit drie belangrijke effecten heeft op psychologisch vlak (Ho, Hancock & Miner, 2018). Disclosure zorgt voor stressreductie van negatieve ervaringen. Daarnaast geeft het delen van persoonlijke informatie een boost aan de relatie met degene waarmee je praat. Vooral als het gaat om nabijjheid. En ten derde, het ontsluiten van persoonlijke informatie geeft jezelf een beter zelfbeeld. Je krijgt meer zelfbevestiging en voelt je goed als de gedeelde informatie ondersteund en begrepen wordt.

Word je echt begrepen?

Reis, Lemay en Finkenauer (2017) hebben het Perceived Understanding framework opgezet. Zij stellen: de positieve effecten van het delen van persoonlijke informatie gaan alleen op als je daadwerkelijk het idee hebt dat je gesprekspartner je begrijpt. Trek je dit door, dan zou je kunnen betogen dat wanneer je weet dat je met een chatbot praat, de effecten niet opgaan. Aangezien je snapt dat een computerprogramma je niet écht kan begrijpen zoals een mens dat zou kunnen.

Disclosure Processing framework

Daartegenover staat het Disclosure Processing framework. Vanuit dit perspectief wordt gezegd dat we eerder geneigd zijn om intieme details te delen met een chatbot dan met een mens. Immers, een mens kan ons beoordelen of veroordelen op basis van wat we zeggen, iets wat een chatbot niet zal doen. Hierdoor is het mogelijk dat je juist meer persoonlijke details deelt met een chatbot, wat vervolgens weer positieve effecten kan hebben, zoals hierboven beschreven (Lucas, Gratch, King & Morency, 2014).

Computers as Social Actors (CASA)

Een derde mogelijkheid is dat er geen verschil zit tussen communicatie met een mens of een chatbot als we digitaal communiceren. In dit framework gaan onderzoekers ervan uit dat mensen instinctief hetzelfde reageren en interacteren met computers als met mensen, zonder dat ze zich ervan bewust zijn dat het zo gaat (Reeves & Nass, 1996). Als je niet door hebt met wie je daadwerkelijk communiceert, is de mate van informatiedeling dus gelijk en zijn de psychologische effecten hetzelfde of het nu gaat om een chatbot of een persoon. De vraag is, wat klopt?

Emotionele of feitelijke informatie

Ho, Hancock en Miner (2018) hebben onderzocht of er een verschil zit in psychologische effecten van self-disclosure wanneer je praat met een chatbot of een persoon. Daarvoor vroegen ze de proefpersonen emotionele of feitelijke informatie te delen. Het idee is namelijk dat de effecten genoemd in dit artikel vooral optreden als je emotionele informatie deelt. Informatie die dicht bij je staat en soms lastig over het voetlicht te brengen is. Het resultaat van het onderzoek was dat de positieve effecten van self-disclosure significant vaker optraden wanneer proefpersonen emotionele informatie deelden, dan wanneer het om feitelijke informatie ging.

Chatbot of persoon, wat is het verschil?

De belangrijkste vraag uit het onderzoek was of er een verschil zat tussen de effecten na interactie met een chatbot of een persoon. Het antwoord daarop is nee. Voor de proefpersonen maakte het niet uit met wie ze hadden gecommuniceerd. Zowel na conversaties met een chatbot als met een echt persoon waren de effecten van self-disclosure gelijk bij het delen van emotionele privé-informatie. Dit ondersteunt het Computers as Social Actors(CASA) framework. Het maakt voor ons dus niet uit of we communiceren met een chatbot of een persoon, we gaan er hetzelfde mee om als het gaat om ontsluiten van emotionele informatie.

Chatbots zijn prima voor de toekomst

Als we op dezelfde manier communiceren met chatbots als met échte mensen, is het natuurlijk logisch dat bedrijven steeds vaker chatbots inzetten. Immers, programmeren kost tijd en geld, maar als je dat eenmaal gedaan hebt, gaat het op termijn geld opleveren. De oude opvatting dat we echt gehoord willen worden en dat daar menselijke interactie voor nodig is, gaat in dit geval dus niet op. Sterker nog, ook al weten we dat we met een chatbot communiceren, het maakt ons weinig uit als het gaat om ontsluiten van emotionele informatie. En de effecten na afloop zijn gelijk.

Meer weten over dit onderwerp of andere artikelen op deze site? Stuur me een mail.

Bronnen

Ho, A., Hancock, J. Miner, A. S. (2018), Psychological, Relational, and Emotional Effects of Self-Disclosure After Conversations With a Chatbot, Journal of Communication, 68 (4), 712–733,

Lucas, G. M., Gratch, J., King, A. & Morency, L. P. (2014). It’s only a computer: Virtual humans increase willingness to disclose. Computers in Human Behavior, 37, 94 – 100.

Reis, H. T., Lemay, E. P. & Finkenauer, C. (2017).  Toward understanding understanding: The importance of feeling understood in relationships. Social and Personality Psychology Compass, 11(3).

Shenk, C. E. & Fruzzetti, A. E. (2011). The impact of validating and invalidating responses on emotional reactivity. Journal of Social and Clinical Psychology. 30 (2), 163-183.

Marc Wessels

Ik heb Communicatie- en Informatiewetenschappen gestudeerd met een specialisatie in bedrijfscommunicatie. Ik verzorgde eerder de marketingcommunicatie van het Taalcentrum-VU en werk tegenwoordig als communicatieadviseur bij Hoogheemraadschap De Stichtse Rijnlanden. Op deze blog vertaal ik als communicatiespecialist interessante en aansprekende communicatieonderwerpen van de theorie naar de praktijk.