beïnvloeding AI

Beïnvloeding en overtuiging komt in vele soorten en maten voor. Marketeers proberen jou hun producten te laten kopen, de overheid voert campagnes om jou het gewenste gedrag uit te laten voeren en jijzelf vertelt aan anderen welke bezienswaardigheden in een bepaalde stad juist wel of niet de moeite waard zijn. Eigenlijk zijn we de hele dag bezig met beïnvloeden en beïnvloed worden. Dat hoort bij het menselijk gedrag. Nu artificial intelligence (AI) opkomt, rijst de vraag of kunstmatige intelligentie hetzelfde effect heeft qua beïnvloeding als echte mensen. En als dat het geval is, is het effect volledig gelijk of zijn er verschillen?

Manieren van overtuigen en beïnvloeden

Er zijn vele manieren om een ander te overtuigen en aan te zetten tot bepaald gedrag. Je kent vast wel het creëren van schaarste. ‘Nu boeken, anders ben je te laat’. Of je laat een autoriteit op bepaald vlak iets zeggen, zodat het wel waar moet zijn wat diegene zegt. Andere manieren om te beïnvloeden zijn bijvoorbeeld het inzetten van de sociale norm (wat is het gewenste gedrag in een bepaalde situatie?) of gebruik maken van framing om de ontvanger van een boodschap een bepaalde richting in te sturen. We hebben het hier over menselijke technieken die ingezet worden om anderen aan te zetten tot bepaald gedrag.

Kunstmatige intelligentie

De laatste jaren komt ook kunstmatige intelligentie (AI) steeds meer op. Met als bekendste voorbeeld ChatGPT en deepfakes. De eerste is een soort zoekmachine waar je vragen aan kunt stellen om vervolgens razendsnel antwoord op te krijgen. In het tweede geval worden personen zo goed nagemaakt dat het lijkt dat hij of zij echt aan het woord is. Bij goede deepfakes zie je nauwelijks het verschil tussen de echte persoon en de nagemaakte versie. Wat tot ingewikkelde situaties kan leiden wanneer doelbewust deepfakes worden ingezet om te misleiden.

Communicatie via kunstmatige intelligentie

Nu AI in rap tempo ontwikkelt, wordt de communicatie door veel bedrijven en organisaties ook steeds vaker in de handen gelegd van zogenaamde AI agents. Een soort virtuele assistent, robot journalist of chatbot. Die kun je natuurlijk van alles leren, door maar genoeg input te leveren. En zo zou het ook kunnen zijn dat deze virtuele assistenten jou gaan beïnvloeden. Huang en Wang (2023) hebben onderzocht of dit ook daadwerkelijk het geval is of dat beïnvloeding en overtuiging toch aan echte mensen is voorbehouden.

AI of mensen: zelfde effect

Het meest verrassende resultaat van de onderzoekers was dat het niet uitmaakt of je praat met een mens of een AI agent, wanneer er beïnvloedingstechnieken worden ingezet word je net zoveel beïnvloed in beide gevallen. Wel waren er kleine verschillen als het gaat om de intentie tot uitvoeren van bepaald gedrag.

Gedragsintentie

Wanneer een AI agent jou probeert te beïnvloeden, is de gedragsintentie dat je ook daadwerkelijk iets gaat uitvoeren kleiner dan wanneer een mens dit probeert te doen. Een mogelijke verklaring hiervoor is dat je bij een AI agent toch minder een relatie aangaat met een persoon dan wanneer je met een echt iemand praat. Immers, als je tegenover iemand staat is het face-to-face best lastig om nee te zeggen.

Geen verschil op andere factoren

Wat betreft perceptie, attitude en echt gedrag waren er geen verschillen te noteren. En zeker het laatste is natuurlijk wel opvallend. Immers, als je bij een AI agent minder de intentie hebt om gewenst gedrag uit te voeren, maar vervolgens het gedrag wel uitvoert, is de vraag wat er dan in de tussentijd gebeurt.

Kunstmatige intelligentie komt op

Als het dus weinig uitmaakt of mensen of AI agents jou proberen te beïnvloeden, en de effecten uiteindelijk nagenoeg gelijk zijn, ligt de weg open voor bedrijven om meer gebruik te maken van kunstmatige intelligentie. Dat is namelijk efficiënter en goedkoper dan wanneer je vele personen moet inzetten voor hetzelfde effect. Tegelijkertijd is het voor jou als consument ook belangrijk om te weten dat je ook door AI gewoon beïnvloed wordt. Dat is in veel gevallen ook helemaal niet erg, immers, overal om je heen zijn prikkels om jou aan te zetten tot bepaald gedrag. Maar het is wel goed om je er bewust van te zijn.

Meer weten over dit onderwerp of andere artikelen op deze site? Stuur me een mail.

Bronnen

Huang, G. & Wang, S. (2023). Is artificial intelligence more persuasive than humans? A meta-analysis. Journal of Communication, 73 (6), 552 – 562.

Door Marc Wessels

Ik ben communicatiespecialist met een focus op overheidscommunicatie, bedrijfscommunicatie en digitale communicatie. Op deze site vertaal ik wetenschappelijke communicatieartikelen naar praktijkvoorbeelden en leg ik aan de hand van voorbeelden uit hoe communicatie in de praktijk werkt. Meer weten? Neem contact op!