
De communicatiewereld staat sinds de introductie van ChatGPT op z’n kop. Immers, niet eerder was het zo eenvoudig om een complete tekst te generen op basis van een paar korte opdrachten. Daar kun je als communicatieprofessional handig gebruik van maken en het zorgt voor kortere werktijden aan een bepaald vraagstuk. OpenAI heeft nu iets nieuws geïntroduceerd: Sora. Daarmee kun je net als bij ChatGPT content creëren, alleen gaat het nu om video’s van maximaal 60 seconden. Ook dat biedt weer vele mogelijkheden, maar is dit in het licht van fake news niet veel lastiger te beoordelen als aanwinst of risico?
Wat is Sora?
Sora is een nieuwe tool van het bedrijf OpenAI waarmee je video’s tot 60 seconden kan creëren op basis van een enkel prompt. Een prompt is een opdrachtomschrijving. Die mag kort zijn, maar hoe uitgebreider het prompt, hoe beter de video. Vervolgens produceert Sora jouw gewenste video met gedetailleerde scènes, meerdere camerastandpunten en -bewegingen en levensechte emoties. Kortom, beelden alsof je ze zelf gefilmd hebt.
Fantastisch toch?
Als je de voorbeelden op de website van OpenAI bekijkt, valt waarschijnlijk je mond open van verbazing. Het enorme realisme van de video’s is indrukwekkend. Voor videomakers biedt dit grote mogelijkheden. Immers, wellicht dat je bij beelden van mensen nog net een klein verschil ziet tussen de AI-beelden en echte camerashots, maar bij veel landschapsvideo’s is dat verschil nauwelijks waarneembaar. Daarmee lijkt Sora een echte aanwinst.
Fake News op de loer
Tegelijkertijd zijn er gelijk zorgen over Sora, zeker als het gaat om de productie van fake news. Want als video’s inmiddels met een enkel prompt levensecht te maken zijn, hoe weet jij dan of iets wat je tegenkomt online echt of nep is? Er zijn nog geen video’s naar buiten gebracht waarin gesproken wordt, maar dat is waarschijnlijk een kwestie van tijd. OpenAI schrijft dat ze veel aandacht besteden aan het optimaliseren van de tool en het voorkomen van misbruik en fraude. De vraag is natuurlijk of dat in de praktijk gaat lukken.
Beïnvloeding via AI is sterk
Een andere zorg is het resultaat dat blijkt uit het onderzoek van Huang en Wang (2023). Zij hebben aangetoond dat beïnvloeding net zo sterk is wanneer een mens je probeert te overtuigen of wanneer een AI-persoon dit doet. In hun onderzoek kwam naar voren dat er namelijk geen verschil is in beïnvloedingskracht. Als AI-video’s straks niet meer van echt te onderscheiden zijn, en beïnvloeding ook via AI kan verlopen, wordt het heel erg lastig om niet beïnvloed te raken.
Fake news herkennen
Des te belangrijker lijkt het te worden om fake news te kunnen herkennen. Daar zijn verschillende tips voor en ook diverse methoden. Uit onderzoek van Roozenbeek, Van der Linden, Goldberg, Rathje en Lewandowsky (2022) bleek dat mensen beter in staat zijn om nepnieuws te herkennen als ze voorbeelden hiervan hebben gezien. Dat zou ervoor pleiten om online en in educatieve methoden meer aandacht te besteden aan het herkennen van fake news. Waarmee je uiteindelijk beter in staat bent om het echte van het neppe te onderscheiden.
Sora, aanwinst of niet?
De risico’s van de nieuwe tool Sora lijken groot, zeker als het gaat om nepnieuws en beïnvloeding. Maar dat is wel de negatieve benadering. Tegelijkertijd is de tool van OpenAI namelijk ook goed nieuws. Het maakt het voor iedereen mogelijk om op hele eenvoudige wijze spectaculaire content te maken. Om jezelf te presenteren, om een gave presentatie te geven op je werk over een bepaald onderwerp of voor toevoegingen aan je vakantievideo. Laten we Sora daarom een kans geven en vooral ontdekken wat goed is en wat niet. Overigens moet je nog wel even wachten voordat de tool openbaar te gebruiken is, experts zijn eerst nog bezig om te kijken hoe alles nog beter kan worden en ook hoe misbruik zoveel mogelijk voorkomen kan worden.
Meer weten over dit onderwerp of andere artikelen op deze site? Stuur me een mail.
Bronnen
Huang, G. & Wang, S. (2023). Is artificial intelligence more persuasive than humans? A meta-analysis. Journal of Communication, 73 (6), 552 – 562.
Roozenbeek, J., Van der Linden, S., Goldberg, B. Rathje, S. & Lewandowsky, S. (2022). Psychological inoculation improves resilience against misinformation on social media. Science Advances, 8, 34.