Hoe AI onzin en desinformatie kan verspreiden (en waar jij op kan letten)
Over kunstmatige intelligentie, kortweg AI, is ontzettend veel te lezen en te leren. Bijvoorbeeld over AI-robots die teksten, foto’s en video’s creëren en zelfs stemmen namaken: ‘generatieve AI’. Hartstikke handig, want met programma’s als ChatGPT en Google Gemini (voorheen Google Bard) kun je antwoord krijgen op veel vragen. Met Dall-E en Midjourney heb je binnen een handomdraai een prachtige afbeelding gecreëerd. En zelfs muziek en video zijn steeds makkelijker en sneller te maken. Nico Dekens (expert in het opzoeken van informatie op internet) vertelt wat de invloed van deze generatieve AI is op nepnieuws en desinformatie. Want, hoe betrouwbaar is die AI eigenlijk?
Voor de informatie over AI en desinformatie werkten de redacties van isdatechtzo.nl en NPO Kennis samen. NPO Kennis legt uit hoe AI leert, voordat het plaatjes of tekst kan creëren. Bekijk eerst de story:
“Chatbots zoals ChatGPT schrijven antwoorden op basis van informatie die we ze voeren”, vertelt Nico. “Hierdoor is het een weerspiegeling van onszelf en het internet. Vaak inclusief alle onzin en nepnieuwswebsites die daar te vinden zijn. De data die we in deze systemen voeren zijn dus niet alleen informatiebronnen die zijn gecheckt.”
“Ook wat jij invoert, als vraag of als informatie, komt in het systeem terecht. Daarmee hebben we samen een verantwoordelijkheid. We zien nu dat ChatGPT steeds slechter wordt in het geven van betrouwbare informatie, omdat we er zoveel onzin invoeren.”
“Chatbots zoals ChatGPT en Google Gemini zijn handig om vragen aan te stellen. Ze geven in een oogwenk een uitgebreid antwoord. Maar dit soort robots zijn geprogrammeerd om altijd antwoord te geven. Dat betekent dat, als de chatbot het antwoord niet weet, het iets zal verzinnen.”
Nico ontdekte tijdens zijn onderzoek dat de robot zelfs liegt om te verbergen dat het een fout heeft gemaakt. “Ik vroeg het om een review te schrijven voor een website, met de instructie om de toon van een 16-jarige aan te houden en ten minste 1 spellingsfout te maken. Toen er geen spellingsfout in stond, sprak ik de robot daarop aan. Waarop het ter plekke verzon welke spellingsfout het gemaakt zou hebben. Wat natuurlijk niet zo was. Ook als je duidelijke instructies geeft, zoals: ‘geef een bronvermelding’, kan het zijn dat die bronvermelding compleet verzonnen is. Het is een imperfect systeem.”
‘Ook als je duidelijke instructies geeft, zoals: ‘geef een bronvermelding’, kan het zijn dat die bronvermelding compleet verzonnen is. Het is een imperfect systeem’
Als AI zo slecht te vertrouwen is, waar kunnen we het dan wel voor inzetten?
Nico ziet meer positieve kanten aan AI dan negatieve. “Het kan ook veel bijdragen aan hoe we werken. Bijvoorbeeld om je te helpen om een idee uit te werken. Om een grote lap tekst samen te vatten of om data te verwerken. Maar we moeten AI niet als mens of betrouwbare bron gaan zien.”
“Generatieve AI is een computer die tekst of beeld maakt op basis van wat het heeft geleerd. Maar een computer heeft geen idee van wat waar is of niet. En ook niet van de menselijke wereld en de context waarin je iets vraagt. Het is daarom goed om te bedenken waarvoor we het wel en niet kunnen gebruiken. Je moet het systeem geen grote levensvragen gaan stellen. Het is een hulpmiddel en je moet altijd handmatig controleren of het wel klopt.”
Kan generatieve AI gebruikt worden om desinformatie te verspreiden?
Donald Trump die gearresteerd wordt of de paus in een vette jas. Met tools zoals ChatGPT of Midjourney kun je in een paar seconden een tekst of foto laten maken. Die zien er vaak geloofwaardig uit, alsof een mens het heeft gemaakt. “Dat kan expres ingezet worden om veel nepberichten in een keer te maken en te verspreiden op internet. Zo zie je bijvoorbeeld nep-reviews in online winkels zoals Amazon en zelfs hele nep-websites. Als iemand een concurrent kapot wil maken, kan die met veel negatieve nep-reviews veel schade aanrichten.”
Met de komst van geloofwaardige AI-creaties moeten we volgens Nico nooit meer zomaar iets voor waar aannemen. “Check altijd twee keer voordat je iets voor waar aanneemt of deelt. Als we daar niet voorzichtig mee zijn, kan onjuiste informatie veel mensen tegelijk misleiden.”
“Ik denk bijvoorbeeld dat influencers een kwetsbare groep zijn. Zij hebben een groot bereik en delen vaak actuele nieuwtjes. Iemand kan vrij gemakkelijk een geloofwaardige nepfoto toesturen, bijvoorbeeld om iemand in een kwaad daglicht te zetten. Of een neptekst, met nepnieuws over belangrijke onderwerpen zoals politiek, klimaat of gezondheid.” Als een influencer dit klakkeloos overneemt en we onze mening daarop baseren, kunnen we misleid worden. En bijvoorbeeld op basis van verkeerde informatie naar de stembus gaan.
Als we niks meer kunnen vertrouwen, hoe weten we dan nog wat waar is?
Het is dus vooral belangrijk om niet zomaar iets als waar aan te nemen. En om het zelf goed te checken of het klopt. Nico geeft 5 tips:
1. Check of het is onderzocht. Factcheckers en goede journalistiek worden steeds belangrijker. Zij hebben de middelen om te onderzoeken of iets echt of nep is. Kijk daarom altijd of er een bestaande factcheck of krantenartikel is dat laat zien of iets wel klopt. Bijvoorbeeld op Nieuwscheckers.nl of Nu Checkt.
2. Check waar het vandaan komt. Bedenk bij het zien van een bericht wat de belangen kunnen zijn van de verzender. Zo zijn er gerichte desinformatiecampagnes, om een positief beeld van een land te promoten (dat doet bijvoorbeeld China richting Europese bronnen). Maar denk ook aan de nepreviews die proberen een concurrent uit te schakelen. Check ook altijd de ‘over ons’-pagina op een website om de bron te controleren.
3. Check of de persoon bestaat. AI zorgt voor nieuwe vormen van fraude. Iemand kan met AI gemakkelijk een nepprofiel maken van een persoon die helemaal niet bestaat, compleet met nepfoto en profiel. Vooral als diegene je tot actie aanspoort, bijvoorbeeld om snel geld over te maken: dubbelcheck dan of het om een bestaand persoon gaat. Dat kan bijvoorbeeld door
4. Check of het echt een bekende is. Ook kan iemand zich voordoen als een bekend persoon. Bijvoorbeeld een deepfake-filmpje of stemcloning (waarbij je stem wordt nagemaakt met AI), dat wordt gemaakt op basis van filmpjes en audio van deze persoon. Zie bijvoorbeeld deze video met Mark Rutte, gemaakt door De Correspondent. Check of het echt die persoon is, door op te zoeken of betrouwbare bronnen bevestigen dat diegene dat gezegd heeft. Of in dit geval: of erbij wordt vermeld dat het met AI is gemaakt. Is het een bekende van jou? Check dan of het echt je vriend of dochter is door een codewoord af te spreken of persoonlijke vragen te stellen (zie ook dit artikel voor tips)
5. Check afbeeldingen en video’s. Wil je weten of een foto echt gemaakt is, en niet gemaakt door AI? Gebruik de Google functie Reverse Image Search. Ook de VRT geeft tips om een foto te checken. Of lees de tips van NRC.