We hebben de voorbije tien jaar toegang gekregen tot een overvloed aan informatie. Helaas is niet al die informatie even betrouwbaar en krijgen we steeds vaker te maken met een probleem dat we in de volksmond ‘fake news’ noemen. Covid-19 heeft nog maar eens duidelijk gemaakt hoe belangrijk goed geïnformeerde burgers zijn. Technologie is enerzijds een aanleiding voor deze informatieve chaos, maar kan ons anderzijds ook helpen om misinformatie en waardevolle boodschappen van elkaar te onderscheiden.

Voor we het over technologische oplossingen hebben, moeten we eerst de term ‘fake news’ onder de loep nemen. Die dekt de lading van het probleem toch niet helemaal. Het is wat kort door de bocht om misinformatie bij voorbaat vals of verkeerd te noemen. Heel vaak is de inhoud van dit soort berichten niet geheel onwaar, maar is de boodschap uit z’n context gehaald. Het feit dat er toch een grond van waarheid in zit, maakt een bericht veel geloofwaardiger en gevaarlijker. Lezers zullen boodschappen immers sneller delen en zo gaat foutieve informatie zich al gauw als een lopend vuurtje verspreiden.

We denken bij dit soort nieuws ook vaak aan een politieke context, waarbij het de bedoeling is om kiezers te manipuleren. Tijdens de coronacrisis hebben we echter gemerkt dat het slecht informeren van de bevolking nog dramatischere proporties kan aannemen. Er zijn zelfs mensen gestorven of blind geworden omdat ze ontoereikend advies over behandelingen tegen Covid-19 voor waar hielden. Er moet dus dringend iets gebeuren als we niet willen dat onze hele maatschappij aan deze informatieve chaos ten onder gaat.

Emoties filteren met AI

Redacties doen ondertussen nog meer hun best om de feiten achter het nieuws te controleren, sociale media zoals Facebook gebruiken algoritmen om ongepaste berichten te detecteren… Maar is dat allemaal wel voldoende? We zullen vermoedelijk ook ons eigen gedrag moeten veranderen. Kwaadwillige boodschappers weten dat we sneller geneigd zijn om een bericht te geloven als de inhoud ervan emoties opwekt. Emoties schakelen immers ons vermogen uit om informatie kritisch te benaderen.

Jammer genoeg bestaat er geen algoritme dat waarheid en leugens van elkaar onderscheidt. Toch kunnen analytics op basis van enkele parameters de kans berekenen dat een bericht misinformatie zou bevatten. Door lezers hiermee te confronteren, moet er een belletje rinkelen dat ze de boodschap beter met een korreltje zout nemen.

Artificiële intelligentie kan dus een wapen tegen misinformatie zijn, maar hierbij moeten we opmerken dat ook de verspreiders van dit soort berichten vaak op AI gebaseerde technologie gebruiken. We mogen dus spreken van een soort wapenwedloop waarbij we AI met AI gaan bestrijden. Hoe gaat dit dan precies in z’n werk? Software van SAS maakt het mogelijk om de kracht van analytics ook op onze perceptie van informatie toe te passen.

Van stockbeelden tot clickbait

De meeste artikelen bevatten drie elementen die we kunnen gaan analyseren: een titel, tekst en een foto. Uit onderzoek blijkt dat bronnen van misinformatie heel vaak stockbeelden gebruiken. Meestal zijn die beelden ook bewerkt om een emotionele reactie bij de lezer op te wekken. Het SAS-platform kan in enkele seconden tijd databanken met stockbeelden doorzoeken om na te gaan of de foto van een artikel hieruit afkomstig is. Vervolgens is het ook mogelijk om te controleren of er aan de foto gesleuteld is.

De titel en de tekst van een artikel moeten we samen bestuderen. Zo blijkt dat bronnen van misinformatie vaak een titel hebben die niet bij de inhoud van de tekst aansluit. Dat kan erop wijzen dat de auteur van het artikel geen professionele schrijver of journalist is. Of dat we met clickbait te maken hebben. Dan is het immers de bedoeling om met een opvallende titel het aantal lezers en shares op sociale media te verhogen.

Computermodellen kunnen berekenen hoe waarschijnlijk het is dat titel en tekst niet bij elkaar passen. Hiervoor wordt de titel eerst afgebroken in woorden of tekens. Vervolgens zet het systeem die tekens om in een reeks cijfers. Van de tekst wordt een samenvatting gemaakt in de vorm van enkele zinnen die representatief zijn voor de inhoud van het artikel. Daarna doet het programma met deze zinnen hetzelfde als met de titel, zodat er andermaal een cijfersequentie overblijft. Op basis hiervan berekent de computer dan of er sprake is van een discrepantie tussen titel en tekst.

De lezer krijgt het resultaat via een percentage bij het artikel te zien. Hoe lager het percentage, des te voorzichtiger we zouden moeten zijn.

AI als leidraad

Zelfs met AI kunnen we nooit met zekerheid vaststellen of een bericht al dan niet klopt, maar het kan wel een leidraad bieden die ons helpt om meer orde te scheppen in een wereld van informatieve chaos. Artificiële intelligentie kan ons een waarschuwing bezorgen, zodat we nieuws minder snel gaan verspreiden en misinformatie sneller in de kiem smoren.

De laatste jaren is video een steeds belangrijkere bron van informatie geworden, maar ook hier kunnen we met analytics op zoek gaan naar patronen die aantonen dat beelden gemanipuleerd zijn.

Op dit moment wordt deze tool nog niet in de praktijk gebruikt, maar we zouden dat wel heel snel kunnen doen. De technologie hierachter gebruikt SAS immers al in verschillende andere domeinen, bijvoorbeeld om tekortkomingen in de productieketen van een fabriek te identificeren, of om via commentaren van klanten bepaalde problemen te detecteren.

Uiteindelijk zal het bestrijden van misinformatie een gedeelde verantwoordelijkheid blijven, maar technologie heeft zeker het potentieel om ons hierbij te ondersteunen door ons meest menselijke kantje – onze emoties – te filteren en ons aan te zetten om informatie met een kritischere blik te bekijken. En dat heeft onze samenleving nu meer dan ooit nodig.

Meer weten over dit onderwerp? Bekijk dan deze SAS Virtual Friday webinar.

REAGEREN

Plaats je reactie
Je naam