Inhoudsopgave:
Verwacht wordt dat nepnieuws een grote doorn zal zijn in de zijde van de komende presidentsverkiezingen, om nog maar te zwijgen over het algehele corrosieve effect ervan op ons publieke discours in het algemeen. In de verbonden samenleving van vandaag is het onderscheiden van fictie steeds moeilijker geworden, en daarom beginnen sommige onderzoekers zich te concentreren op de kracht van kunstmatige intelligentie om dit probleem aan te pakken.
De hoop is natuurlijk dat machines, of beter gezegd algoritmen, beter zijn dan mensen om leugens te ontdekken. Maar is dit een realistische verwachting, of gewoon een ander geval van het gooien van technologie naar een schijnbaar onhandelbaar probleem?
Een dief vangen. . .
Een van de manieren waarop datawetenschappers van plan zijn het inzicht van AI op dit gebied aan te scherpen, is door het nepnieuws te laten genereren. Het Allen Institute voor AI aan de Universiteit van Washington heeft Grover ontwikkeld en publiekelijk vrijgegeven, een engine voor natuurlijke taalverwerking die is ontworpen om valse verhalen te maken over een breed scala aan onderwerpen. Hoewel dit in het begin contraproductief lijkt, is dit in feite een vrij algemene AI-trainingstactiek waarbij de ene machine de output van een andere analyseert. Op deze manier kan de analysezijde veel sneller op snelheid worden gebracht dan te vertrouwen op echt nepnieuws. Het instituut beweert dat Grover al kan werken met een nauwkeurigheid van 92%, maar het is belangrijk op te merken dat het alleen bedreven is in het onderscheiden van AI-gegenereerde inhoud versus door mensen gegenereerde inhoud, wat betekent dat een slimme persoon nog steeds een vals verhaal kan sluipen ervoorbij. (Kijk voor meer informatie op The Technologies Around Fighting Fake News.)