Dankzij de snelle vooruitgang in AI-technologie zijn “deepfake”-video’s, afbeeldingen, spraakopnames en andere meme-ready content die politici en beroemdheden valselijk imiteert nu een feit van het leven. Nu het Congres scherp verdeeld is langs partijlijnen en er geen wetten zijn die specifiek gericht zijn op hyperrealistische, door AI gegenereerde bedriegers en oplichters, worstelen federale toezichthouders en staatswetgevers om bij te blijven.
Sommige fans van Musk leerden onlangs op de harde manier over de gevaren van deepfakes nadat ze op een neppe maar overtuigende video hadden geklikt van de controversiële techmiljardair die een beleggingsscam promootte. De video werd tienduizenden keren bekeken op socialemediaplatforms zoals Facebook en slachtoffers meldden dat ze duizenden dollars waren kwijtgeraakt aan onbekende oplichters.
Musk omarmt rechtse politiek en complottheorieën sinds hij de sociale mediasite kocht die voorheen bekendstond als Twitter, en eind juli deelde hij zelf een parodie-deepfake, met een door AI gegenereerde parodievideo die beweerde de stem van vicepresident Kamala Harris te laten horen aan miljoenen volgers. De video gebruikt een stemkloningstool om de presidentskandidaat na te bootsen, wat het potentieel van AI om kiezers te misleiden onthult.
Sommige deepfakes lijken onschuldige parodieën , maar politieke campagnes gebruiken al AI-gegenereerde advertenties die lijken op echte kandidaten en evenementen, maar in feite nep zijn, aldus de waakhond Public Citizen. De Federal Election Campaign Act, die oorspronkelijk in 1972 werd aangenomen, verbiedt kandidaten voor een openbaar ambt om zich in het openbaar voor te doen als andere kandidaten, en het is ook een misdaad om je voor te doen als een politieke kandidaat om geld in te zamelen met hun naam. Dergelijke tactieken zijn zowel frauduleus als misleidend voor kiezers.
Tot nu toe heeft alleen de Federal Communications Commission (FCC) op federaal niveau beslissende maatregelen genomen tegen deepfakes. In februari verduidelijkte de commissie dat de federale wet het gebruik van generatieve AI verbiedt om menselijke stemmen te creëren in robocalls als reactie op een telefoontje uit New Hampshire waarin president Joe Biden werd geïmiteerd tijdens de Democratische voorverkiezingen. De robocall bevatte Bidens beroemde slogan “a bunch of malarky” en suggereerde dat stemmen in de voorverkiezingen een stem uitsluiten bij de algemene verkiezingen in november.
Het was een duidelijke poging tot kiezersonderdrukking die de gevaren liet zien die AI deepfakes kunnen vormen voor de democratie. Een onderzoek naar de robocall in New Hampshire leidde terug naar een politiek adviseur, een goochelaar die stemacteur werd in New Orleans en twee politieke adviesbureaus in Texas. Een van die bedrijven, Lingo Technologies, stemde in met het betalen van een civiele boete van $ 1 miljoen in een schikking met de FCC.
Onder leiding van FCC-voorzitter Jessica Rosenworcel heeft het agentschap ook nieuwe regels voorgesteld die vereisen dat kijkers bekend worden gemaakt wanneer AI wordt gebruikt in politieke advertenties. Het regelgevingsproces van de FCC kan echter maanden, zo niet jaren duren, en het is onwaarschijnlijk dat het voorstel in werking treedt vóór de verkiezingen in november.
Het Congres zou wetgeving kunnen aannemen die AI en deepfake-inhoud reguleert, maar het door de Republikeinen gecontroleerde Huis worstelt om simpelweg een begroting aan te nemen, waardoor het onwaarschijnlijk is dat het Congres binnenkort actie zal ondernemen. Staatswetgevers in beide partijen zijn in actie gekomen en nu is New Hampshire een van de 40 staten die openbaarmakingsregels voor door AI gegenereerde advertenties en inhoud overwegen, aldus Roll Call .
Op federaal niveau wenden waakhonden van het publieke belang zich nu tot de Federal Election Commission (FEC), die de macht heeft om campagnes en hun communicatie met kiezers te reguleren. De FEC ligt echter grotendeels stil sinds 2006, toen de toenmalige leider van de meerderheid in de senaat, Mitch McConnell, zich realiseerde dat de handhaving van campagnefinanciering belemmerd kon worden door Republikeinen aan te stellen die de federale wet niet zouden toepassen op de evenwichtig bipartisan FEC, aldus Craig Holman, een lobbyist op Capitol Hill voor Public Citizen.
“Sindsdien zijn de handhaving en regelgeving door de FEC grotendeels stilgevallen”, vertelde Holman Truthout in een e-mail.
In reactie op een petitie van Public Citizen stelt de FEC een nieuwe “interpretatieve regel” voor die verduidelijkt dat bestaande wetgeving tegen het frauduleus imiteren van politieke kandidaten ook deepfakes omvat die zijn gegenereerd door kunstmatige intelligentie. Maar waakhonden, waaronder Public Citizen, zeggen dat de bipartisan campagneregulatoren verder moeten gaan en expliciet AI-gegenereerde media moeten verbieden die bedoeld zijn om kiezers te misleiden met een overtuigende digitale imitatie van politieke kandidaten.
“De compromisresolutie over deepfakes is uniek omdat twee Democratische commissarissen zich hebben aangesloten bij twee Republikeinse commissarissen om een nieuwe regelgeving voor te stellen om de bestaande campagnefinancieringswet te handhaven,” zei Holman. “Maar om een bipartizaan compromis te smeden, pakt de resolutie het probleem niet rechtstreeks aan en laat het mogelijkheden open om handhaving te vermijden.”
“Een goede resolutie zou eenvoudigweg hebben verklaard dat misleidende en schadelijke deepfakes die door een kandidaat zijn geproduceerd en verspreid, een frauduleuze verkeerde voorstelling van zaken door die kandidaat vormen”, vervolgde Holman.
Robert Weissman, medevoorzitter van Public Citizen, was wat botter en zei in een verklaring deze week dat de FEC “haar doel en missie, of misschien haar ruggengraat, lijkt te zijn vergeten.” Nu deepfakes verkiezingen over de hele wereld beïnvloeden en in de VS opduiken voorafgaand aan een cruciale verkiezing in november, zei Weissman dat de FEC “actief moet werken aan het ontmoedigen” van politieke deepfakes, met name video’s waarin kandidaten worden nagebootst en kiezers verkeerd worden geïnformeerd over hun standpunten.
“De nieuwe voorgestelde ‘interpretatieve regel’ van de FEC zegt simpelweg dat de wet op frauduleuze verkeerde voorstelling van zaken van toepassing is, ongeacht welke technologie wordt gebruikt. Dat is een oplossing van een vraag die nooit ter discussie stond”, merkte Weissman op.
Toch zei Weissman dat politieke adviseurs moeten weten dat politieke deepfakes die door kandidaten en campagnes worden verspreid, in strijd zijn met de federale wet die frauduleuze verkeerde voorstelling van zaken van een andere kandidaat of campagne verbiedt. Of de FEC zelfs deze regel zal handhaven, moet nog blijken.