20 oktober 2021

SDB

dagelijks nieuws en blogs

Facebook-klokkenluider Frances Haugen getuigde dat de algoritmen van het bedrijf gevaarlijk zijn – zo kunnen ze je manipuleren

facebook

Voormalig productmanager van Facebook, Frances Haugen, getuigde voor de Amerikaanse senaat op 5 oktober 2021 dat de socialemediaplatforms van het bedrijf ” kinderen schaden, verdeeldheid aanwakkeren en onze democratie verzwakken “.

Haugen was de belangrijkste bron voor een uiteenzetting van de Wall Street Journal over het bedrijf. Ze noemde de algoritmen van Facebook gevaarlijk, zei dat Facebook-managers zich bewust waren van de dreiging, maar winst voor de mensen stelden, en riep het Congres op om het bedrijf te reguleren.

Sociale-mediaplatforms zijn sterk afhankelijk van het gedrag van mensen om te beslissen over de inhoud die u ziet. Ze letten met name op inhoud waar mensen op reageren of waarmee ze ‘aangaan’ door ze leuk te vinden, erop te reageren en te delen. Trollfarms , organisaties die provocerende inhoud verspreiden, maken hier misbruik van door hoogbetrokken inhoud te kopiëren en als hun eigen inhoud te plaatsen , waardoor ze een breed publiek kunnen bereiken.

Als computerwetenschapper die de manieren bestudeert waarop grote aantallen mensen met technologie omgaan, begrijp ik de logica van het gebruik van de wijsheid van de menigte in deze algoritmen. Ik zie ook flinke valkuilen in hoe de social media bedrijven dat in de praktijk doen.

Van leeuwen op de savanne tot likes op Facebook

Het concept van de wijsheid van menigten gaat ervan uit dat het gebruik van signalen uit andermans acties, meningen en voorkeuren als leidraad zal leiden tot gefundeerde beslissingen. Zo zijn collectieve voorspellingen doorgaans nauwkeuriger dan individuele. Collectieve intelligentie wordt gebruikt om financiële markten, sport , verkiezingen en zelfs uitbraken van ziekten te voorspellen .

Gedurende miljoenen jaren van evolutie zijn deze principes in het menselijk brein gecodeerd in de vorm van cognitieve vooroordelen die gepaard gaan met namen als vertrouwdheid , loutere blootstelling en bandwagon-effect . Als iedereen begint te rennen, moet jij ook gaan rennen; misschien heeft iemand een leeuw zien komen en rennen die je leven kan redden. Je weet misschien niet waarom, maar het is verstandiger om later vragen te stellen.

Je brein pikt aanwijzingen op uit de omgeving – inclusief je leeftijdsgenoten – en gebruikt eenvoudige regels om die signalen snel om te zetten in beslissingen: ga met de winnaar, volg de meerderheid, kopieer je buurman. Deze regels werken opmerkelijk goed in typische situaties omdat ze gebaseerd zijn op goede aannames. Ze gaan er bijvoorbeeld van uit dat mensen vaak rationeel handelen, het onwaarschijnlijk is dat velen ongelijk hebben, het verleden de toekomst voorspelt, enzovoort.

Technologie stelt mensen in staat toegang te krijgen tot signalen van veel grotere aantallen andere mensen, van wie de meesten ze niet kennen. Toepassingen op het gebied van kunstmatige intelligentie maken intensief gebruik van deze populariteits- of “betrokkenheids”-signalen, van het selecteren van zoekresultaten van zoekmachines tot het aanbevelen van muziek en video’s, en van het voorstellen van vrienden tot het rangschikken van berichten in nieuwsfeeds.

Niet alles wat viraal is verdient het om te zijn

Uit ons onderzoek blijkt dat vrijwel alle webtechnologieplatforms, zoals sociale media en nieuwsaanbevelingssystemen, een sterke populariteitsbias hebben . Wanneer applicaties worden aangedreven door signalen zoals betrokkenheid in plaats van expliciete zoekopdrachten van zoekmachines, kan populariteitsbias leiden tot schadelijke onbedoelde gevolgen.

Sociale media zoals Facebook, Instagram, Twitter, YouTube en TikTok zijn sterk afhankelijk van AI-algoritmen om inhoud te rangschikken en aan te bevelen. Deze algoritmen nemen als invoer wat u leuk vindt, becommentarieert en deelt – met andere woorden, inhoud waarmee u zich bezighoudt. Het doel van de algoritmen is om de betrokkenheid te maximaliseren door erachter te komen wat mensen leuk vinden en dit bovenaan hun feeds te plaatsen.

Op het eerste gezicht lijkt dit redelijk. Als mensen van geloofwaardig nieuws, meningen van experts en leuke video’s houden, zouden deze algoritmen dergelijke inhoud van hoge kwaliteit moeten identificeren. Maar de wijsheid van de menigte maakt hier een belangrijke veronderstelling: dat het aanbevelen van wat populair is, zal helpen bij het ‘opborrelen’ van inhoud van hoge kwaliteit.

We hebben deze veronderstelling getest door een algoritme te bestuderen dat items rangschikt met een mix van kwaliteit en populariteit. We ontdekten dat populariteitsbias over het algemeen de algehele kwaliteit van inhoud verlaagt. De reden is dat betrokkenheid geen betrouwbare indicator voor kwaliteit is als er maar weinig mensen zijn blootgesteld aan een item. In deze gevallen genereert betrokkenheid een signaal met ruis, en het algoritme zal deze aanvankelijke ruis waarschijnlijk versterken. Zodra de populariteit van een item van lage kwaliteit groot genoeg is, zal het steeds groter worden.

Algoritmen zijn niet het enige dat wordt beïnvloed door betrokkenheidsbias – het kan ook van invloed zijn op mensen . Er zijn aanwijzingen dat informatie wordt overgedragen via ” complexe besmetting “, wat betekent dat hoe vaker mensen online worden blootgesteld aan een idee, hoe groter de kans is dat ze het overnemen en opnieuw delen. Wanneer sociale media mensen vertellen dat een item viraal gaat, treden hun cognitieve vooroordelen op en vertalen zich in de onweerstaanbare drang om er aandacht aan te besteden en het te delen.

Niet-zo-wijs publiek

We hebben onlangs een experiment uitgevoerd met een app voor nieuwsgeletterdheid genaamd Fakey . Het is een door ons lab ontwikkeld spel dat een nieuwsfeed simuleert zoals die van Facebook en Twitter. Spelers zien een mix van actuele artikelen uit nepnieuws, rommelwetenschap, partijdige en samenzweerderige bronnen, evenals reguliere bronnen. Ze krijgen punten voor het delen of leuk vinden van nieuws uit betrouwbare bronnen en voor het markeren van artikelen met een lage geloofwaardigheid voor feitencontrole.

We ontdekten dat spelers artikelen uit bronnen met een lage geloofwaardigheid eerder leuk vinden of delen en minder geneigd zijn om artikelen te markeren als ze kunnen zien dat veel andere gebruikers zich met die artikelen hebben beziggehouden. Blootstelling aan de engagement-metrics creëert dus een kwetsbaarheid.

De wijsheid van de menigte faalt omdat ze is gebaseerd op de valse veronderstelling dat de menigte is samengesteld uit diverse, onafhankelijke bronnen. Er kunnen verschillende redenen zijn dat dit niet het geval is.

Ten eerste, vanwege de neiging van mensen om met vergelijkbare mensen om te gaan, zijn hun online buurten niet erg divers. Het gemak waarmee gebruikers van sociale media de vriendschap met degenen met wie ze het niet eens zijn, kunnen ontvrienden, duwt mensen in homogene gemeenschappen, vaak aangeduid als echokamers .

Ten tweede, omdat de vrienden van veel mensen vrienden van elkaar zijn, beïnvloeden ze elkaar. Een beroemd experiment toonde aan dat weten welke muziek je vrienden leuk vinden, invloed heeft op je eigen uitgesproken voorkeuren. Je sociale verlangen om te conformeren verstoort je onafhankelijke oordeel.

Ten derde kunnen populariteitssignalen worden gespeeld. In de loop der jaren hebben zoekmachines geavanceerde technieken ontwikkeld om zogenaamde ” linkfarms ” en andere schema’s om zoekalgoritmen te manipuleren, tegen te gaan. Sociale-mediaplatforms daarentegen beginnen net te leren over hun eigen kwetsbaarheden .

Mensen gericht op de informatiemarkt te manipuleren hebben gecreëerd fake accounts , zoals trollen en sociale bots , en georganiseerde  nep netwerken . Ze hebben het netwerk overspoeld om de schijn te wekken dat een samenzweringstheorie of een politieke kandidaat populair is, waarbij ze zowel platformalgoritmen als de cognitieve vooroordelen van mensen in de maling nemen. Ze hebben zelfs de structuur van sociale netwerken veranderd om illusies te creëren over de mening van de meerderheid .

Meer dan 110.000 lezers vertrouwen op de nieuwsbrief van The Conversation om de wereld te begrijpen. Meld u vandaag nog aan .]

Betrokkenheid terugbellen

Wat te doen? Technologieplatforms zijn momenteel in het defensief. Ze worden tijdens verkiezingen agressiever in het verwijderen van nepaccounts en schadelijke desinformatie . Maar deze inspanningen kunnen lijken op een spelletje mep-een-mol .

Een andere, preventieve aanpak zou zijn om frictie toe te voegen . Met andere woorden, om het proces van informatieverspreiding te vertragen. Hoogfrequent gedrag, zoals automatisch leuk vinden en delen, kan worden geremd door CAPTCHA- tests, waarvoor een mens moet reageren, of vergoedingen. Dit zou niet alleen de mogelijkheden voor manipulatie verminderen, maar met minder informatie zouden mensen meer aandacht kunnen besteden aan wat ze zien. Het zou minder ruimte laten voor betrokkenheidsbias om de beslissingen van mensen te beïnvloeden.

Het zou ook helpen als sociale-mediabedrijven hun algoritmen zouden aanpassen om minder te vertrouwen op betrokkenheidssignalen en meer op kwaliteitssignalen om de inhoud te bepalen die ze u aanbieden. Wellicht zullen de klokkenluidersonthullingen voor de nodige aanzet zorgen.

SDB is al meer dan 10 jaar vrij, eerlijk en onafhankelijk. Geen miljardair bezit ons, geen adverteerders controleren ons. Wij zijn een door lezers ondersteunde non-profitorganisatie. In tegenstelling tot veel andere publicaties, houden we onze inhoud gratis voor lezers, ongeacht waar ze wonen of het zich kunnen veroorloven om te betalen.

We hebben geen paywalls en alles blijft gratis zonder censuur. In het post-truth-tijdperk van nepnieuws, echokamers en filterbubbels publiceren we meerdere perspectieven van over de hele wereld.

Iedereen kan bij ons publiceren, maar iedereen doorloopt een rigoureus redactioneel proces. U krijgt dus op feiten gecontroleerde, goed gemotiveerde inhoud in plaats van ruis.

Dit is niet goedkoop. Servers, redacteuren fees en web ontwikkelaars kosten geld. Overweeg alstublieft om ons te steunen als donateur of ondersteunend lid, ook wij hebben onze inkomsten zien dalen in deze heftige tijden daarom, KLIK HIER voor IBAN of via PayPal hieronder!, hartelijke dank en veel leesplezier.

Steun SDB via PayPal veilig en simpel.