Polarisatie? AI kan helpen
Overeenstemming bereiken in discussies met mensen met tegengestelde standpunten over politiek beladen en emotioneel geladen onderwerpen lijkt vaak praktisch onmogelijk. Volgens nieuw onderzoek gepubliceerd in het tijdschrift Science, kan kunstmatige intelligentie (AI) echter mogelijk een brug slaan bij hevige meningsverschillen.
Onderzoekers ontdekten dat consensusverklaringen die door AI zijn geschreven, door mensen als duidelijker, informatiever en minder bevooroordeeld worden beoordeeld dan die door een mens zijn opgesteld. Dat suggereert dat dergelijke AI-mediation mensen kan helpen hun overtuigingen over verdeeldheid zaaiende onderwerpen te veranderen, politieke impasses te doorbreken en mogelijk zelfs kan leiden tot vooruitgang in nieuw beleid en wetgeving. Tegelijkertijd waarschuwen experts dat dergelijke technologie nog niet klaar is voor toepassing in de echte wereld.
"Ik vind het zeer inventief," zegt James Fishkin, politicoloog aan de Stanford University die deliberatieve democratie bestudeert. "Ik zie mogelijke toepassingen voor wat ze hebben gedaan, maar het is nog geen op zichzelf staand alternatief voor wat wij proberen te doen."
Deliberatieve democratie is een vorm van publieke besluitvorming waarin informatievergaring, overleg en de uitwisseling van argumenten centraal staan. Deliberatieve organen zoals de Ierse Burgervergadering hebben in het verleden geleid tot belangrijke beleidsresoluties, zoals de legalisering van abortus in Ierland. Fishkin heeft meer dan 150 ‘deliberatieve peilingen’ georganiseerd waarbij mensen van mening veranderden over lastige onderwerpen zoals illegale immigratie en klimaatactie.
Hoewel deliberatieve organen in het echte leven, zoals bij de zogenoemde klimaattafels die enige tijd geleden leidden tot het Klimaatakkoord, doorgaans tientallen mensen bijeenbrengen, zou een AI-mediator bijvoorbeeld honderden mensen die verschillende talen spreken kunnen helpen bij het ontwikkelen van consensusverklaringen, zegt hoofdauteur Christopher Summerfield, onderzoeksdirecteur bij het Britse AI Safety Institute.
In een pilotstudie rekruteerden Summerfield en zijn collega's online mensen in het Verenigd Koninkrijk om deel te nemen aan een gesimuleerde deliberatie, waarbij de deelnemers werden verdeeld in 75 groepen van zes. In elke groep kreeg één persoon een korte training over hoe een consensusverklaring te schrijven op basis van de standpunten van de groep. De andere groepsleden schreven over hun meningen over een heet hangijzer, zoals of het VK gratis kinderopvang moet aanbieden.
Die meningen werden ingevoerd in een groot taalmodel (LLM), dat een conceptconsensusverklaring genereerde. De deelnemers bekritiseerden het concept herhaaldelijk totdat ze een definitieve versie bereikten. Vervolgens vergeleken ze de door AI geleide consensusverklaring met de verklaring die door de mens was geschreven. De onderzoekers ontdekten dat deelnemers in 56% van gevallen de voorkeur gaven aan de door AI geschreven verklaringen. Een aparte groep van 155 online gerekruteerde deelnemers beoordeelde de AI-verklaringen als duidelijker en informatiever.
Vervolgens testten de onderzoekers hun bevindingen in een gesimuleerde burgervergadering. Ze rekruteerden 200 vrijwilligers die representatief zijn voor de demografische samenstelling van het VK. In virtuele sessies beantwoordden deze deelnemers vragen over onderwerpen die vaak tot hevige tegenstellingen leiden, zoals de Brexit, het strafrecht en de pensioengerechtigde leeftijd. Opnieuw nam de AI hun antwoorden en vormde deze om tot consensusverklaringen, met behulp van meerdere feedbackrondes van de deelnemers.
Bij sommige vragen veranderden de deelnemers hun mening aanzienlijk. Zo was voorafgaand aan de taak 68% van de deelnemers het eens met de stelling "We zouden moeten proberen het aantal mensen in de gevangenis te verminderen". Nadien was dat percentage gestegen tot 78%.
De resultaten bleken per onderwerp sterk te verschillen. Op de vraag of het VK opnieuw zou moeten toetreden tot de Europese Unie, was er bijvoorbeeld helemaal geen verschuiving meetbaar, wat volgens de onderzoekers kan komen doordat meningen per onderwerp meer of minder verankerd kunnen zijn.
Volgens Summerfield is het model ‘klaar voor gebruik’ in de echte wereld. Hij stelt dat de technologie uitspraken kan genereren die de overtuigingen van deelnemers samenvatten in massale burgervergaderingen en politieke peilingen en zo voor verbetering kan zorgen ten opzichte van de informatie die kan worden verzameld in standaard opiniepeilingen. "Mensen hebben vaak verfijnde, genuanceerde opvattingen over complexe politieke kwesties en onze gebruikelijke instrumenten om ze te meten zijn ongelooflijk bot."
Alice Siu, politicoloog aan de Stanford University, noemt de nieuw ontdekte techniek ‘erg cool’, maar ze denkt niet dat die al klaar is voor implementatie. Voor sommige mensen kan een AI-mediator hen in staat stellen zich minder beoordeeld te voelen bij het uiten van hun standpunten, maar anderen kunnen wantrouwig zijn tegenover de technologie of moeite hebben om deze te gebruiken. Bovendien streven niet alle deliberatieve organen naar consensus, voegt ze toe.
Stephen Elstub, politicoloog aan de Newcastle University, is het hiermee eens en merkt op dat het systeem enkele essentiële ingrediënten mist die belangrijk zijn voor deliberatieve democratie, zoals deelnemers die luisteren naar deskundige beleidsadviseurs die hen op de hoogte brengen van de feiten en vervolgens samen delibereren in zorgvuldig gemodereerde groepssessies. AI-mediation heeft de potentie om ‘erg waardevol’ te worden, zegt Elstub, maar hij ziet het meer als een hulpmiddel voor facilitators dan als een vervanging.
Fishkin voegt daaraan toe dat zonder de essentiële stappen van deskundige informatie en groepsdeliberatie, er een risico bestaat dat slecht geïnformeerde en schadelijke opvattingen het proces binnensluipen en hun weg vinden in groepsverklaringen, een risico dat de auteurs erkennen. “In een goed geconstrueerd deliberatief orgaan horen deelnemers over de voor- en nadelen van een idee, relateren ze aan elkaar en soms nemen ze dan afstand van hun tribalistische opvattingen," zegt hij. "Ik geloof in de magie van dialoog onder het juiste ontwerp. Maar met AI-bemiddeling is er niet echt veel dialoog."