Recalcitrante Deskundigen

Hoe zorg je ervoor dat een discussie doodbloedt? Je kan proberen een ad hominem te gebruiken, een aanval op de persoon, in de hoop dat dat de discussie beëindigt. In het geval van een grotere groep zou je een vorm van tribalism kunnen gebruiken: 'je bent vóór ons of je bent verkeerd'. Maar hoe doe je dat in een heel vakgebied? Hoe zorg je ervoor dat de gemiddelde deskundige in een tak van de wetenschap weigert te discussiëren over fundamentele zaken, zelfs met zijn of haar collega? Hoewel er vast meerdere manieren zijn om zoiets teweeg te brengen, kunnen we een voorbeeld nemen aan de geschiedenis van Artificial Intelligence (AI).

De droom van progressie

Artificial Intelligence, de grote droom. Het idee van computers die ons zodanig snappen dat we menselijk met ze kunnen communiceren wekt sci-fi-beelden op. Het ontwikkelen van een menselijke Artificial Intelligence heeft ook wat weg van de zoektocht van de alchemisten. Zij wilden lood in goud veranderen, wij siliconen in een mens.
Wetenschappers kunnen zulke toekomstdromen goed verkopen. Denk toch eens aan alle mogelijkheden! Zeker als je (koude) oorlog hebt met een ander land: wie wil nou niet alle berichten van de Russen meteen kunnen vertalen?
Van 1954 tot 1966 deed de Amerikaanse overheid dit. Zij (lees DARPA) investeerden agressief in allerlei vormen van AI. Het koor van wetenschappers zong in kerkelijke klanken over de toekomst die zij in zouden luiden. Er werden talloze beloftes gemaakt over de competenties van computers en welke problemen ze allemaal wel niet zouden kunnen oplossen.
Van 1966 tot 1980 (maar voornamelijk van 1974 tot 1980) en tussen 1987 en 1993 viel dit gedachtegoed echter uiteen. Vertalen bleek veel moeilijker dan verwacht. We kwamen steeds meer achter de limieten van logica en de rede. We konden dan wel computers maken die konden rekenen en schaak konden spelen, maar de variabelen van de echte wereld en de inferentie die daarvoor nodig was om te handelen konden de computers (nog lang) niet aan. De zogenaamde expert machines bleken broos: ze waren goed voor kleine en hele specifieke taken, maar alles dat daar buiten viel brak ze. Hierdoor verviel het onderzoeksveld van AI in een diepe winter.

AI winter

De term 'AI winter' is niet uit de lucht gegrepen. Er ontstond een zogenaamde winterslaap in het onderzoeksveld doordat men het vertrouwen verloor in Artificial Intelligence en haar mogelijkheden. Dit heeft waarschijnlijk te maken met de 'hype cycle': wetenschappers zongen over potentie maar konden hun beloftes niet waarmaken omdat de problemen moeilijker bleken. Hierdoor waren er talloze projecten die vastliepen of faalden, waardoor investeerders stopten met geloven in de potentie van AI. De term 'AI Winter' is afgeleid van de nucleaire winter, en raakt zo ook aan Chernobyl. De tragedie van Chernobyl heeft onderzoek naar andere invullingen omtrent kernenergie moeilijk gemaakt. De angst van het publiek stopte verder onderzoek. Op diezelfde manier waren investeerders in AI ook bang dat hun geld zou verdwijnen zonder dat ze er ooit iets voor terug zouden zien.

De discussieloze nasleep

Nu zijn we hier, het heden. AI is toch weer hip! Gebruik de woorden 'Big Data' en 'Machine Learning' en je verkoopt. Het vakgebied heeft een uitweg gevonden: applicaties. Er valt geld te verdienen aan een machine die kanker kan spotten, of een die kan bepalen wat relevant is als je een miljoen documenten moet doorspitten. Prachtig, maar er zit wel een keerzijde aan deze uitweg. Door de nadruk te leggen op de applicatie vergeten we te kijken naar fundamentele zaken, problemen die onder de huid van AI spelen. Er zijn talloze problemen zoals The Frame Problem (wat is relevant in een gegeven situatie?) en Underdetermination (wanneer hebben we genoeg data?) die we eerst moeten begrijpen voordat we weten hoe we AI kunnen implementeren. Bovendien is de discussie in de filosofie tussen Realisme (er is een structuur in de realiteit) en Anti-realisme (de structuur van de realiteit is bepaald door sociologische factoren) nog verre van voorbij.
Al deze zaken zijn van belang omdat ze grote invloed uitoefenen op ons begrip en de mogelijkheden van AI. Neem bijvoorbeeld het Underdetermination probleem. Als AI werkelijk ondergedetermineerd is kunnen we nooit een beslissing laten nemen door een computer omdat deze nooit volledig naar de situatie kan kijken. Hetzelfde geldt voor The Frame Problem: als een programma niet kan bepalen wat relevant is in een gegeven situatie dan kunnen we ook niet weten of het wel aandacht geeft aan de juiste factoren.

Helaas moeten we stil zijn over zulke zaken. Dadelijk hoort iemand het! We willen toch niet dat de sluizen weer sluiten? Het geld moet blijven stromen. Dus als ik in de collegebanken of in kantoren van professoren een vraag stel als: 'Hoe bepalen we wat relevant is in data?', krijg ik geen antwoord. Ook een aantal van mijn collega's die zich in aangelegen vakgebieden als filosofie bevindt, ontvangen oorverdovende stilte. De gemiddelde wetenschapper durft niet meer te zingen. De angst voor een nieuwe winter hangt namelijk boven hen als ze de hype deze keer weer niet kunnen waarmaken.
Maar dit heeft consequenties. AI is nu een machtig wapen in de handen van enkelen. Denk bijvoorbeeld aan informatiebeheer, zoals Google dat bepaalt welke informatie relevant is, Facebook dat bepaalt welk nieuws je wel of niet ziet, of Tinder dat bepaalde potentiële partners eerder laat zien dan anderen. De huidige studies in AI, in ieder geval aan de twee universiteiten waar ik heb gezeten, zetten ons niet aan tot nadenken over de mogelijke consequenties van zulke applicaties. De discussie is kapotgegaan omdat we dingen hebben beloofd en nu vrezen dat openheid over problemen weer tot een crash zal leiden. Terwijl het juist in deze tijd zo belangrijk is dat we vraagtekens durven te zetten bij een AI die onze toekomst inluidt.

Dit item is geschreven door Sietze van schrijverscollectief Kaf.